Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

GNOME 40 bascule les bureaux virtuels à l'horizontale sur les écrans multiples

26 février 2021 à 14:51

Maintenant que la bêta de GNOME 40 est disponible, beaucoup peuvent tester les multiples améliorations apportées à l’environnement de bureau. Avant de plonger plus avant dans l'ensemble des nouveautés, nous nous sommes attardés sur le support des écrans multiples.

GNOME 40 est un gros projet. Il n’y a d’ailleurs pas d’erreur dans le numéro de version : on passe bien directement de l’actuelle branche 3.x à la version 40, les développeurs ayant décidé de revoir la nomenclature.

Les versions majeures suivantes seront ainsi les 41, 42 et ainsi de suite, tandis que les révisions mineures prendront place après le traditionnel point. Par exemple, la mouture 40.1 sera la première révision de la version 40. Les préversions alpha, bêta et release candidates seront simplement indiquées comme telles.

Une méthode qui reste très classique, donc. Pas comme GNOME 40, qui est une évolution majeure, touchant largement à l’ergonomie et à l’interface. Mais avant de faire le point sur l’ensemble des changements apportés, il y en a un qui a particulièrement retenu notre attention : la gestion du multi-écrans.

Le problème des bureaux virtuels

Pourquoi cette thématique en particulier ? Parce qu’elle a souvent été au centre de problèmes sous Linux. Il ne s’agissait pas tellement de prendre en charge techniquement les écrans supplémentaires, mais plutôt de la manière dont ils étaient exploités. À travers un billet de blog paru il y a quelques jours, l’équipe de GNOME s’est dit consciente des interrogations, doutes et même « angoisses » dans ce domaine.

Dans les grandes lignes, le fonctionnement par défaut de GNOME 40 sera le même que dans l’actuelle version 3.38, surtout en ce qui concerne les bureaux virtuels. Ces derniers ne seront donc affichés que sur l’écran principal, avec le dock en bas. La bascule entre un bureau virtuel et un autre n’a donc lieu que sur cet écran.

Cependant, pour aider à comprendre la logique de fonctionnement, une animation aura lieu aussi sur l’écran secondaire, pour réduire notamment la taille du fond d’écran. Objectif, faire comprendre plus intuitivement à l’utilisateur que ce qu’il affiche sur l’écran secondaire n’est qu’un espace de travail parmi d’autres.

L’extension des bureaux virtuels aux autres écrans

Dans la bêta de GNOME 40, qui est désormais disponible, ce comportement par défaut peut être modifié via le paramètre workspaces-only-on-primary. La vue simplifiée ci-dessus illustre bien le changement. Si plusieurs bureaux virtuels sont configurés, l’écran principal récupère le premier, et le deuxième écran le second bureau :

GNOME 40

Déclencher la vue multitâche affichera toujours les miniatures des fenêtres, le dock sera toujours sur l’écran principal, mais le sélecteur de bureau virtuel s’affichera bien sur chaque écran. Ce comportement sera complété par un autre : basculer entre les bureaux virtuels agira sur l’ensemble des écrans.

Le sélecteur fonctionne en effet comme une roulette. L’extension des bureaux se fait par la droite, avec pour conséquence que l’écran principal sera toujours considéré comme étant celui le plus à gauche. Si vous avez par exemple quatre bureaux virtuels, que le premier écran affichera le bureau 1 et le deuxième écran le bureau 2, avancer d’un cran dans le sélecteur affichera les bureaux 2 et 3.

Dans tous les cas, on garde la possibilité de faire glisser une fenêtre depuis un bureau virtuel pour la déposer dans un autre. L’ensemble est résumé par cette petite vidéo :

Cette nouvelle organisation horizontale reprend en partie les raccourcis clavier de GNOME 3.x et en ajoute de nouveaux exploitant la touche « Super » désignant le plus souvent la touche Windows sur nos claviers AZERTY PC :

  • Super + Alt + ←/→ : avancer ou reculer dans le sélecteur de bureaux virtuels
  • Super + Alt + Maj + ←/→ : déplacer la fenêtre active vers le bureau virtuel de gauche ou de droite
  • Super + Alt + ↑ : afficher la vue Activités. Répété, le raccourci fait apparaitre la grille d’applications

Ceux qui ont l’habitude des applications plein écran de macOS reconnaitront les équivalents tactiles sur un touchpad : trois doigts vers la gauche ou la droite pour avancer ou reculer dans le sélecteur, trois doigts vers le haut pour afficher Activités.

« Tout le monde fait comme ça »

Les développeurs reconnaissent que cette manière de faire pourrait perturber les utilisateurs dont les installations sont verticales. Ils acquiescent… avant de vite se reprendre : « Cependant, il est bon de noter que les espaces de travail horizontaux sont une fonction [commune à] tous les autres environnements desktop ». En clair, GNOME faisait cavalier seul avec son organisation verticale jusqu’ici.

Et il y a pire : « Non seulement tous les autres le font, mais c’était également comme ça que GNOME le faisait avant la version 3.0, et que le mode classique de GNOME le fait encore ». Avant d’enfoncer le clou : « Nous estimons donc que les espaces horizontaux et les écrans disposés horizontalement peuvent bien aller ensemble. Si quelqu’un s’inquiète de ça, nous lui suggérons d’essayer et de voir ce que ça donne ».

Pour l’équipe, il s’agit d’une question de cohérence. Les tests auraient montré l’efficacité de cette organisation, avec un sélecteur présenté comme une « pellicule de film », le sens gauche-droite, les gestes tactiles et, plus globalement, un espace de travail qui peut s’étendre en suivant ces mêmes règles.

Cela étant, et même si l’on comprend le besoin de remettre ces fonctionnements à plat, on aurait aimé une liberté totale : pouvoir choisir quel bureau virtuel on veut afficher sur un écran en particulier. L’équipe ajoute toutefois que d’autres améliorations sont prévues pour le prochain cycle de développement, à savoir GNOME 41.

On notera que les bureaux virtuels reviennent sur le devant de la scène dernièrement. Si GNOME 40 va revoir son organisation avec les écrans multiples, la version 21H2 de Windows 10 permettra pour la première fois de les sélectionner individuellement pour chaque écran supplémentaire. Jusqu’à présent, le système de Microsoft se bornait en effet à ne les proposer que sur le principal.

Windows 10 : les nouveautés connues des mises à jour 21H1 et 21H2

25 février 2021 à 16:00

L’année 2021 devrait marquer un tournant pour Windows 10. Microsoft prépare une mise à jour majeure de son système attendue à l'automne. Avec celle en approche pour le premier semestre, le rythme habituel sera cependant inversé. Nous faisons le point sur ce qui attend les utilisateurs.

Depuis plusieurs années, le rythme de parution des mises à jour pour Windows 10 est réglé comme du papier à musique : deux mises à jour semestrielles, l’une en avril/mai, l’autre en octobre/ novembre. On était ainsi habitués à une version printanière riche en nouveautés, et une automnale consacrée aux performances et à la fiabilité.

2021 inversera ce rythme. On le sait depuis peu, le programme de la version 21H1 (2021 Half 1) sera très léger. Dans le même temps, la liste des nouveautés arrivant chaque semaine dans le canal Dev de la 21H2 s’allonge. Même s’il n’est pas garanti qu’elles soient toutes présentes dans la version finale, cela sera le cas pour beaucoup.

Mais depuis les premières rumeurs sur Sun Valley, on sait surtout que Microsoft travaille non pas à une révolution visuelle de son interface, mais à davantage de cohérence graphique, même s’il faut s’attendre là aussi à du neuf.

Mise à jour 21H1 : pas de quoi trépigner

La première mise à jour de l'année a tellement été passée sous silence que beaucoup finissaient par se demander si elle était prévue. Microsoft a finalement publié un billet de blog la semaine dernière pour l’officialiser, dévoilant au passage son programme bien léger, en tout cas pour le grand public.

Comme les deux dernières versions automnales, la 21H1 sera une petite mise à jour proposée dans Windows Update de la même manière que les correctifs mensuels. Son installation est promise par Microsoft comme rapide, du moins pour les personnes actuellement sous les deux dernières moutures, les 2004 et 20H2 (et non 2009, la nomenclature ayant changé à partir de là). Pour les versions plus anciennes, l’installation sera un peu plus longue.

Les améliorations prévues sont vites résumées. Il est tout d'abord question du support des caméras multiples pour Windows Hello, permettant de déclarer une caméra externe par défaut au lieu de celle intégrée à l’ordinateur. De meilleures performances sont également promises dans Windows Defender Application Guard pour l’ouverture de documents et pour les mises à jour par le Group Policy Service (GPSVC) dans les cas de travail à distance

Microsoft ne donne aucune date pour la diffusion de cette 21H1. La firme ne la dévoile en général que peu de temps avant son arrivée, qui ne correspond pas toujours à un Patch Tuesday (deuxième mardi de chaque mois). Notez que les personnes souhaitant tester cette version peuvent s’inscrire au programme Windows Insider (depuis les Paramètres du système) et choisir le canal Beta.

Version 21H2 : une prise en charge native de DNS over HTTPS

Pour la version attendue en fin d'année, actuellement dans le canal Dev, le programme est bien plus chargé. Les ajouts se font depuis plusieurs mois, à raison d’au moins une préversion par semaine (sauf durant les fêtes de fin d’année). Nous avons d'ailleurs déjà évoqué certaines d'entres elles, comme l'arrivée de DNS over HTTPS (DoH).

Il s’agissait d’une promesse de Microsoft, et bien que l’éditeur ait pris son temps pour la mettre en pratique, elle est désormais exploitable. L’accès au réglage dépend du type de connexion :

  • Connexion filaire : Paramètres > Réseau et Internet > État
  • Connexions sans fil : Paramètres > Réseau et Internet > Wi-Fi

On clique ensuite sur Propriétés, puis on descend jusqu’à DNS et on clique sur Modifier. Dans la petite fenêtre qui s’ouvre, on choisit alors Manuel puis on sélectionne le type de protocole IP pour lequel on veut préciser une adresse de serveur DNS. Dès que l’adresse est complète, la liste déroulante se déverrouille. On peut y choisir le mode de connexion : sans chiffrement, chiffré uniquement (DoH), ou chiffré recommandé, non chiffré autorisé.

Windows 10 21H2Windows 10 21H2

Si vous souhaitez activer DoH, il faudra donc choisir la deuxième ligne après avoir renseigné l’adresse, par exemple 1.1.1.1 pour Cloudflare ou 9.9.9.9 pour Quad9. Dès que vous validez le choix, le panneau Paramètres du DNS se met à jour et pointe vers l’adresse et son statut.

Dans notre exemple, on peut voir l’adresse de Quad9 et la mention « Chiffré » entre parenthèses. Le réglage est valable pour l’ensemble du système. Tous les navigateurs sachant puiser dedans pourront l’utiliser. Cela étant, certains le font souvent à travers un réglage interne. Pour l’instant, ce paramètre sert donc surtout à Edge.

Rappelons que DoH permet de passer par un serveur DNS chiffré. En comparaison du DNS classique de votre fournisseur d’accès, cela signifie en théorie que personne ne peut avoir la liste des sites que vous visitez. En théorie car tout dépend de la philosophie du prestataire utilisé.

Le partenariat de Cloudflare avec Mozilla avait par exemple fait parler, s’agissant d’une société américaine. Mozilla a cependant communiqué sur la charte imposée à Cloudflare pour avoir le droit de figurer dans son navigateur.

Alertes S.M.A.R.T. et utilisation du stockage

On trouve plusieurs améliorations liées au stockage. Windows 10 21H2 surveillera ainsi de manière plus proactive l'état de santé de ces périphériques. Si l’intégrité des données est menacée, le système préviendra l’utilisateur du danger en se basant sur les informations remontées par S.M.A.R.T.

Cette technologie ne sera donc plus là simplement pour fournir passivement des informations à la demande. Microsoft a en outre introduit un nouvel outil en ligne de commande baptisé DiskUsage. On peut l’appeler par la commande diskusage depuis une invite de commande classique ou PowerShell, mais avec les droits administrateur.

L’outil dispose de multiples options et sert à mettre en avant la manière dont l’espace de stockage est consommé. Si vous souhaitez par exemple savoir quels sont les fichiers de plus de 1 Go dans le dossier Windows, il faudra taper :

diskusage /minFileSize=1073741824 /h c:\windows

L’opérateur /minFileSize définit la taille minimale des fichiers qui nous intéresse, la valeur étant précisée en octets. L’opérateur /h signifie « human readable » et permet simplement de donner des tailles rapidement lisibles, par exemple « 2.5 GB ». Toutes les options de l’outil peuvent être obtenues par la commande diskusage -help.

La gestion des périphériques de stockage évolue également dans les paramètres du système. Ou plutôt, Microsoft y déplace des réglages et fonctions auparavant disséminées ailleurs, notamment dans la console de gestion (MMC).

Dans Paramètres > Système > Stockage, on note ainsi une nouvelle ligne baptisée « Gérer les disques et les volumes ». On y trouvera l’ensemble des périphériques présents dans la machine et les volumes contenus dans chacun d’eux. En cliquant sur un volume, on accède à Découvrir – qui ouvre simplement Explorateur pour en voir le contenu – et surtout à propriétés.

Windows 10 21H2Windows 10 21H2Windows 10 21H2

Dans ces dernières, on pourra modifier l’étiquette (le nom du volume) et la taille. Pour cette dernière, on évite ainsi de passer par la MMC et sa vieille interface, qui gardera peut-être la préférences des personnes habituées. Si vous souhaitez réduire la taille d’un volume pour augmenter celle d’un autre, c’est donc possible ici.

Dans ce même panneau, on pourra afficher l’utilisation du stockage, à savoir la répartition entre types de données, applications, etc. Si vous souhaitez définir un chemin d’accès NTFS, ce sera également possible un peu plus bas. La fonction permet de faire pointer le contenu d’un volume vers un dossier, qui servira alors de raccourci.

Enfin, on trouvera un lien vers le chiffrement BitLocker tout en bas.

WSL2 : de grosses nouveautés en préparation

WSL devient avec le temps un composant important de Windows. On a pu voir récemment le déploiement du noyau Linux 5.4 via Windows Update. Le sous-système a largement progressé avec la version 2, même si sa sortie s’est traduite pendant un temps par une plus grande complexité d’installation.

Depuis l’automne dernier, les améliorations à WSL se sont enchainées. On a déjà vu comment Microsoft travaillait à simplifier l’installation du sous-système et des distributions liées. Parmi les autres nouveautés apparues ces derniers mois, on note déjà la capacité pour WSL d’exécuter des commandes Linux spécifiques au démarrage de la distribution. Ces commandes doivent être ajoutées au fichier wsl.conf.

Comme nous l’avons déjà mentionné l’année dernière, WSL 2 recevra à terme l’accélération graphique, grâce à un partenariat entre NVIDIA et Microsoft. Cela signifie d’une part que les applications lancées dans les distributions en profiteront, mais également que des technologies comme CUDA et WinML pourront en tirer parti.

Autre nouveauté prévue, la capacité de monter des périphériques de stockage, via la commande wsl –mount. Conséquence directe, il deviendra possible d’accéder à des systèmes de fichiers que Windows ne prend normalement pas en charge, comme ext4. Cet ajout pourra être couplé à un autre : l’accès aux dossiers WSL depuis l’Explorateur via un raccourci prévu à cet effet, renvoyant vers \\wsl$\nom_de_distribution.

Évolutions de l’interface : surtout de l'attente pour l’instant

Il est prévu que la mise à jour 21H2 renouvelle largement l’interface avec le projet Sun Valley. Microsoft se sert actuellement de son kit WinUI (3) pour moderniser et harmoniser l’ensemble des éléments graphiques.

En attendant de vrais détails sur l’ampleur des travaux, les actuelles préversions proposent tout de même plusieurs changements. On peut y avoir par exemple de nouvelles animations pour l’ouverture des fenêtres, ou encore la prise en charge du thème sombre dans les résultats de recherche.

Si l’on en croit les rumeurs autour de Sun Valley, la version 21H2 pourrait en finir avec cet immense empilement de composants graphiques issus d’anciennes versions du système. Le blog NTDEV en avait dressé le détail :

  • Fluent Design : les ajouts les plus récents, comme la nouvelle application Météo
  • Metro (Windows 8/8.1),
  • Les éléments Win32 de Windows 8 : gestionnaire des tâches, transferts de fichiers, Explorateur…
  • Windows 7 : Paint, WordPad, Media Player, certaines boites de dialogue…
  • Vista : nombreux assistants, ancien panneau de configuration…
  • Windows XP : copie de fichiers pendant l’installation de pilotes
  • Windows 2000 : MMC, Windows Installer vu dans la majorité des installations, Winver…
  • Windows 95/NT 4.0 : panneau de l’économiseur d’écran, fenêtre Exécuter, fenêtre des propriétés d’un dossier

Ils ont eu droit à un petit coup de peinture, mais uniquement parce que le fond des fenêtres, la forme des boutons ou encore l’apparence de la barre de titre sont des contrôles communs qui peuvent tous être changés d’une traite.

Mais l’ergonomie générale en prend un coup, Windows 10 ayant l’air d’un gros millefeuille aux couches plus très fraiches. On attend de voir ce que Microsoft va en faire, même si certains ajouts très récents, comme la fenêtre d’actualités, permettent d’en avoir un aperçu : coins arrondis, plus de transparence, ensemble plus doux, etc.

On note quand même une évolution cruciale : le panneau des emojis s’améliore. En plus de proposer une sélection plus complète pour suivre les évolutions du standard, il dispose maintenant d’un onglet pour les GIF animés. Plus besoin donc en théorie de compter sur un service quelconque pour proposer la fonction, puisque toute application pouvant afficher un emoji pourra en profiter. Le raccourci clavier – Windows + ; – ne change pas.

Dans la même veine, signalons le remaniement du clavier virtuel, qui intègre justement le panneau des emoji (et toutes ses catégories, dont les gif) au-dessus des touches classiques.

Autres améliorations

Parmi les améliorations plus générales, on en trouve des très pratiques, dont certaines que l’on aurait aimé voir il y a déjà bien longtemps. Le gestionnaire des tâches intègre par exemple dans l’onglet Détails le type d’architecture supporté par un exécutable, x86 ou x64. Cette information aurait eu beaucoup plus d’importance il y a des années quand les processus x64 étaient plus rares, mais elle a au moins maintenant le mérite d’être affichée.

De même, quand on se rend dans Paramètres > Son > Gérer les périphériques audio, le panneau indique maintenant lequel est utilisé par défaut pour l’entrée et la sortie. Là encore, c’est une information élémentaire que l’on aurait aimé voir plus tôt dans le panneau de configuration.

Windows 10 21H2Windows 10 21H2

Plus concret et sans doute plus important, Windows 10 prévient désormais quand une nouvelle application s’exécute au démarrage. La notification apparaitra par exemple après l’installation d’un nouveau logiciel.

Lorsque l’on clique sur la notification, on arrive directement dans l’onglet du gestionnaire des tâches dédié à tout ce qui s’exécute à l’ouverture de la session. Les personnes qui ne le connaissaient pas devraient d’ailleurs y jeter un œil tant il peut réserver quelques surprises.

Autre amélioration bienvenue mais qui aurait clairement dû faire partie du système depuis longtemps, la capacité d’indiquer dans les paramètres le comportement des GPU quand on en a plusieurs. Le plus courant concerne les ordinateurs portables, avec une partie graphique intégrée (IGP) dans le processeur et un GPU dédié.

Par défaut, Windows se sert de l’IGP pour les opérations courantes, pour économiser l’énergie. Quand une application gourmande est détectée – comme un jeu – le système bascule sur le GPU dédié.

Windows 10 21H2Windows 10 21H2

Mais on peut désormais choisir précisément le comportement du système pour chaque application. Il faut se rendre dans Paramètres > Système > Affichage, puis aller en bas cliquer sur Paramètres graphiques. Windows propose déjà une liste d’applications avec, pour chacune, le réglage retenu.

Cette liste est curieusement très courte, mais on peut ajouter autant d’applications que l’on souhaite. On doit simplement spécifier s’il s’agit d’une application de bureau (avec un exécutable classique) ou provenant du Store.

Dans le premier cas, une fenêtre s’ouvre pour aller chercher le .exe qui nous intéresse. Dans le second, la liste complète des applications installées par le Store s’affiche et il n’y a plus qu’à choisir. Dans l’un ou l’autre cas, il suffit ensuite d’indiquer si l’on souhaite que ladite application s’exécute toujours avec l’IGP ou le GPU.

Dans la majorité des cas, il n’y aura rien à faire : Windows sait se débrouiller. Cependant, il peut arriver qu’une application a priori anodine décide tout à coup d’utiliser le GPU dédié, siphonnant du même coup la batterie. Au contraire, un jeu pourrait n’utiliser que l’IGP. L’outil est donc pratique pour résoudre ce type de problème.

Le panneau des Paramètres dédié à la batterie évolue lui aussi, pour ressembler à ce que l’on trouve dans Android et iOS. On y retrouve donc des informations comme la dernière charge, ainsi qu’une courbe montrant l’évolution du niveau sur 24 heures ou une semaine.

Windows 10 21H2 batterieWindows 10 21H2 batterie
Crédits : Albacore

Enfin, quelques améliorations pêle-mêle. Par exemple, Astuces va accueillir une nouvelle rubrique dédiée aux derniers changements apportés à Windows. Là encore, c’est une nouveauté qui ne devrait pas en être une.

Les mises à jour semestrielles ont souvent apporté des dizaines de changements, que l’utilisateur n’avait pas vraiment moyen de connaitre sans lire la presse spécialisée. Signalons également que la fonction Aero Shake – qui permet de « secouer » une fenêtre pour rabattre toutes les autres dans la barre des tâches – pourra être désactivée. Puis la possibilité pour les écrans multiples d’avoir chacun leurs propres bureaux virtuels.

Cette liste de nouveautés évoluera bien entendu dans le temps. Si l'on sait déjà que la version 21H1 sera mineure, il reste encore plusieurs mois à Microsoft pour finaliser les ajouts dans la 21H2. Cela devrait encore changer.

Taxe IFER pour les opérateurs mobiles : deux nouvelles pistes de calculs

25 février 2021 à 08:33

Bouygues Telecom, Free Mobile, Orange et SFR doivent s’acquitter de cette Imposition Forfaitaire des Entreprises de Réseaux sur chaque équipement installé sur leurs antennes. Avec la 5G et le déploiement de nouveaux équipements, elle « pourrait plus que doubler d'ici à 2030 » selon un rapport de l'Inspection générale des finances, comme l’explique Les Échos.

Un opérateur explique la situation actuelle : « quand un même équipement offre la 2G, la 3G et la 4G, on paye déjà trois fois chaque année ». Selon nos confrères, deux nouvelles pistes sont étudiées pour le calcul de cet impôt : « taxer les pylônes, peu importe la technologie » ou « taxer le chiffre d'affaires mobile ».

BitWarden : un gestionnaire de mots de passe qui se démarque de la concurrence

23 février 2021 à 16:30

Avec la récente décision de LastPass de réserver la synchronisation fixe/mobile aux abonnés Premium, la pression s’accentue sur BitWarden, dernier service d’ampleur à la fournir gratuitement. Mais que vaut ce fameux gestionnaire de mots de passe, connu notamment pour son code open source ?

Depuis notre série d’articles sur les gestionnaires de mots de passe, le paysage a légèrement évolué. Les acteurs présents se sont améliorés et renforcés, tandis que d’autres sont entrés discrètement, mais sûrement.

C'est notamment le cas de Google et Microsoft à travers leurs navigateurs Chrome et Edge qui savent désormais générer des mots de passe forts, leur synchronisation étant présente depuis longtemps. Microsoft a même modifié son Authenticator pour Android et iOS afin qu’il puisse synchroniser les données sur les smartphones et tablettes.

BitWarden est arrivé bien après des acteurs confortablement installés comme 1Password (surtout utilisé dans l’univers Apple), les Français de Dashlane et surtout LastPass. Ce dernier avait jusqu’à récemment un argument choc : la synchronisation gratuite entre les ordinateurs et appareils mobiles. Elle vient d'être réduite.

Pour comprendre la problématique et la mise en lumière soudaine de BitWarden, il faut rappeler quelques bases.

Notre dossier sur la gestion des mots de passe :

L’énorme intérêt des gestionnaires

Commençons par un fondamental : qu’est-ce qu’un gestionnaire de mots de passe ? Une application, une extension et plus généralement tout service proposant de générer des mots forts et aléatoires, de les enregistrer, d’en préremplir les formulaires de connexion et de les synchroniser entre les appareils.

Ils répondent efficacement aux trois grands principes de la sécurité des mots de passe lors de leur conception :

  • Utiliser tous les types de caractères : minuscules, majuscules, chiffres et caractères spéciaux
  • Créer des mots de passe aussi complexes que possible
  • Un seul mot de passe par site/service

Le troisième est le plus important. L’identifiant a en effet tendance à être souvent le même, l’internaute utilisant son adresse électronique. Si vous utilisez le même mot de passe sur tous les sites, il suffira à des pirates d’attaquer le plus faible pour récupérer ces informations et les utiliser ailleurs. C’est encore plus facile quand le mot de passe est court et non aléatoire. Sur les services « critiques » il est aussi conseillé d'activer la double authentification.

Un bon gestionnaire détecte souvent les mots de passe faibles et utilisés plusieurs fois. Il propose alors d’en changer, et on peut d’ailleurs se piquer d’une petite frénésie à le faire partout. Au bout du processus, on aboutit à ce que l’on désirait : des mots de passe uniques, aléatoires et longs.

Les chaines de 20, 30 ou 40 caractères ne sont pas un problème sur ordinateur, puisque le gestionnaire – souvent via une extension de navigateur – va remplir automatiquement les champs d’authentification sur les pages visitées. Seulement voilà, s’il ne propose pas gratuitement de synchronisation sur les appareils mobiles et que vous ne payez pas l’abonnement, vous allez vous retrouver à devoir saisir manuellement de longues chaines de caractères aléatoires. Une opération si fastidieuse qu’elle sera vite abandonnée.

Pendant longtemps, LastPass a été le seul gros gestionnaire à proposer cette synchronisation gratuite. BitWarden est arrivé après coup avec le même argument, mais les utilisateurs habitués à un gestionnaire préfèrent le plus souvent garder leurs habitudes. La donne pourrait néanmoins changer puisque LastPass vient d'annoncer qu’il faudrait choisir en mars : une synchronisation entre tous les ordinateurs ou entre tous les appareils mobiles. Pour faire le lien entre les deux univers, il faudra un abonnement Premium (34,80 euros par an).

BitWarden est ainsi le dernier « gros » à fournir gratuitement cette synchronisation. Mais que vaut-il en pratique ?

Présentation générale, interface et ergonomie

Sa prise en main ressemble à la plupart des autres services. Pas d’application ici, on commence simplement par se rendre sur le site officiel ou on installe directement l’extension pour son navigateur. Elle existe pour Chrome (et l’ensemble des dérivés de Chromium comme Edge et Opera) et Firefox.

Dès qu’une nouvelle installation est détectée, BitWarden ouvre une page dans laquelle on peut se connecter ou s’inscrire. Dommage, alors même que l’extension et la partie réservée à l’inscription à gauche sont en français, la zone de droite consacrée à la présentation du service est en anglais. Un mauvais point pour ceux que la langue de Shakespeare rebute ou qui estiment ne pas avoir le niveau.

BitWardenBitWarden

Étape cruciale, on doit créer un mot de passe maitre, censément le dernier que l’on devra retenir puisque tous les prochains seront gérés par BitWarden. Ce mot de passe devant protéger tous les autres, son élaboration doit être faite avec soin. Respectez les consignes autant que possible : vous devez être capable de le retenir, mais il doit être long et comporter les quatre types de caractères. À cause de la façon dont BitWarden fonctionne, il sera impossible de récupérer vos données en cas de perte de ce mot de passe.

Une fois le compte créé, BitWarden propose d’ajouter un ou plusieurs éléments. On peut donc soit créer des fiches vierges, soit importer des éléments. Pour cette deuxième option, la procédure est plus ou moins la même pour tous : on commence par exporter les données depuis Chrome, Firefox, 1Password ou LastPass, puis on importe le fichier dans BitWarden. Tous les navigateurs et gestionnaires de mots de passe ont une telle fonction d’exportation. BitWarden fournit d’ailleurs la marche à suivre pour plusieurs, mais là encore en anglais.

Après quoi, on se rend dans « Mon coffre » (Web vault) puis dans Outils (barre bleue en haut), et on clique enfin sur Importer des données. Là, on sélectionne le fichier (le plus souvent au format CSV), on choisit la source de l’importation et on valide. Après un court moment, on obtient la liste des mots de passe importés et le service prévient par un message vert en haut à droite que l’import s’est bien passé.

BitWarden sait reconnaitre les structures particulières quand elles existent, notamment celles de LastPass. Si vous avez créé des dossiers pour classer vos identifiants ou placé certains en favoris, ils seront affichés tels quels. Même chose pour les données autres, telles que les cartes de paiement et notes sécurisées.

BitWardenBitWarden

BitWarden affiche les sites sous forme de liste, et uniquement de cette manière. Pas d’affichage grille donc. Il suffit de cliquer sur l’un d’entre eux pour en afficher les détails. On y retrouve le nom, l’adresse de la page, le nom d’utilisateur, le mot de passe, la clé TOTP (si besoin), le mode de détection du domaine (à ne changer que quand le service a du mal à reconnaitre les champs d’authentification) et la note personnelle.

On peut ajouter autant d’autres champs que l’on souhaite. Notez que les mots s'affichent toujours comme une suite de six points, qui ne reflète donc pas la longueur réelle. Dès que des éléments sont présents dans le coffre, qu’ils aient été importés ou créés, ils sont synchronisés avec le compte. À partir de là, on peut installer BitWarden dans d’autres navigateurs, ordinateurs et appareils mobiles.

Nous reviendrons plus spécifiquement sur ces derniers plus tard dans notre article.

Création des mots de passe

Entrons un peu plus dans le vif du sujet et penchons-nous sur l’une des fonctions phares des gestionnaires : la création des mots de passe. On attend d’un tel service qu’il sache fournir très rapidement un mot de passe complexes et aléatoire. BitWarden, comme la plupart des produits concurrents, joue par défaut la carte de la compatibilité. Lorsque l’on clique sur l’icône de l’extension et que l’on se rend dans Générateur, les réglages de base sont un peu « mous » : une longueur de 14 caractères, dont aucun spécial.

BitWarden

On peut heureusement changer ces réglages, cocher la case qui manquait et jouer avec la réglette pour augmenter la taille. Nous vous conseillons toujours d’adopter la plus grande longueur possible acceptée par le service auquel vous souhaitez vous inscrire, même si beaucoup ne précisent pas cette information. Il existe malheureusement encore de nombreux sites n’acceptant que 12 ou 16 caractères de longueur et rejetant les caractères spéciaux.

BitWarden propose également d'opter pour des phrases de passe. Par défaut, il fournira trois mots aléatoires sortis du dictionnaire et séparés par des tirets. On peut augmenter le nombre de mots, activer la majuscule pour chaque mot et ajouter un chiffre qui viendra se loger aléatoirement à la fin de l’un des mots.

BitWarden

Mots ou phrases de passe, il en ira des goûts de chacun. Les phrases ont l’avantage de pouvoir être plus facilement retenues, mais cet avantage n’est que relatif : en matière de sécurité, la facilité n’est pas un argument. Reste qu’une phrase de plusieurs mots est une protection efficace par sa longueur. Mais une séquence aléatoire de plusieurs dizaines de caractères le sera toujours davantage.

Sécurité et gestion des mots de passe

Voici l’un des points critiques des gestionnaires de mots de passe : quelle est la sécurité des données confiées à BitWarden ? Dans ce domaine, l’éditeur s’est fait fort d’être aussi transparents que possible. Le chiffrement local est en AES-CBC 256 bits, et les communications avec les serveurs de l’entreprise sont chiffrées de bout en bout. Le mot de passe du compte sert à générer la clé de chiffrement, hachée avec PBKDF2 SHA-256.

Le service fonctionne sur un mode « zero knowledge », signifiant que BitWarden n’a aucune visibilité sur les données stockées dans le compte ni ne possède la clé qui permettrait d’y accéder. Comme nous le disions plus tôt, il y a potentiellement une conséquence fâcheuse : en cas de perte du mot de passe, il n’existe aucune procédure capable de restaurer vos données. Ce risque est le même pour tous les gestionnaires utilisant une solution chiffrée de bout en bout, comme LastPass.

À la manière de ce que propose Signal (et dans une moindre mesure WhatsApp), BitWarden fournit aux utilisateurs une « fingerprint phrase » composée de cinq mots liés par des tirets, du type « alligator-transfer-laziness-macaroni-blue ». Vous la trouverez dans les paramètres du compte, depuis le Coffre, l’extension ou l’application mobile. Elle est à conserver précieusement car BitWarden peut vous demander, selon la fonction utilisée, de la comparer avec le résultat à l’écran. Ce sera le cas si vous activez par exemple le déverrouillage biométrique sur l’application mobile.

La procédure affichera ce que BitWarden pense être la bonne phrase. À vous de la confirmer si c'est le cas ou non pour assurer que le processus n’a pas été compromis. Même chose dans le cas où vous créez un groupe (organisation) et que vous y ajoutez un utilisateur : il faudra vérifier avec lui que le code affiché est bien le sien.

BitWarden est surtout connu pour son code open source, disponible sur GitHub. Et contrairement à des services comme Telegram, il ne s’agit pas que des clients, extensions et applications : le code source du serveur est lui aussi ouvert. La licence n’est pas toujours la même : GPLv3, AGPLv3 (Affero) ou Bitwarden License 1.0. Cette dernière ne peut pas être considérée comme véritablement open source, puisqu’elle donne l’autorisation d’accès, mais sa réutilisation est soumise à conditions et surtout à paiement. Cela étant, la BLv1 ne s’applique qu’à deux éléments, le portail professionnel et l’intégration SSO (Single Sign-On), utile uniquement en entreprise.

Le stockage des données en fera tiquer certains : tout est aux États-Unis dans Azure, l’offre cloud de Microsoft. Bitwarden précise qu'il ne s'agit que d’infrastructure, mais les lois américaines étant ce qu’elles sont, les personnes à la recherche d’un respect absolu de la vie privée bouderont le produit… ou hébergeront leur propre serveur.

BitWarden permet en effet d’installer une instance sur sa propre machine, une longue page décrivant le processus dans sa documentation. On y trouve toutes les étapes de configuration, dont les instructions liées à Docker, puisque les composants se présentent sous forme de conteneurs logiciels.

Les fonctions liées à l’offre Premium côté client (nous y reviendrons) réclameront un fichier de licence, récupérable depuis le Coffre (Paramètres > Abonnement Premium > Télécharger la licence). Le même abonnement débloque les fonctions pour les clients et l’instance personnelle du serveur. L’hébergement de cette dernière est à la discrétion des clients et peut être effectuée sur un hôte sous Linux ou Windows.

L’authentification à deux facteurs (2FA) est également présente, mais en deux tronçons. Le seul disponible dans la version gratuite propose la réception d’un code par email (à éviter) ou en passant par une application d’authentification du type Google/LastPass/Microsoft Authenticator. Elles ont à peu près toutes les mêmes fonctionnalités. Au vu du caractère critique des données stockées dans le compte, on ne saurait que trop vous conseiller de l’activer (comme dans tous les services où c’est possible) dès que possible.

Notez qu’à l’activation de la 2FA, BitWarden fournit un code de récupération pour le cas où le deuxième facteur deviendrait inaccessible. Enfin, et c’est un point important, la sécurité du service a été auditée à deux reprises : en 2018 par Cure53, puis en 2020 par Insight Risk Consulting, des sociétés spécialisées indépendantes.

Dans les billets de blog consacrés à ces audits, BitWarden affirme qu’aucun problème majeur n’a été détecté, et que tous les soucis pointés ont été rapidement corrigés. Un rapport est disponible pour chaque audit. Notez que dans le deuxième audit, il était surtout question de tests de pénétration, donc de résilience aux attaques.

Partage et organisations

BitWarden propose des fonctions assez classiques dans ces domaines. Dans les paramètres du compte, on peut ainsi définir une ou plusieurs organisations, qui serviront à partager tout ou partie des mots de passe.

Les organisations n’ont rien à voir avec des entreprises, il s’agit simplement du mot choisi par BitWarden. Pensez-y comme à des groupes, puisque leur fonctionnement est exactement celui-là. On y invite des contacts, à qui l’on confie ensuite certaines données. Très utile notamment dans le cas où plusieurs personnes auraient à se partager le même compte. Ce n’est jamais recommandé, mais il n’y a parfois pas le choix.

Autre fonction très classique également, la définition d’un ou plusieurs contacts d’urgence. Ces personnes – en qui il faudra bien sûr avoir toute confiance – pourront accéder à l’intégralité des mots de passe en cas de problème. Selon les autorisations, elles pourront seulement les voir ou prendre le contrôle du Coffre, avec redéfinition d’un mot de passe maitre. Ces accès ne sont pas silencieux : elles génèrent une notification par email pour le possesseur du compte, qui devra accepter la connexion.

BitWarden fait une différence entre contacts d’urgence et contacts de confiance. Les premiers se déclarent simplement avec une adresse email de contact, tandis que les seconds sont des utilisateurs de BitWarden. Auquel cas les demandes d’accès et notifications se gèrent directement par l’extension ou l’application.

Applications mobiles… et desktop !

Il n’y aura pas grand-chose à dire sur les applications mobiles. Et pour cause : qu’il s’agisse de la version Android ou iOS, les fonctionnalités sont strictement les mêmes que dans les extensions.

On retrouve ses identifiants, la capacité de les voir et les modifier, la génération de nouveaux mots de passe avec les mêmes critères, et ainsi de suite. Il manque seulement la capacité de souscrire à une offre Premium, que l’on ne pourra faire que depuis la version web.

Notez que plusieurs fonctions comme l'import renverront vers des fiches d’aide, car peu pratiques à réaliser depuis un smartphone (ou une tablette). Curieusement, l’export du Coffre sous forme de fichier JSON reste accessible.

BitWardenBitWardenBitWardenBitWardenBitWarden

BitWarden propose également des fonctions classiques comme la prise en charge des mesures biométriques. On pourra donc déverrouiller la session avec un doigt ou son visage, ce qui apparaitra vite nécessaire. Il n’y a en effet pas d’option pour retenir le mot de passe. La session se verrouillant au bout de 15 minutes par défaut, réécrire régulièrement un mot de passe complexe peut vite devenir fastidieux.

Les applications mobiles sont surtout là pour assurer la liaison entre le service et le remplissage automatique des champs d’authentification, que ce soit dans les navigateurs ou autres applications. Dans Android comme dans iOS, il faudra donc déclarer BitWarden comme source de mots de passe dans les paramètres.

Signalons aussi que l’éditeur propose des applications desktop (Linux, macOS, Windows), relativement récentes. Nous avons cependant un peu de mal à comprendre ce qu’elles apportent en l’état, même si elles permettent de se passer de navigateur et intègrent le processus d’inscription.

BitWardenBitWarden

Il s’agit cependant d’applications Electron, reprenant justement la version web… sans toutes les fonctions. Elle renverra par exemple au site pour activer l’authentification 2FA, et n’intègre pas non plus les rapports de sécurité pour les comptes Premium. Les extensions ont le mérite d’être disponibles partout et d’être bien plus légères, tout en renvoyant vers la version web si besoin.

Notons enfin que BitWarden propose un client en ligne de commande. Clairement conçue pour les administrateurs en entreprise, elle permet d’accéder à la totalité des fonctions et une intégration aux systèmes de gestion d’identité en place. Cette version CLI autorise également des manipulations comme la personnalisation de l’interface.

Mais alors, pourquoi payer ?

La question mérite en effet d’être posée : puisque BitWarden fournit dans sa formule gratuite la synchronisation des données entre ordinateurs et appareils mobiles, pourquoi payer ?

La réponse se trouve – comme toujours – dans les besoins… ainsi que dans une « pingrerie » de BitWarden. Nous manions le mot avec des guillemets car la formule gratuite est peu contraignante. En plus de la synchronisation si désirée, on peut partager ses mots de passe avec deux autres utilisateurs et créer deux coffres pour leur stockage.

La formule Premium va évidemment plus loin. Elle ajoute 1 Go de stockage chiffré pour les fichiers (le stockage des mots de passe n’est soumis à aucune limite), peut générer un code de vérification 2FA pour les identifiants du coffre et inclut un support client prioritaire. Elle propose surtout des rapports sur l’hygiène des mots de passe et des comptes. BitWarden prévient donc quand les mots de passe sont faibles ou dupliqués, qu’un site pour lequel on possède un compte a été attaqué, qu’une fuite peut avoir impliqué des identifiants, etc.

L’abonnement déverrouille également l’authentification 2FA par des moyens complémentaires. C’est le cas pour les clés de sécurité USB de Yubiko et plus globalement de tous les modèles compatibles avec la norme FIDO U2F.

Contrairement aux concurrents, nous recommandons ici l’abonnement pour trois raisons. D’une part, les capacités supplémentaires d’authentification 2FA sont un réel apport de sécurité. D’autre part, le tarif de l’abonnement pour un particulier est particulièrement léger : 10 dollars par an. Enfin – et surtout – les rapports de sécurité sont un vrai bon point, puisque l’utilisateur bénéficiera de vues de synthèse lui expliquant ce qui cloche avec ses identifiants.

Une formule famille est proposée pour 40 dollars par an. Elle prend en charge six personnes, chacune ayant son espace de 1 Go, auquel s'ajoute un espace partagé, également de 1 Go.

Conclusion

Difficile de ne pas recommander BitWarden si c’est le type de solution que vous cherchez, à savoir un service synchronisé pour l’ensemble des ordinateurs, appareils et navigateurs. Il a le même degré d’ubiquité que LastPass, ce qui en fait un concurrent redoutable. Son attitude face à la synchronisation sans restriction en faisait déjà une bonne recommandation pratique. Son code open source et ses audits complètent le tableau.

La possibilité de créer sa propre instance de serveur est aussi un atout indéniable. Mais s’il n’y a rien à redire sur le fonctionnement technique et la plupart des capacités de BitWarden, tout n’est pas rose pour autant.

En l’état, il peut rebuter les moins connaisseurs dans le grand public. Par exemple, si l’interface de l’extension ou du Coffre est en français, l’immense majorité des aides sont en anglais. C’est d’autant plus un problème qu’aucun support n’est fourni avec la version gratuite, et que l’abonnement ne déverrouille qu’un soutien par email. Pas de discussion en ligne ni téléphone. Le support n’est pas non plus de type 24/7.

On aurait également aimé que certaines fonctions assez standards soient présentes, dont celle permettant de lancer directement une procédure de changement de mot de passe pour un service donné. C’était par exemple une spécialité de Dashlane, mais elle a depuis fait des émules, sauf chez BitWarden.

Toute aussi regrettable, l’absence de remplissage automatique de formulaires avec des informations courantes comme le nom, l’adresse, le numéro de téléphone, l’adresse email, etc.

L’interface est en outre un peu vieillotte et manque parfois de souplesse. Le Coffre permet par exemple de trier ses identifiants dans des dossiers. Il aurait été bien pratique de pouvoir simplement glisser/déposer un élément dans un dossier à gauche. Mais BitWarden ne propose que des cases à cocher et un menu en haut pour sélectionner « Déplacer les éléments ». Si on ne veut en déplacer qu’un ou deux, la manipulation est lourde.

Mais en dépit de ces défauts, BitWarden est une solution efficace. Même si une couche supplémentaire de travail pour le rendre plus accessible au grand public serait la bienvenue, l’essentiel des fonctions est là, l'outil est très bon dans ce qu’il fait, sa sécurité solide. Aucune fuite de données n’a encore été déplorée chez l’éditeur. Et s’il a moins de fonctions que certains concurrents comme Dashlane et surtout LastPass, il est aussi nettement plus accessible.

Attention tout de même : BitWarden est le dernier acteur important à proposer la synchronisation gratuite entre tous les appareils, sans même une limite sur leur nombre. Il est probable qu’une partie des utilisateurs de LastPass ait changé de crèmerie en conséquence. Mais l’éditeur pourrait un jour choisir d’appliquer la même recette et de relever ses tarifs par la même occasion. Pour des données aussi critiques que les mots de passe, mieux vaut donc avoir un coup d’avance et se préparer une voie d’issue.

Histoire de macOS : d'El Capitan à Catalina, l'influence toujours plus forte d'iOS

17 février 2021 à 13:00

Après l'enfance et l'adolescence, macOS est entré dans une longue période de maturité, durant laquelle iOS va imposer progressivement sa loi. Au point d'être aujourd'hui dilué dans un lot de plateformes.

À compter d'El Capitan, on assiste à l'arrivée de technologies maison au sein de macOS. Elles en remplacent progressivement d’autres plus anciennes, créées par Apple ou non. Nous sommes alors dans une sorte de dernière ligne droite devant nous amener à ce que nous connaissons aujourd'hui : Big Sur et la migration vers ARM.

C’est aussi à une présence toujours plus forte d’iOS que l’on assiste. L’empreinte du système mobile était déjà prégnante depuis plusieurs versions, mais la volonté d’Apple est on ne peut plus claire : parvenir à une sorte d’équilibre, entre ergonomie commune et respect des spécificités de chaque matériel.

Notre dossier sur l'histoire de macOS :

El Capitan accélère et introduit Metal

OS X 10.11, alias El Capitan, a été l’une de ces versions se concentrant sur la technique et le fonctionnement général. Plutôt qu’un réel nouveau lieu de Californie, El Capitan fut nommé d’après une formation rocheuse du parc de Yosemite. Il est proposé en mise à jour (gratuite) en septembre 2015.

Il fut en conséquence l’une des versions les plus appréciées du système. Moins de nouveautés de premier plan, mais une stabilité accrue et surtout des performances supérieures, en particulier sur certaines opérations. On se souvient qu’à l’époque Apple avait fait grand cas de lancements d’applications jusqu’à 40 % plus rapides ou d’ouverture de PDF en quatre fois moins de temps.

El Capitan a signé l’arrivée de Metal, une API permettant d’effectuer sur le GPU des opérations à peu près équivalentes à ce que l’on trouvait dans DirectX 12 et Vulkan. Sur Mac, les développeurs pouvaient ainsi manipuler la puce graphique de manière beaucoup plus précise via l’utilisation des compute shaders, avec un impact significatif sur les performances. Aujourd’hui, Metal joue un rôle encore plus crucial sur les Mac M1.

Parallèlement, les Mac de l’époque faisaient grimper la quantité de mémoire partagée de 1 024 à 1 536 Mo avec les processeurs embarquent une partie graphique Intel HD 4000.

OSX El Capitan

Cette version n’était pas la plus riche en nouvelles fonctions, loin de là, mais elle n’est pas vide non plus. On commençait par exemple à trouver les informations de trafic routier dans Plans, un remaniement complet de Notes équivalent à celui d’iOS 9 et aux capacités étendues (tâches, photos et vidéos, dessins…), l’épinglage des onglets dans Safari (bien après les autres), la possibilité pour Photos d’embarquer des outils d’autres applications (via des extensions) ou encore la possibilité de poser des questions à Spotlight en langage naturel.

Safari est en outre devenu capable de streamer une vidéo via AirPlay vers l’Apple TV sans envoyer toute la page. Cette version d’OS X signait également les premiers pas d’Apple dans l’automatisation, qui allait prendre petit à petit une place prépondérante. El Capitan analysait ainsi le contenu de Mail pour en tirer certaines informations. Des rendez-vous pouvaient être ajoutés dans Calendrier avec des éléments de contexte tirés, par exemple, de courriers liés à la livraison ou aux confirmations des déplacements en train ou en avion.

Enfin, El Capitan s’est fait remarquer pour deux autres raisons. D’abord, le remplacement de la police par défaut Helvetica Neue par San Francisco, que le système utilise toujours. Ensuite, un rattrapage partiel sur la manipulation des fenêtres, notamment par rapport à Windows 7. Il devenait enfin possible de positionner deux applications côte à côte, mais uniquement en mode plein écran.

Sierra : ne l'appelez plus OS X

Lorsque Sierra sort en septembre 2016, les utilisateurs Mac sont déjà rodés au nouveau cycle. C’est à cette époque particulièrement que « l’enthousiasme » pour OS X baisse d’un cran, car il est devenu clair qu’iOS concentre la plupart des améliorations. Le dernier changement de nomenclature d’Apple n’y changera rien, il ne faut plus parler d’OS X, mais de macOS. Une rationalisation imposée aux (désormais) quatre plateformes de l’éditeur :

  • macOS pour les ordinateurs
  • iOS pour les iPhone, iPad et iPhone Touch (et plus tard un iPadOS spécifique)
  • tvOS pour l’Apple TV
  • watchOS pour l’Apple Watch

Cette organisation permet à Apple de proposer dans de nombreux cas des API équivalentes, mais contrairement à d’autres sociétés comme Microsoft, la société ne tentera rien sur la convergence des appareils... jusqu’à Big Sur.

Sierra, fait une nouvelle fois place à des apports venant d’iOS. C’est particulièrement le cas avec l'assistant vocal Siri, qui débarque pour la toute première fois sur macOS. On reprend les mêmes capacités, étendues aux ordinateurs avec des possibilités supplémentaires. Les résultats pouvaient notamment être manipulés à la souris pour être placés par exemple dans des applications. Photos, adresses et autres éléments étaient compatibles.

Parmi les quelques évolutions notables de Sierra, signalons surtout l’arrivée des onglets dans toutes les applications (du moins celles qui supportaient les fenêtres multiples), iCloud Drive comme stockage distant, le mode picture-in-picture pour les applications sachant l’exploiter, Night Shift et sa coloration de l’écran en fonction de l’heure (comme sur iOS), le déverrouillage automatique de la session par l’Apple Watch, la possibilité de collaborer sur des notes, ou encore le presse-papier universel (contenu synchronisé entre les appareils), dont l’intégration fut très appréciée.

Sierra est également la première version de macOS à donner un tour de vis sur Gatekeeper, en masquant par défaut l’option qui permettait d’exécuter n’importe quelle application. Désormais, seules celles du Mac App Store et celles signées ont le droit de se lancer. S’agissant d’une simple option, le comportement était cependant simple à rétablir.

High Sierra : une nouvelle pause technique

High Sierra, ou macOS 10.13, est à nouveau l’une de ces versions centrées davantage sur l’amélioration de l’existant qu’une évolution en profondeur. C’est la quatrième mouture du système à faire ainsi, après Snow Leopard, Mountain Lion et El Capitan. Il sort en septembre 2017 et propose d’importantes améliorations techniques.

C’est ainsi la version qui introduit sur Mac les formats HEVC pour la compression vidéo et HEIF pour les photos. Ils sont déjà utilisés par iOS et permettent donc la compatibilité pour l���affichage et la modification. Les performances dépendent fortement du matériel utilisé, plus précisément de la génération de processeur Intel présent dans le Mac. High Sierra intègre également Metal 2, utilisé par macOS pour le rendu de l’interface et apportant des fonctions de machine learning, ainsi que le support des GPU externes et de la réalité virtuelle.

High Sierra est également le premier système de l’entreprise à supporter pleinement APFS, ou Apple File System, le système de fichier créé pour remplacer HFS+. Conçu pour les SSD, il se veut plus rapide, notamment pour les opérations comme la duplication des fichiers. Nous avions consacré un article aux capacités d’APFS.

On trouve toute une série d’améliorations plus ou moins importantes, comme la première mouture de l’Intelligent Tracking Protection dans Safari et le début de la chasse aux outils de pistage, de nouveaux outils d’édition dans Photos, un phrasé plus naturel pour Siri (en anglais en tout cas) ainsi qu’une synchronisation de Messages entre tous les appareils, y compris pour les SMS qui pouvaient ainsi être envoyés depuis un Mac.

High Sierra est aussi connu pour avoir prévenu les utilisateurs que certains ménages allaient être faits. Les fameuses Kernel extensions (kexts) ont ainsi commencé à réclamer l’autorisation expresse de l’utilisateur pour se lancer, signe que leur temps approchait de la fin.

De même, l’arrivée de la mise à jour 10.13.4 a affiché des alertes aux utilisateurs lançant des applications 32 bits. Le message expliquait qu’il s’agissait d’une vieille application et qu’une prochaine version de macOS en casserait la compatibilité. Mais en dépit de l’imminence annoncée, le macOS suivant supportera encore les logiciels 32 bits.

Mojave et son thème sombre si attendu

Quand Mojave arrive en septembre 2018, il est attendu de pied ferme. Contrairement aux versions précédentes, une certaine excitation s’est emparée des utilisateurs : le mode sombre, longtemps attendu, est enfin de la partie. Après tout, iOS y était passé l’année précédente, et on pensait alors que High Sierra suivrait immédiatement.

Mojave propose donc plusieurs modifications de l’interface, à commencer par le fameux thème sombre, qui rejaillit sur l’intégralité des éléments. Il s’active automatiquement en fonction de l’heure (automatique ou définie par l’utilisateur) ou à la demande. Toutes les applications d’Apple prennent le pas et s’adaptent en conséquence.

Dans les applications tierces, le résultat est globalement bon, mais l’automatisme montre ses limites et il faudra attendre des mises à jour – parfois longtemps – pour que le mode soit pleinement supporté. Le thème sombre est accompagné d’un fond d’écran dynamique qui évolue en fonction de l’heure. Une dune, en référence au désert du Mojave en Californie. Quand il fait nuit par exemple, elle n’est éclairée que par le clair de lune.

macOS Mojave

Les autres améliorations générales sont les regroupements thématiques automatiques des fichiers (piles) sur le bureau, l’apparition d’une zone à droite dans le Dock pour afficher les applications récentes (comme sur iPad), l’arrivée des appels de groupe FaceTime ou encore une réécriture complète du Mac App Store, bien plus réactif.

Dans la foulée, les mises à jour sont décorrélées de la boutique et prennent place dans le panneau des Préférences. Mojave continue en outre le travail sur les bases du système. Il supporte encore les applications 32 bits (avec un avertissement) mais supprime ou fait tomber en désuétude plusieurs composants, dont OpenGL et OpenCL.

APFS passe à la vitesse supérieure avec une conversion automatique des partitions vers le nouveau système de fichiers, y compris sur les disques classiques et Fusion Drive (disque dur avec amorce en mémoire flash). Côté sécurité, c’est également le début des permissions à la manière d’iOS. Toute application ayant besoin d’accéder au micro ou aux données système génère ainsi une notification, dans laquelle l’utilisateur autorise ou non cet accès.

Mais Apple mettra surtout l’accent sur l’arrivée possible des applications iPad sur macOS. Mojave intègre pour la première fois News (mais pas en France), Bourse, Maison et Dictaphone. Il s’agit de conversions directes des versions iPad, réalisées à travers une adaptation d’UIKit pour macOS.

Apple laisse entrevoir l’arrivée future de n’importe quelle application pour la tablette, avec une conversion que la firme décrira comme « très simple ». En pratique, les développeurs auront besoin d’y consacrer du temps.

Catalina en finit avec les Kernel extensions, iTunes explose

À la lumière des dernières annonces d’Apple, macOS 10.5 est le dernier à pouvoir encore être appelé Mac OS X. Le nom est resté courant chez les utilisateurs du grand public, en dépit de plusieurs changements.

Et c’est sur une version somme toute assez banale que cette série 10.x va s’achever en octobre 2019 avec Catalina, du nom d’une île au sud de la Californie. Elle commence par rompre la compatibilité avec un certain nombre d’anciennes briques. Les applications purement 32 bits n’ont ainsi pas droit de cité sur le nouveau macOS, mais les utilisateurs étaient avertis depuis un bon moment.

Resteront quand même un certain nombre de situations qui pousseront certains à attendre avant de faire la mise à jour, pour trouver des remplaçants aux logiciels qu’ils apprécient (et qui n’étaient peut-être plus mis à jour).

Catalina Catalyst

macOS 10.15 annonce clairement la fin des kexts, les fameuses Kernel extensions. Désormais, il faudra en passer par les System Extensions, que les développeurs pourront créer grâce à DriverKit.

Elles se divisent en trois catégories – Network Extensions, Endpoint Security Extensions et Driver Extensions – mais ont toutes un trait commun, crucial : elles s’exécutent en espace utilisateur et n’ont plus accès au noyau. En matière de sécurité, c’est un pas important, car cela signifie des droits moindres pour les processus liés. Mais en matière de fonctions, les nouvelles extensions offrent moins de capacités, comme on le verra plus tard avec le cas Little Snitch.

Ce tour de vis sécuritaire se retrouve également dans Gatekeeper, qui accentue sa pression. Désormais, tout développement réalisé par une personne disposant d’un Developer ID devra être notarié par Apple, ce à des fins de vérification d’intégrité. L’ancien comportement peut cependant être retrouvé via le panneau des Paramètres.

Toujours au chapitre de la sécurité, les Mac équipés d’une puce T2 bénéficient du verrou d’activation. Si c’est une nouveauté pour les ordinateurs d’Apple, on retrouve cette fonction sur iPhone depuis des années. Depuis le panneau de gestion du compte iCloud, Localiser s’accompagne ainsi d’un verrouillage de la machine, qui ne peut alors plus être utilisée à moins de connaitre le mot de passe du compte iCloud.

Concernant le système proprement dit, et outre le déplacement sur un volume dédié, Catalina sera surtout retenu pour Catalyst. Ce projet est l’aboutissement des travaux d’Apple pour automatiser – dans une certaine mesure – le portage des applications iPad vers macOS. Mais bien que la fonction ait été lancée en grande pompe, ce ne sera pas la déferlante attendue dans le Mac App Store.

Comme dit précédemment, le travail restant à accomplir reste copieux, car il faut vérifier en particulier toutes les interactions avec l’interface. Pas si simple de passer du tactile au vieux couple clavier-souris. L’iPad est quand même l’invité star de Catalina, grâce aussi à Sidecar. Avec cette fonction, il peut être connecté au Mac et servir de surface tactile, voire de tablette graphique.

Côté utilisateurs, beaucoup se rappelleront l’éclatement d’iTunes en quatre applications distinctes et beaucoup plus légères : Books, Music, TV et Podcasts. La gestion des appels mobiles est reportée dans le Finder. Le vieux logiciel ne meurt pas pour autant : il est toujours distribué sur Windows. À noter pour TV, et comme sur l’Apple TV, le support des Dolby Atmos, Dolby Vision et HDR10. Tous trois inexploitables sur les Mac en l’état, à moins qu’ils soient reliés à des appareils compatibles.

Dans une moindre mesure, Catalina a fourni un support pour les manettes des PlayStation 4 et Xbox One. Côté accessibilité en revanche, le système franchit un grand pas avec Voice Command, qui permet de piloter la plupart des applications avec des commandes vocales universelles.

Pithus : un projet pour analyser les dangers des applications Android

15 février 2021 à 07:42

Pithus est le nouveau projet d'Esther, déjà à l’origine d’ExodusPrivacy. Son objectif est de réunir les outils dont elle se sert au quotidien pour fournir un ensemble cohérent capable de « débroussailler » le terrain sur la sécurité d’une application Android et en faciliter l'accès.

Esther, membre très active de la communauté de la sécurité, a récemment ouvert les vannes d’un projet développé sur son temps personnel : Pithus. Un nom choisi en référence au pithos (jarre) de Pandore.

Où Exodus Privacy cherchait à analyser le comportement des applications dans le domaine des données personnelles, avec un accent fort mis sur les outils de pistage et le respect de la vie privée, Pithus se concentre sur un autre aspect tout aussi important, en tentant d'y trouver d’éventuels comportements malveillants.

Il réunit divers outils comme SSdeep et Dexofuzzy pour plonger dans les fichiers APK, format des applications Android. Il ne s’agit pas d’un outil livrant clé en main un verdict sur la sécurité d’une application, mais d’un moyen de déblayer le terrain pour donner des pistes, qui peuvent aboutir à un faisceau d’indices.

Comme Esther nous l’a indiqué, Pithus s’adresse à un public « plus technique que celui d’Exodus ».

Les motivations derrière Pithus

Pour elle, « le marché des applications mobiles est très opaque [...] font-elles ce qu’elles annoncent ? En font-elles plus ? Si oui, quoi ? ». « J’ai développé Pithus comme un projet personnel, en réutilisant des outils dont je me sers régulièrement quand je travaille. L’idée était de les rassembler dans un même endroit et de fournir une interface web pour les résultats », nous explique la chercheuse à l'occasion d'un entretien.

Elle a en fait lancé Pithus le 31 décembre à 23h00 : « Parce que je voulais vraiment qu’il sorte en 2020 ». Le temps d’effectuer quelques derniers tours de vis, elle l'a officialisé début février, en en expliquant les grandes lignes. Le projet étant personnel, il a été développé sur son temps et ses fonds propres. L’hébergement est à sa charge, mais est pour l’instant couvert par des dons (réalisés via LiberaPay).

Esther indique se servir de Pithus désormais pour son propre travail, lorsqu’elle est mandatée par exemple par une entreprise pour faire une analyse de son application (tests de robustesse, conformité au RGPD, etc.). Elle ne se sert cependant pas de l’instance mise à disposition, « car tous les rapports générés sont publics », avec liens uniques pour les partager. Pas question donc que les résultats de ses missions rémunérées soient disponibles à tous.

Le projet est open source (licence AGPL), Esther encourageant les intéressés à en reprendre le code pour le manipuler, l’améliorer, etc. Elle se dit intéressée par les retours, quelques suggestions ayant déjà été faites. Il n’y a pas de feuille de route à proprement parler, le développement dépendra de son temps libre et des contributions.

Comment fonctionne Pithus ?

La page d’accueil de Pithus propose deux fonctions : chercher dans la base des rapports ou importer un fichier APK, dont la taille ne doit pas dépasser 65,3 Mo. Après envoi du fichier, Pithus le traite puis génère une page globale de résultats contenant diverses rubriques. L’ensemble est en anglais.

Durant notre entretien, Esther nous a fourni l’exemple d’une application nommée TeaTV, de son nom unique bahamas.serietv3. Une brève recherche nous apprend qu’elle sert simplement à tenir un catalogue des séries, en marquant les épisodes vus, etc. Le rapport généré ressemble à ceci :

Pithus

Les premières informations données sont d’ordre très général. En haut à gauche, on peut voir « Threat 1/63 », qui signifie que sur l’ensemble des 63 antivirus de VirusTotal, un seul a reconnu l’application comme malveillante. Un faux positif ? « Pas forcément. Il peut aussi s’agir d’un élément nouveau ».

Les grandes cases donnent plusieurs renseignements techniques : l’application peut demander un total de 32 permissions, possède 60 activités, 21 services (tâches de fond), 9 receivers (détecteurs d’évènements extérieurs) et peut contacter jusqu’à 79 domaines. Une vue de synthèse technique qui n’a pas réellement de signification en soi.

Les informations de la deuxième ligne, sous la forme d'onglets, sont beaucoup plus complètes.Fingerprints fournit ainsi les sommes de contrôle MD5, SHA1 et SHA256 de l’APK. On y trouve juste en dessous sa taille exacte : 16,68 Mo. APKiD fournit ensuite une liste d’éléments que l’application peut contrôler. Dans le cas présent, elle peut ainsi demander à vérifier le modèle de smartphone, le constructeur, la référence produit, le numéro de série, etc.

Comme nous l’explique Esther, la présence de lignes « anti_vm » est un indicateur que l’application va chercher à identifier que l’environnement est bien un smartphone, et pas un émulateur quelconque. Un point important pour les chercheurs, car les simulations passent souvent par des machines virtuelles.

Pithus

Entrent ensuite en piste SSdeep et Dexofuzzy, qui vont fournir des empreintes (hash) localement sensibles. Elles sont fournies pour l’APK et ses principaux constituants. Esther nous explique qu’elles peuvent servir à retrouver d’autres APK ayant un certain pourcentage de similarité au niveau binaire. Si l’on trouve un tel pourcentage avec une application déjà identifiée comme contenant un malware, il y a clairement suspicion.

Prenons un exemple avec l’application org.xmlpush.v3, qui contient le malware Android.Trojan.Belesak. L’analyse Dexofuzzy renvoie vers une empreinte présentant un taux de similarité de 32 % avec une autre application. Si l’on clique sur le hash, on tombe sur un élément intégrant le spyware Android.Spyware.TechFu. Il s’agit en fait de la même famille de spywares, FinSpy, développée par une société allemande. Esther en avait fourni une analyse à Amnesty International qui voulait en savoir plus sur son fonctionnement.

Pithus

Des analyses en pagaille

La section Threat intelligence va puiser dans les informations de la base MalwareBazaar pour donner les éventuels renseignements déjà connus. Dans la première fiche, on ne retrouve que le score VirusTotal. Dans la deuxième, on peut voir les détails de Belesak et son identification le 12 octobre 2019. Pour cette deuxième application, 29 antivirus ont reconnu son comportement malveillant.

Pithus

APK analysis fournit bon nombre d’informations détaillées sur l’APK proprement dit. On retrouve les informations techniques comme le nom de l’application, sa version ou encore les versions utilisées du SDK Android.

Un peu plus bas, Pithus affiche les informations sur le certificat, notamment les empreintes et la personne l’ayant demandé. Des données fournies par AndroGuard. En dessous, on trouve l’une des parties les plus intéressantes de Pithus : l’analyse du manifeste. Vont y être pointés des comportements potentiellement problématiques.

Dans le cas qui nous intéresse, on y trouve des communications en clair (HTTP) ainsi que bon nombre de services et de receivers partagés avec d’autres applications, des activités pouvant obtenir des droits root ou encore la permission d’installer d’autres paquets.

Viennent ensuite les listes complètes des activités, receivers et services présents dans l’application.

Pithus

Plus loin dans les comportements problématiques

Avec l’analyse de code, on plonge un peu plus en profondeur. L’analyse NIAP, fournie par MobSF, décrit ainsi toute une liste d’actions en lien avec le chiffrement des données. Ces informations pointent vers un respect plus ou moins grand des bonnes pratiques dans ce domaine. Plus bas, les choses sérieuses commencent vraiment.

Dans l’application qui nous sert d’exemple, on trouve ainsi une ribambelle de comportements douteux. Comme le précise Esther, ils ne sont pas tous nécessairement « volontaires ». Il s’agit surtout de déterminer si l’ensemble des signaux fournis par Pithus constitue un faisceau d’indices pointant vers un comportement malveillant.

Pithus

On trouve ainsi une liste de problèmes relevés, dont les niveaux de dangerosité sont Low, Medium ou High. Ces derniers, en rouge, attirent immédiatement le regard. Par exemple, TeaTV peut lire et écrire sur le stockage externe. Si ce n’est pas un danger en soi, il faut savoir que n’importe quelle autre application ayant les mêmes droits va pouvoir lire ce qu’inscrit TeaTV sur la carte SD. Il peut alors y avoir échange de données.

On continue avec des fichiers pouvant contenir des informations sensibles codées en dur, l’emploi d’un générateur de nombres aléatoires reconnu comme peu sûr, la possible exécution de requêtes SQL (pouvant mener à des injections SQL), l’utilisation d’un algorithme faible de hachage, la création de fichiers temporaires ou encore la possible requête de droits root.

Ces éléments, issus de l’analyse statique de MobSF, sont ensuite à détailler. Exemple type, l’utilisation du générateur reconnu comme peu sûr n’est pas forcément un souci. Tout dépend en fait du mécanisme dans lequel il est impliqué. « Si on prend une application qui permet de lancer des dés et de générer une combinaison aléatoire, ce n’est pas grave », explique Esther. Si c’est pour chiffrer une information sensible, c’est un tout autre problème.

La section Behaviour analysis, tire parti d'Exodus. Elle fournit notamment une analyse des permissions, avec là encore un étiquetage Low/Medium/High. On peut voir dans l’exemple que l’application s’arroge le droit d’enregistrer l’audio par le micro, de lire/modifier/effacer du contenu sur le stockage externe, d’obtenir la localisation précise du GPS, de lire les SMS ou encore d'intercepter les appels sortants.

Des autorisations dont on se demande ce qu’une application centrée sur les séries pourrait faire. Et encore il ne s’agit là que de celles étiquetées en rouge.

Pithus

Si Tracking analysis reprend simplement les outils de pistage détectés dans l’application – beaucoup en ont pour l’affichage des publicités – Threat analysis fournit une nouvelle liste de comportements directement problématiques ou pouvant l’être selon le contexte. Démarrer d’autres applications est ainsi un comportement courant pour une application malveillante, qui aura la capacité de récupérer une charge virale et ainsi de l’exécuter.

Obtenir la liste des paquets installés, récolter les chemins absolus de certains fichiers et les consigner dans un fichier JSON ainsi que récupérer les numéros IMEI et IMSI font partie des méthodes préférées pour constituer un identifiant unique pour le pistage publicitaire (fingerprinting). L’accès aux IMEI et IMSI est tout particulièrement sensible, s’agissant de références uniques.

Pithus

L’application est également capable de récolter les adresses MAC des points d’accès Wi-Fi, leur SSID ainsi que la force du signal pour chaque connexion. Idéal pour trianguler une position. Encore une fois, on se demande pourquoi elle peut avoir besoin de renseignements aussi précis.

Enfin, Network Analysis donne le détail des domaines contactés ainsi que la liste des adresses trouvées dans le code, quand c’est possible. Esther nous explique pour cette liste que les URL peuvent être simplement contenues dans les commentaires du code, par exemple lorsque le développeur a « oublié » de les nettoyer. Dans le cas présent, beaucoup sont des liens vers des problèmes référencés sur GitHub pour le projet gRPC-Java.

Ce que l’on peut tirer de Pithus

Pithus peut couvrir de multiples besoins. Pour les chercheurs, il fournit une vue d’ensemble présentant rapidement un risque ou un danger avéré, par exemple quand l’application a déjà été identifiée comme malveillante. Les développeurs et éditeurs peuvent aussi s'en servir pour constater d'éventuels problèmes dans leurs produits.

Hors de la communauté de la sécurité, n’importe quelle personne avec quelques connaissances techniques peut se servir de Pithus pour analyser le comportement d’une application qui lui parait louche, ou tout simplement pour faire le tri dans les siennes. Un utilisateur Android pourrait tout à fait décider de faire le point sur les applications dont il se sert, éliminer celles lui paraissant les moins vertueuses ou échanger avec les développeurs sur le sujet.

Pithus semble être un bon moyen de faire un état des lieux sur le suivi des bonnes pratiques dans le domaine de la sécurité. Repérer des problèmes ne fait pas nécessairement d���une application un outil à éviter, similaire à un malware, mais le manque de connaissances dans la sécurisation des développements peut conduire à des failles, qui n’attendront que d'être exploitées. Espérons que cette avancée permettra de mieux sensibiliser sur le sujet.

Une nouvelle fois, un hôpital frappé par une attaque informatique

11 février 2021 à 08:52

Après Rouen, Au tour de l’hôpital de Dax d’être contraint de revenir au papier et au stylo indique France Bleu. Même le standard téléphonique a été frappé par cette vague, annonce le centre hospitalier Dax-Côte d’Argent

« Cette attaque a mis hors service la totalité de notre système d'information par cryptage des données. Les données n'ont pas été volées, elles sont toujours sur nos serveurs, mais elles sont cryptées et donc ne sont plus accessibles », a détaillé Aline Gilet-Caubere, la directrice adjointe, dans les pages de Sud-Ouest.  

« Tout le réseau informatique est hors service. C'est toute la "colonne vertébrale" de l'établissement qui est touchée » ajoute sur France-3 Régions, Julien Dubois, le président du conseil de surveillance de l'hôpital. 

Alors que les données sont désormais chiffrées et inaccessibles tant que le centre n’aura pas payé une rançon, nos confrères indiquent qu’une enquête a été initiée pour atteinte à un système de traitement des données mis en oeuvre par l'État « par bande organisée, modification et introduction frauduleuse de données et extorsion en bande organisée et association de malfaiteurs. »

Quand Dupont-Aignant veut combattre et pénaliser « les prédications subversives et séditieuses »

11 février 2021 à 08:52

Dans sa proposition de loi visant à « combattre et à pénaliser les prédications subversives et séditieuses », Nicolas Dupont-Aignan veut introduire une nouvelle infraction.

Serait une prédication subversive et séditieuse « le prêche, l’enseignement ou la diffusion par des paroles ou des écrits d’une idéologie ou de croyances ayant pour objet ou effet d’inviter à faire prévaloir la conformité à un texte religieux ou une doctrine sur le respect des principes constitutionnels de la République et ses valeurs fondamentales ».

Elle serait punie d’une peine d’emprisonnement de 10 ans et d’une amende de 100 000 euros.

L’article 3 prévoit une infraction spécifique à l’encontre des « complices moraux », dixit NDA. 

« Le fait d’écouter ou d’étudier volontairement et régulièrement une prédication subversive et séditieuse sur tout support, oral ou écrit, ou de fréquenter des sites internet diffusant cette idéologie » serait puni d’une peine de 3 ans d’emprisonnement et de 50 000 euros d’amende.

Avec une infraction si finement rédigée, les journalistes, chercheurs et enseignants ou même les agents du renseignement pourraient être emprisonnés.

Histoire de macOS : du rapide Snow Leopard à Yosemite et son flat design

10 février 2021 à 17:00

Suite de notre dossier consacré à l’histoire de macOS. Nous arrivons à une période où le temps des grands changements est terminé, avec une évolution plus en douceur, sur un cycle annuel. De macOS vont naitre plusieurs  systèmes chez Apple, à destination de nouvelles plateformes.

La période qui s’ouvre pour Mac OS X – c’est encore son nom – avec Leopard est une sorte d’âge d’or. Les années vont s’écouler presque paisiblement sur un système qui n’a plus rien à prouver et dont la presse vante les mérites.

Le système s’est alors payé un petit lifting avec un thème général plus « plastique » et lisse, abandonnant le métal brossé des débuts. L’ensemble devient plus sobre. Il est sorti en 2007, une année doublement importante pour Apple. D’abord par la nouvelle fournée de Mac tous équipés de CPU Intel. Ensuite parce qu’en juin est sorti l’iPhone.

Premier smartphone de l’entreprise, il provoque une petite révolution dans le monde de la téléphonie en centrant toute l’utilisation sur l’écran tactile capacitif. Tout est pilotable au doigt, le stylet et le clavier physique deviennent has been et l’industrie va s’aligner peu de temps après, notamment avec l’arrivée d’Android.

Quand sort l’iPhone, on peut déjà mesurer la grande popularité de Mac OS X. Steve Jobs, sur scène pour présenter ce qui va très devenir le produit phare de l’entreprise, explique en effet que l’entreprise a tout simplement utilisé le système des Mac comme base pour l’iPhone. iOS, c’est son nom, aura sa propre vie, tout en entretenant des liens étroits avec son grand frère, avec qui il partagera un nombre croissant d’interfaces de programmation.

Rappelons qu’il faudra attendre iOS 2.0 pour que l’App Store apparaisse et que l’on puisse installer des applications tierces. Mac OS X, lui, va entrer doucement dans un rythme de croisière. Apple change progressivement ses priorités, les Mac étant certes les produits historiques de l’entreprise, mais plus ceux portant la croissance.

Notre dossier sur l'histoire de macOS :

Snow Leopard, la grande optimisation

Snow Leopard sort environ deux ans après, fin août 2009. La proximité des noms n’est pas un hasard : la nouvelle version présente un nombre réduit de nouveautés. Qu’a fait Apple pendant deux ans ? Du nettoyage et des optimisations, en grande partie. Snow Leopard est ainsi débarrassé de tout le code encore lié aux PowerPC.

C’est un système tourné entièrement vers les processeurs Intel et qui ne peut donc pas être installé sur les anciens Mac à base de puces G4 et G5. En conséquence, le poids du système diminue de plusieurs gigaoctets. Il n’y a en effet plus aucun Universal Binaries, le format utilisé par Apple pendant la transition.

Snow Leopard embarque cependant encore Rosetta pour que les anciens logiciels PowerPC puissent fonctionner.

Snow Leopard

Ce nettoyage s’accompagne d’une grande vague d’optimisations. La plupart des composants et logiciels fournis ont été réécrits pour profiter, tant que possible, des dernières nouveautés matérielles. Il est le premier Mac OS X à noyau en 64 bits, bien qu’il ne soit pas utilisé par défaut sur les machines grand public. Les applications fournies s’exécutent également dans ce mode quand le processeur adapté est présent, cette fois sur tous les Mac compatibles. Un fonctionnement qui va faire grimper la RAM minimale à 1 Go, contre 512 Mo pour Leopard.

C’est également avec Snow Leopard qu’arrivent deux technologies marquantes en leur temps, Grand Central Dispatch et OpenCL. La première propose des API permettant aux développeurs de faciliter la répartition des calculs sur les cœurs multiples des processeurs (ils en ont désormais au moins deux). La seconde permet l’utilisation des GPU pour des calculs plus génériques au sein des applications.

Parmi les autres améliorations, on peut citer le passage à CUPS 1.4 pour les impressions, un plus grand nombre de composants système protégés par la sandbox, ou encore une première version de l’outil supprimant les malwares les plus courants. Mais on fait vite le tour. Ajoutons quand même le Mac App Store, même si la boutique d’applications n’est arrivée qu’avec la version 10.6.6, en janvier 2011, soit 17 mois après la mouture initiale.

Apple a fait son jeu ce cette quasi-absence de nouveautés « pratiques » et a promu le système comme n’ayant « aucune nouvelle fonction ». Snow Leopard a d’ailleurs été commercialisé à 29,99 euros/dollars, contre 129,99 euros/dollars pour les versions précédentes. Ce sera la dernière version vendue sur DVD.

Snow Leopard est resté longtemps dans le « cœur » des utilisateurs, pour une raison simple : il est le dernier système d’Apple à supporter les applications 32 bits. Il garde aujourd’hui l’image d’un OS véloce, où tout était plus réactif, et où les Mac s’éteignaient et se mettaient en veille assez vite. Le temps en a presque fait une légende.

Lion et les premières infiltrations d’iOS

Lion sort en juillet 2011, un peu moins de deux ans après Snow Leopard. Il est la première version distribuée sur le Mac App Store. Son prix reste de 29,99 euros/dollars et ne repartira jamais à la hausse. Bien qu’Apple ayant au début parlé d’une version dématérialisée, des clés USB d’installation seront vendues à 69 euros/dollars.

Lion est tout le contraire de Snow Leopard : peu de changements sous le capot, mais une longue file d’améliorations diverses dans le système et les applications embarquées. Signalons qu’il est quand même le premier à embarquer le support de la commande TRIM pour les SSD, en tout cas ceux fournis dans les Mac. Les modèles tiers attendront encore quelques années que ce support soit élargi.

Lion est connu pour avoir introduit notamment Auto Save et Versions, qui permettaient l’enregistrement permanent des modifications dans les fichiers, depuis les applications compatibles. En conséquence, « Sauvegarder sous » disparaissait au profit de « Dupliquer », dont le fonctionnement parut moins intuitif à beaucoup.

Ce changement traduisait pour la première fois une infiltration d’iOS dans Mac OS X. Sur le système mobile, il n’y avait en effet pas de gestion des fichiers, car seul comptait le contexte applicatif : l’utilisateur n’avait pas à voir les données. Cette inspiration d’iOS va se retrouver dans de nombreux éléments.

Comme l’interface de Contacts, proche de celle sur iPad, le comportement de la correction automatique à la frappe, le support des emojis, le Launchpad et sa grille d’applications, FaceTime, l’intégration définitive du Mac App Store, de nouveaux gestes tactiles multitouch, les notifications push ou encore le « défilement naturel ». Ce dernier point fut lui aussi détesté par une partie des utilisateurs, puisqu’il inversait le défilement réalisé au touchpad. La mesure était cependant destinée aux nouveaux utilisateurs qui, conquis par l’iPhone, se seraient acheté un MacBook.

De nombreuses améliorations étaient cependant propres à Mac OS X. On l’oublie parfois, mais c’est bien le système fixe qui a reçu AirDrop le premier, deux ans avant iOS 7. Il s’agit pour rappel d’une fonction d’échanges directs de fichiers entre appareils proches. Lion a également introduit l’ASLR, une technologie importante pour la protection contre certaines attaques. Apple avait été critiquée pour avoir tardé à la mettre en place. De la sécurité également avec la possibilité, dans FileVault, de chiffrer l’intégralité du disque et le support des disques externes.

Lion est également accompagné pour la première fois de sa partition de restauration. Fonction accessible au démarrage par le raccourci Cmd + R, elle permet de télécharger la dernière révision stable de Mac OS X pour réinstaller le système en cas de gros problème. C’est aussi sur Lion qu’arrive le mode plein écran pour les applications. Le comportement de la pastille verte change alors : l’application (quand elle est compatible) remplit tout l’écran, masquant la barre de titre et le Dock. Quand plusieurs applications sont ouvertes en plein écran, on peut passer de l’une à l’autre par un glissement latéral à trois doigts. La fonction existe toujours en l’état.

Autre gros morceau, Mission Control qui réunit Exposé et Spaces. Quand il est déclenché, il affiche toujours les fenêtres côte à côte en vues réduites comme Exposé, mais affiche en plus les bureaux virtuels en haut de l’écran sous forme de vignettes. On peut notamment déplacer une application d’un bureau à l’autre dans cette vue.

Lion a cependant laissé certains clients sur le carreau. Il exigeait un processeur Intel 64 bits (donc au moins un Core 2 Duo) et 2 Go de mémoire, un doublement qui avait fait pester. Certains ne l’ont pas installé tout de suite à cause du retrait de Rosetta, donc de la capacité du système à faire fonctionner les anciennes applications PowerPC.

Mountain Lion, et Mac OS X devint OS X

Mountain Lion a un peu été à Lion ce que Snow Leopard avait été pour Leopard : on reste sur les mêmes bases, mais on affine. La configuration réclamée ne change d’ailleurs pas. Il sort en juillet 2012 et initie le cycle annuel d’OS X, qui perdure encore aujourd’hui.

Il apporte moins de nouveautés que Lion, mais plusieurs sont appréciables. Il récupère par exemple le centre de notifications d’iOS, toujours disponible aujourd’hui dans la barre latérale à droite de l’écran. Les notifications s’affichent dans de petits encadrés, exactement comme sur iOS.

L’influence du système mobile se poursuit avec la suppression d‘iChat au profit de Messages. Cette première version s’interfaçait encore avec les protocoles XMPP (Jabber) et OSCAR (AIM). Comme avec iChat, on pouvait échanger du texte et des médias, mais Apple y avait ajouté en plus la synchronisation iMessage (bulles bleues sur iOS), l’intégration FaceTime et le partage d’écran.

Mountain LionMountain Lion

Mountain Lion signe également la grande arrivée d’AirPlay. Dans sa version originale, il permettait uniquement la copie miroir de l’écran du Mac vers l’Apple TV et la transmission de l’audio vers les appareils compatibles. Depuis, la fonction supporte aussi le partage de la vidéo dans les applications compatibles.

Parmi les autres améliorations, signalons une nouvelle barre d’adresse dans Safari qui intégrait la recherche (Google par défaut), l’arrivée de la mise en veille prolongée, les mises à jour automatiques des applications par le Mac App Store, une nouvelle apparence pour le Dock ou encore l’intégration de Notes, qui jusque-là n’existait que sur iOS. C’est aussi Mountain Lion qui a donné une interface à l’utilitaire Gatekeeper, arrivé à Lion et responsable du contrôle des signatures numériques dans les applications.

Le lancement Mountain Lion fut cependant entaché par le lancement d’iCloud, qui mettait fin à l’existence de MobileMe. Ce dernier était payant et fonctionnait relativement bien. Avec iCloud, Apple partait sur une stratégie de gratuité, les utilisateurs ne payant que l’espace supplémentaire en ligne. Mais les premiers d’iCloud furent catastrophiques : le service eut de nombreux problèmes durant les premières semaines, dont une synchronisation très aléatoire. Les soucis ne furent corrigés que très progressivement, au grand dam des utilisateurs.

Mavericks : désormais gratuit, OS X évolue plus doucement

Mavericks a initié un changement de nomenclature pour OS X : plus question désormais de noms de félins – Apple avait presque épuisé le stock des races connues – et place aux lieux géographiques connus de Californie. Mavericks est ainsi le nom d’un célèbre spot de surf de l’État américain.

Il est mis à disposition en octobre 2013 dans le Mac App Store et prend en charge les mêmes machines que Mountain Lion. On entrait alors pleinement dans le cycle des évolutions douces. Les utilisateurs ont largement noté à l’époque que le système proposait nettement moins de nouveautés que les versions précédentes. D’ailleurs, le système était pour la première fois gratuit. Il fonctionnait sur les mêmes configurations que Mountain Lion.

Mavericks apportait plusieurs améliorations notables pour les écrans multiples. Par exemple, le Dock et la barre de menus étaient affichés sur l’ensemble des écrans, et pas uniquement le principal. Mission Control avait été adapté pour gérer des bureaux virtuels sur chaque écran et déplacer plus facilement les applications d’un écran à l’autre.

mavericks

Plusieurs mécanismes avaient en outre été intégrés pour réduire la consommation des applications inactives. Mavericks savait ainsi plonger en « sommeil » celles ne servant plus depuis un moment. En outre, si l’utilisateur s’approchait de la saturation mémoire, les données stockées en RAM par ces applications étaient compressées.

On y trouvait également un mécanisme de coalescence des horloges logicielles, synchronisant les opérations de réveil des processus, afin que le CPU les traite en lots. Ce mécanisme existait dans Linux, Unix et Windows depuis plusieurs années et avait montré son efficacité, avec notamment une meilleure autonomie des portables à la clé.

Parmi les autres améliorations, signalons l’arrivée des onglets dans le Finder, une hausse majeure des performances JavaScript dans Safari, l’intégration de l’application Plans (qui reprenait les mêmes fonctions que sur iOS) ou encore du mieux pour la synchronisation iCloud. Malheureusement, ce dernier point a été accompagné d’une suppression des services de synchronisation locale, ce qui avait fait pester un certain nombre de personnes.

Enfin, on notait dans Mavericks la suppression d’éléments de skeuomorphisme, c’est-à-dire la tendance graphique de l’époque à copier les matières pour en décorer les applications. Par exemple, Calendrier (iCal auparavant) se débarrassait de l’apparence cuir qui caractérisait sa partie supérieure. Ce mouvement préfigurait ce qui allait se passer l’année suivante, avec l’arrivée d’iOS 7 et la bascule d’Apple dans le flat design.

Yosemite : le grand chamboulement du flat design

Avec Yosemite, nommé d’après la célèbre réserve naturelle, OS X suit la tendance initiée par le système mobile. Plus question de surfaces texturées, place aux aplats blancs ou colorés et à une volonté de simplifier les lignes.

C’est le grand avènement – chez Apple en tout cas – du flat design, qui va marquer durablement les lignes esthétiques de l’entreprise. Nous y sommes toujours. C’est la première grande refonte graphique du système depuis sa création. Tout ou presque change dans l’interface d’OS X : le cadre des fenêtres, leur contenu, les lignes de séparation, les barres de défilement, les icônes et jusqu’à la police principale.

Lucida Grande était remplacée par Helvetica Neue. Le Dock, jusqu’ici incliné en 3D, devient un simple cadre rectangulaire en 2D pour se rapprocher de celui d’iOS. C’est peu dire que la réaction initiale a été mitigée. On trouvait tant de personnes adorant cette simplification générale de l’esthétique que ceux qui la décriaient.

Une certaine forme de consensus s’est cependant établie au bout de quelques semaines, car beaucoup estimaient qu’un retour aux anciennes interfaces n’était plus possible.

yosemite widgets

Dans la plupart de ses apports, Yosemite a été une suite directe de Mavericks, avec une présence toujours plus forte d’iOS. L’un des changements les plus marquants a ainsi été le remplacement d’iPhoto et Aperture par Photos, du même nom que l’application d’iOS. Elle devait amener l’ensemble des utilisateurs sous une interface commune, qui synchronisait l’ensemble des données via le compte iCloud pour tous les appareils.

Mais comme souvent avec les remplacements « radicaux » d’Apple, les retours ont été très critiques avec cette première version. Il était largement reproché à Photos de faire l’impasse sur des fonctions courantes des deux logiciels qu’il remplaçait. Autre apport d’iOS, la vue « Aujourd’hui » dans le centre de notifications, réunissant dans un même endroit l’ensemble des évènements prévus dans la journée.

Le plus gros merci fut cependant Continuité. Toujours dans un but d’intégrer plus les plateformes au sein d’un écosystème commun, il devenait possible de commencer une activité sur un appareil pour la poursuivre sur un autre. C’était le but de fonction Handoff, qui permettait par exemple de commencer un email sur un iPhone, puis de reprendre sa rédaction sur un Mac. La fonction s’étendait à toutes sortes d’activités, y compris les SMS et les appels téléphoniques, classiques ou FaceTime.

C’est également Yosemite qui modifia le comportement par défaut de la bille verte, qui jusque-là maximisait la taille des fenêtres. Le bouton spécifique au mode plein écran, ce fut son nouveau rôle. Dans les applications, il est le plus souvent possible de revenir au mode maximisé par un double-clic sur la barre de titre. Le moteur de recherche Spotlight fut également renforcé, en prenant notamment une position centrale dans l’écran.

Les machines supportées étaient encore les mêmes que les deux moutures précédentes (processeur Intel 64 bits, 2 Go de mémoire, etc.). Cependant, il fallait un Mac récent équipé du Bluetooth LE pour utiliser Handoff.

Internet Explorer et Edge Legacy : fin de support pour QNAP

10 février 2021 à 09:15

L'entreprise spécialisée dans les NAS et les solutions réseau indique qu'elle ne prend plus en charge de développement spécifiques aux deux anciens navigateurs de Microsoft.

Elle indique que l'éditeur lui-même les met de côté : depuis le 30 novembre dernier pour IE 11 et dès le 9 mars 2021 pour Edge Legacy. 

Pour s'assurer d'un niveau de compatibilité et de sécurité suffisant, les utilisateurs sont invités à utiliser la nouvelle version de Microsoft Edge, ou d'autres navigateurs comme Chrome, Mozilla ou Safari. Pour rappel, Microsoft supprimera l'ancien Edge le 13 avril sur l'ensemble des systèmes, le remplaçant par le nouveau s'il n'est pas déjà installé.

Visual Studio Code : un éditeur crédible pour la publication et le Markdown

8 février 2021 à 16:30

Lorsque l'on veut produire des documents via le standard Markdown, on peut utiliser des outils spécialisés ou des éditeurs à tout faire, en général pensés pour les développeurs. Après Sublime Text, nous nous sommes penchés sur le cas de Visual Studio Code.

Nous continuons aujourd'hui notre série sur les éditeurs de texte, se concentrant sur l’écrit, laissant à la plateforme de publication le soin de la présentation, selon une série de balises placées par l’auteur. Des différences fondamentales avec les habituels traitement de texte tels que Word par exemple.

Comme évoqué dans notre article sur Sublime Text, on retrouve ceux avec une interface WYSIWYG aux côté de solution davantage pensés pour le code. Et à ce petit jeu, grâce à sa grande flexibilité, Visual Studio Code apparaît comme une solution intermédiaire. Car Microsoft a préparé le terrain pour le Markdown, le langage étant connu de VSC, qui l’interprète correctement. Le tout peut être complété par certains plugins.

Il existe toutefois une bonne marge d’amélioration pour que l’application puisse être utilisée tous les jours à la place d’un Zettlr ou d’un Typora. Comme Sublime Text, Visual Studio Code se présente comme une base malléable que l’on peut enrichir à volonté (ou presque). Mais si le principe central est le même, la mise en œuvre est très différente, tant par les technologies utilisées que par le nombre de fonctions proposées.

Comme nous allons le voir, Sublime Text et Visual Studio Code (ou VSC) représentent les deux extrémités de l’éventail des éditeurs de code pouvant être utilisés pour le Markdown. Cela même si VSC n’est pas le seul sur ce segment, puisque l’on y trouve notamment Atom. Pour rappel, cet éditeur est gratuit, open source, disponible sur les trois plateformes principales : Linux, macOS et Windows.

Notre dossier sur les éditeurs de texte :

Interface et généralités

Visual Studio Code ne doit d’abord pas être confondu avec Visual Studio. C'est en quelque sorte une version « réduite », contenant nettement moins de fonctions. Bien que basé sur Electron, les performances de VSC restent bonnes, bien supérieures à des projets plus petits comme Mark Text.

Comme Sublime Text, il dispose d’une palette de commandes, que l’on peut appeler par Ctrl + Maj + P (ou Cmd + Maj + P sur Mac) ou F1, et d’une compatibilité native avec les fichiers MD. L’installation est assez rapide et sans surprise. Au premier lancement, un panneau de bienvenue guide l’utilisateur dans ses possibilités offertes.

On y trouve, dans une petite barre latérale, des accès rapides vers les fichiers, la recherche, le contrôle de code source, l’exécution et les extensions. Dans notre cas, on s’intéressera surtout aux fichiers et aux extensions.

Visual Studio Code

Que vous sélectionniez un fichier existant ou créiez un nouveau, le résultat sera le même : il s’ouvre dans la zone de droite, exactement comme dans la plupart des éditeurs. Il s’agit d’une vue code, avec tout ce que cela suppose, notamment un affichage complet des balises du Markdown, sans interprétation.

Mais comme dit précédemment, Visual Studio Code se rapproche d’un éditeur de texte par la présence d’un panneau de prévisualisation intégré à l’application. Pour l’afficher, il suffit de cliquer sur l’icône située en haut à droite, celle affichant une petite loupe sur deux colonnes. Là, le champ d’édition se réduit pour afficher une nouvelle zone, contenant la prévisualisation du texte. Cette fois, les balises y sont directement interprétées :

Visual Studio Code

Car VSC dispose, comme d'autres, d’un système d’onglets permettant d'afficher plusieurs fichiers. Pour ouvrir un nouvel onglet, il faut double-cliquer soit dans la barre des onglets pour en ouvrir un vide, soit sur un fichier présent dans la colonne latérale pour ouvrir directement son contenu.

Toute sélection d’un fichier change immédiatement la prévisualisation dans la zone de droite. La prévisualisation change automatiquement en fonction du document sélectionné. On peut toutefois bloquer ce comportement en appelant la palette de commande et en cherchant « lock ». On trouvera alors une fonction « Open locked preview to the side », qui permet de verrouiller la prévisualisation sur le fichier en cours.

Un nouvel onglet apparait alors dans la zone de droite, portant la mention « [Aperçu] ». Il s’agit uniquement d’une vue, ce qui signifie que les modifications sont prises en compte.

Notez au sujet de la prévisualisation que certaines règles de sécurité s’appliquent dans Visual Studio Code. Deux en particulier peuvent bloquer l’affichage de certains contenus : les scripts ne peuvent pas s’exécuter et les ressources ne peuvent être chargées que depuis des liens HTTPS. Tout contenu bloqué sera signalé par un cadre bleu, sur lequel on pourra cliquer pour avoir des détails. L’utilisateur aura cependant le dernier mot, car il pourra choisir de passer outre l’avertissement et donc d’afficher toutes les ressources.

Si le cas est trop fréquent, vous pouvez utiliser la commande « Markdown: Changer les paramètres de sécurité de l’aperçu » depuis la palette pour modifier le réglage général de cette sécurité. Elle est par défaut sur Strict et en propose plusieurs autres, dont celle pour les contenus non sécurisés. On pourra alors charger des ressources via HTTP (un distinguo est fait entre ressources locales et distantes), tout en continuant à bloquer les scripts.

Si vous souhaitez autoriser ces derniers, il faudra alors choisir « Désactiver » dans le menu, que Visual Studio Code accompagne d’un « Non recommandé », comme toujours quand il s’agit de couper une sécurité.

Visual Studio Code

La colonne de gauche dispose de plusieurs sections, comme les éditeurs ouverts ou le contenu du dossier de travail. On y trouve également une section importante, Structure. Il s’agit tout simplement du plan du document, déterminé par le niveau des titres, défini en Markdown par le nombre de « # ».

Un très bon point, car tous les éditeurs de texte n’en sont pas forcément équipés. Or, dans de grands documents, ce plan permet de garder un coup d’œil sur l’ensemble, tout en permettant les déplacements rapides. Comme nous le verrons plus tard, tout ce qui se rapporte à la prévisualisation peut être modifié, notamment par les extensions.

Écriture : on est là pour travailler

En matière d’écriture, Visual Studio Code ne réserve pas de surprises particulières, surtout une fois qu’il a été configuré en fonction des goûts de son utilisateur. On reste dans tous les cas sur un éditeur de code, ce qui signifie une frappe directe et dépouillée de tout artifice ou même d’effort de présentation.

Tout est fait pour fournir un environnement « sérieux », qui se ressent dans les choix esthétiques généraux ou encore dans le choix des polices, par défaut de la famille « Consolas, 'Courier New', monospace ». Famille que l’on peut changer, de même que la taille de la police.

L’avantage de cette présentation est que l’on est libre de travailler comme on le souhaite. Certains préfèreront par exemple travailler avec le panneau de prévisualisation, mais pas d’autres. De même, les questions de la police et de sa taille sont essentiellement une matière de goût, même si celle par défaut fait très bien son travail.

  • Visual Studio Code
  • Visual Studio Code
  • Visual Studio Code

La grande liberté offerte par le logiciel est en fait son plus gros atout, puisque l’on peut modifier également son thème, l’apparence et/ou la taille de presque tous les éléments d’interface, et même les icônes de l’éditeur.

Avec les thèmes, on changera également la coloration syntaxique, qui peut être à elle seule une bonne raison d’aller arpenter les thèmes optionnels. Visual Studio Code n’étant pas un éditeur de texte centré sur la publication, certains outils ne sont pas présents. Par exemple, on n’y trouvera pas de correction orthographique, ce type de module n’ayant en temps normal rien à faire dans un environnement de développement.

Mais comme on peut s’y attendre, le problème peut être rapidement réglé par une extension (nous y reviendrons).

Options : à boire et à manger

Si vous avez lu notre article sur Sublime Text, vous avez peut-être été effrayés par le chapitre sur les options. L’application étale en effet ses multiples paramètres dans des fichiers JSON. Il faut donc modifier tout réglage à la main, même si les fichiers sont commentés pour que l’on sache avec précision à quoi correspond chaque ligne.

Dans Visual Studio Code, les options sont graphiques. Mais attention, cela ne signifie pas forcément que l’on gagnera du temps dans la recherche et la modification d’un réglage. L’éditeur possède en effet un nombre extrêmement élevé d’options, puisque tout ou presque y est configurable.

L’approche graphique des options apporte surtout un bénéfice : elles sont classées par thèmes, eux-mêmes disponibles dans une arborescence dont on peut ouvrir ou fermer les nœuds :

Visual Studio CodeVisual Studio Code

Mais comme toujours quand le nombre d’éléments devient très important, il peut être beaucoup plus rapide de passer par le champ de recherche. Nul besoin de connaitre avec exactitude le nom du paramètre, car chacun est accompagné d’une description. Or, le moteur de recherche y trouve également des occurrences.

Si vous souhaitez par exemple un paramètre spécifique concernant GitHub, une recherche sur ce dernier mot affichera toutes les options où « GitHub » apparait dans le nom, ainsi que celles où le nom est présent dans la description. En outre, le moteur raisonne par thématiques proches. On y trouvera donc tout ce qui touche à Git et les options croisées avec la vue SCM (contrôle des sources).

En fait, selon les cas et que l’on connait plus ou moins précisément ce que l’on cherche, trouver un paramètre dans Visual Studio Code ne prendra pas forcément moins de temps que dans Sublime Text, puisque l’on peut également y trouver un paramètre via la recherche. L’avantage de la présentation graphique reste que nouveaux venus seront moins effrayés, d’autant que la version française (gérée par Microsoft) est native, complète et de bonne qualité.

Le merveilleux monde des extensions

Visual Studio Code apparait donc rapidement comme une alternative viable pour l’édition de documents Markdown. Mais, à l’instar de Sublime Text, il ne prend sa vraie valeur qu’avec les extensions, dont le catalogue est accessible via la petite barre latérale à la plus à gauche de la fenêtre, via l’icône représentant de petits carrés.

L’éditeur de Microsoft est à considérer comme un Chrome ou un Firefox à ce niveau : le logiciel contient certes un nombre important de fonctionnalités, mais leur nombre peut être décuplé par des modules complémentaires. Dans le cas de Visual Studio Code, ils sont nombreux et gratuits, et on trouvera presque toujours une extension correspondant à ses besoins. Le catalogue affiche l’auteur, le nombre de téléchargements, la note moyenne, le dépôt, la licence et la version de chaque complément :

Visual Studio Code

On ne reviendra pas plus longuement sur ce système, dont nous avons déjà expliqué toute la richesse dans notre article précédent. Pour les plus pressés, les chapitres suivants en fournissent des exemples concrets.

Notez tout de même que Visual Studio Code possède un système de recommandation, basé sur la configuration de la machine et les habitudes. Dans notre cas par exemple, l’éditeur a détecté la présence de Firefox et a affiché l’extension « Debugger for Firefox » dans la liste de celles recommandées. Autre cas, markdownlint, recommandée après l’ouverture de plusieurs fichiers MD, et sur laquelle nous reviendrons.

Formules, graphiques et diagrammes

Vous le savez maintenant, nous utilisons un certain nombre d’exemples pour vérifier les capacités d’un éditeur. Au-delà du texte à proprement parler, l’utilisation du Markdown est courante dans les travaux académiques, permettant de préparer un contenu sans tenir compte (en tout cas le plus souvent) de la plateforme de publication.

Ce qui est vrai cependant des balises ne l’est pas forcément du type de contenu que l’on souhaite publier. Pour rester dans le domaine académique, on peut citer trois exemples courants : les graphiques, diagrammes et formules mathématiques/chimiques.

Dans notre document test, le premier cas rencontré est un graphique réalisé initialement pour notre article sur Typora. Très simple, il représente un camembert à deux portions, sur la base d’une question (volontairement idiote). Dans Typora, le support de ce type de contenu est assuré par la bibliothèque Mermaid, absente de Visual Studio Code. Mais le problème est rapidement contourné.

Dans la zone des extensions, une simple recherche sur Mermaid affiche une douzaine de résultats. On y trouve Markdown Preview Mermaid Support, que l’on peut installer rapidement par un clic sur le bouton idoine. La procédure ne réclame pas de redémarrage de VSC. Son impact est quasi immédiat : dans la zone de prévisualisation, ce qui n’apparaissait que comme quelques lignes de code est maintenant le fameux camembert.

Comme précisé dans le descriptif de l’extension, tous les types de diagrammes et de graphiques sont supportés.

Le code en question :

```mermaid
pie title Quel temps fera-t-il demain ?
         "Oui" : 70
         "Non" : 30
```

Et son résultat après installation de l’extension :

Visual Studio Code

Passons aux formules, d’abord mathématiques. Dans le cadre des publications académiques, il existe un consensus autour de la syntaxe LaTeX Math. Il existe plusieurs extensions se proposant d’en assurer le support dans Visual Studio code. Markdown + Math est l’une d’elles, en assurant à la fois une aide à l’écriture, la prise en charge de nombreuses fonctions liées et, dans le cas qui nous intéresse, la prévisualisation dans le panneau de droite.

Nous avons deux exemples de code, l’un affichant un cadre de présentation, l’autre intégrant la formule sur la même ligne que le texte

$$
1 +  \frac{q^2}{(1-q)}+\frac{q^6}{(1-q)(1-q^2)}+\cdots = \prod_{j=0}^{\infty}\frac{1}{(1-q^{5j+2})(1-q^{5j+3})}, \quad\quad \text{for }\lvert q\rvert<1.
$$
Ceci est un exemple de formule : $f = \frac{2 \pi}{T}$

Voici le résultat dans la zone de prévisualisation :

Visual Studio Code

Notez que si l’extension fait son travail, elle ne le fait réellement bien que tant que la syntaxe KaTeX est respectée. Ceux qui cherchent des fonctions supplémentaires, comme on peut en trouver dans MathJax (utilisé d’ailleurs par Typora), devront se tourner vers d’autres extensions.

Markdown + Math a cependant le mérite de supporter également les formules chimiques, ce qui n’est pas toujours évident dans les éditeurs de texte ou de code.

Les exemples utilisés :

Faisons maintenant un peu de chimie : ${^{227}_{90}Th+}$
$C_p[{H2O(l)}] = {75.3 J // mol K}$
${Hg^2+ ->[I-] HgI2 ->[I-] [Hg^{II}I4]^2-}$

Leur résultat dans l’aperçu :

Visual Studio Code

Globalement, tous ces travaux sont donc possibles dans Visual Studio Code, et la configuration d’un environnement capable de prendre en charge ces contenus n’a guère pris de temps. On ne tombera bien sûr pas toujours tout de suite sur l’extension que l’on cherche, ou même pas du tout, mais le catalogue devrait fournir des solutions à une grande majorité de besoins.

Extensions recommandées pour le Markdown

Si l’on envisage sérieusement Visual Studio Code comme solution d’édition pour le Markdown, certaines extensions sont chaudement recommandées. L’une des plus importantes est markdownlint, même si elle correspond à des usages spécifiques. Comme le note l’auteur (David Anson), le Markdown est extrêmement flexible, ce qui peut représenter autant un avantage qu’un inconvénient. En fonction des personnes et des éditeurs, les libertés prises peuvent provoquer des erreurs pendant l’analyse (parsing) du code.

Pour éviter ces erreurs, markdownlint vérifie un ensemble de règles strictes imposant une utilisation cadrée des balises. Elles doivent, selon Anson, promouvoir une utilisation standard et une vraie cohérence au sein des fichiers MD. Point important, les règles sont modifiables et activables/désactivables séparément.

L’ensemble s’inspire du linting, pratique consistant à améliorer la qualité générale d’un code pour en faciliter la maintenabilité et son éventuelle reprise par un tiers.

Markdown All in One devrait être installée par toute personne voulant gérer le Markdown. Elle fournit un grand nombre de fonctions, dont des raccourcis clavier, la création simple de tables des matières, l'export simple vers HTML, l’autocomplétion, etc. Les commandes ajoutées sont toutes répertoriées dans la palette de VSC.

L’extension simplifie clairement le travail en modifiant le comportement de l’éditeur. Si l’on commence ainsi à écrire une liste avec un tiret, la validation par Entrée créera automatiquement un nouveau tiret. Si l’on n’en a plus besoin, rappuyer sur Entrée passera à la ligne suivante en supprimant le dernier tiret. De même, on modifiera l’indentation des tirets avec Tab ou Backspace. Citons également la possibilité de placer son curseur à différents endroits ou encore le remplacement automatique par un balisage URL quand on colle une adresse sur un mot sélectionné.

On pourrait également évoquer vscode all markdown. Relativement jeune (première version 0.2.1 en juin dernier), elle est disponible sous forme de Preview. Elle contient elle aussi un très grand nombre de fonctions, mais pas avec la même orientation que la précédente. Il s’agit cette fois de rapprocher Visual Studio Code d’un éditeur plus classique, voire d’un traitement de texte dans son approche.

Elle fait ainsi apparaitre une barre d’outils contenant les options de mise en forme, contient de quoi écrire et prévisualiser de nombreux éléments, sait compter les caractères, supporte le glisser-déposer d’images, etc.

Enfin, nous vous recommandons French - Code Spell Checker. L'extension installera automatiquement Code Spell Checker si ce n'est pas déjà. Après sélection du français dans les paramètres de l'extension, la vérification grammaticale sera connectée à celle de la plateforme utilisée.

Il est possible d’installer plusieurs extensions pour cumuler toutes ces fonctions. Mais attention, car plusieurs extensions peuvent se « battre » pour une même capacité, occasionnant alors des incompatibilités. Dans Markdown All in One par exemple, on trouve un support basique des formules mathématiques. Il est cependant conseillé de le désactiver dans les options de l’extension si on a installé un module dédié.

Les principales forces de Visual Studio Code...

Visual Studio Code se présente finalement comme une solution tout à fait pertinente pour l’édition de documents Markdown.  Ses forces dans ce domaine viennent avant tout de sa flexibilité, qui lui viennent de son cœur de cible : les développeurs. Sans avoir inventé le concept, Microsoft est partie d’une base sobre, sans pour autant être aussi dépouillée que Sublime Text, lui-même bien loin d’être vide. Le reste est confié aux modules complémentaires.

On a donc un environnement souple et personnalisable, que des extensions peuvent façonner de manière poussée pour convenir à de très nombreux usages. Mais même en dehors de ça, Visual Studio Code reste exploitable, car prenant en charge les fichiers MD et pouvant prévisualiser le résultat, tant que l’on ne lui demande rien de plus.

On apprécie également son aspect open source, le logiciel étant régulièrement mis à jour. L’équipe est réactive et les développeurs écoutés, mais leurs besoins ne sont pas nécessairement ceux des personnes visant le Markdown.

... et ses principales faiblesses

Visual Studio Code a aussi des faiblesses dans ce cadre d’utilisation. La plus évidente est que ce n’est pas un éditeur pensé spécifiquement pour le travail d’écriture : c’est un environnement de développement.

Une partie des utilisateurs lui trouvera donc un côté « usine à gaz » puisqu’il est conçu pour aborder indifféremment de nombreux types de projets. Même si Visual Studio Code n’est pas complexe, il l’est immanquablement plus qu’une application comme Zettlr, Typora ou iA Writer.

Visual Studio Code n’est pas une application « native ». Elle est basée sur Electron, Chromium et Node.js. Le prix à payer pour une disponibilité immédiate des nouvelles versions sur les trois plateformes principales. Bien que Microsoft ait fait un bon travail sur les performances, l’éditeur n’aura pas la légèreté d’un Typora ou surtout d’un Sublime Text. Mais il n’a pas à rougir face à des applications un peu plus lourdes comme Mark Text ou Zettlr.

VSC a finalement les défauts de ses qualités. Sa souplesse et sa personnalisation iront forcément de pair avec une interface généraliste qui en rebutera certaines. Pensé pour le code, il gère nativement la gestion de version et donc l'intégration à Git et des plateformes comme GitHub qui peuvent être utilisés pour de simples documents.

À qui s’adresse Visual Studio Code ?

Deux populations pourraient s’intéresser en priorité à Visual Studio Code. Les développeurs d’abord, qui pourraient avoir besoin du Markdown pour différentes raisons. Ce peut être bien sûr pour des travaux académiques. Mais le Markdown est également utilisé pour la documentation du code sur différentes plateformes. 

Ensuite, des personnes pourraient se pencher sur Visual Studio Code pour sa souplesse et son degré de personnalisation. L’interface sera forcément moins léchée qu’un Typora ou un Mark Text, mais elle permet de gagner en richesse. Un utilisateur pourrait ainsi sacrifier volontiers un peu de confort visuel pour davantage de confort fonctionnel, avec pour objectif un environnement répondant aux besoins avec précision.

Private Click Measurement, la proposition d'Apple pour mesurer anonymement les clics publicitaires

4 février 2021 à 16:06

Apple, très active actuellement sur la vie privée et la collecte des données personnelles, vient de publier un article détaillant Private Click Measurement sur le blog du moteur de Webkit. Cette méthode doit permettre aux parties intéressées la collecte des clics sur les publicités depuis les applications et pages web sur iOS.

Vrai cheval de bataille pour les uns, simple stratégie pour les autres, Apple a déclenché une véritable guerre pour la vie privée. Dans ce chahut, l’entreprise se heurte de plein fouet à Facebook, que des rumeurs décrivent comme en préparation d’une plainte contre la firme de Cupertino pour abus de position dominante.

Jusqu’à récemment, la stratégie d’Apple se basait sur un constat simple : après un échec dans le domaine de la publicité, les données personnelles ne faisaient plus partie des options envisageables. Relativement neutre sur le sujet pendant longtemps, le discours de l’entreprise prit donc une nouvelle tournure : désormais, tout serait axé sur le respect de la vie privée. Et effectivement, le message est renforcé année après année.

Aucun service de l’entreprise ne collecte de données personnelles pour du ciblage publicitaire. Ce qui ne signifie pas pour autant qu’elle n’en collecte pas. Certaines informations se retrouvent prises dans l’utilisation de plusieurs services pour certains besoins, comme la personnalisation des recommandations sur des services comme Music.

Mais, tous produits confondus, la plupart des opérations de machine learning sont désormais effectuées sur l’appareil, comme la reconnaissance des visages sur les photos par exemple.

De la stratégie à la guerre ouverte

Depuis le 1er janvier cependant, la stratégie s’est faite plus guerrière. Les fiches des applications dans l’App Store doivent arborer le détail des données personnelles récoltées et la manière dont elles sont utilisées. Au grand dam de Facebook, dont les applications – tout particulièrement Messenger – ressortent bien peu grandies.

Mais c’est avec le futur iOS 14.5, actuellement en bêta, qu’Apple va porter un coup sévère aux entreprises vivant du pistage publicitaire, en tout premier lieu Facebook et Google. Lorsqu'elle sera déployée, toute application voulant accéder à l’identifiant unique publicitaire (IDFA) devra en demander l’autorisation à l’utilisateur, suivant le RGPD.

Si celui-ci refuse, l’application ne pourra obtenir les informations d’utilisation transversales, c’est-à-dire récoltées à travers d'autres applications. Facebook et Google préparent donc les développeurs tiers à ce changement, qui passe notamment par SKAdNetwork, un nouveau socle proposé par Apple pour obtenir des données anonymisées.

SKAdNetwork positionne iOS et plus particulièrement l’App Store comme éléments centraux de la collecte. À ceci près que les données sont agrégées et – normalement – débarrassées de tout élément qui pourrait conduire à l’identification. Le résultat est peu ou prou le même pour les publicitaires, avec par exemple les conversions, c’est-à-dire quand une publicité mène à une action spécifique, comme le téléchargement d’une application.

Apple s’attaque maintenant aux campagnes publicitaires et à la mesure des clics

Dans les actuelles bêtas 14.5 d’iOS et iPadOS, les développeurs web peuvent « s’amuser » avec une nouvelle fonction baptisée Private Click Measurement (PCM). Elle est conçue pour permettre aux parties intéressées de mesurer le nombre de clics dans une page web ou une application.

Pourquoi proposer une nouvelle méthode ? Parce qu’en plus du reste, Apple a aussi déclaré la guerre aux cookies. La bataille a commencé à l’automne 2017 avec la première mouture de l’Intelligent Tracking Protection (ITP). Elle utilise le machine learning pour déterminer si les cookies ont un droit « légitime » d’accéder aux données de navigation. Comprendre, séparer par exemple les cookies servant à stocker les paramètres d’un site de ceux uniquement là pour pister les habitudes des internautes.

Avec iOS/iPadOS 13.4 et Safari 13.1 pour macOS, cette lutte est montée d’un cran avec le blocage complet et par défaut de tous les cookies tiers. En outre, les données de chaque site étaient purgées tous les sept jours. Ce qui avait fait dire à certains que l’entreprise cherchait à tuer les Progressive Web Apps, sa position étant bien connue : Apple ne jure que par le code natif. La situation, on l’a vu, est nettement plus nuancée.

Rêvant sans doute d’un futur entièrement débarrassé des cookies, Apple devait donc préparer un nouveau terrain pour transmettre certaines informations, notamment les clics publicitaires. Car à l’inverse d’un iOS et de son App Store, une technologie web ne fonctionne pas si elle n’est pas reprise par une masse critique d’acteurs.

Le fonctionnement de Private Click Measurement

Comment fonctionne Private Click Measurement ? D’abord, cette fonction est active par défaut dans Safari sur iOS/iPadOS 14.5. Elle couvre deux cas de figure : la navigation classique dans le navigateur et les pages web ouvertes dans des vues déportées (SFSafariViewController) par les applications tierces. L’utilisation des WebViews n’étant pas couverte, les navigateurs tiers ont quartier libre.

Apple donne un exemple : un utilisateur clique sur un lien, qui l’amène à travers différents domaines jusqu’à une page finale. Sur cette dernière, un mécanisme de suivi peut demander – jusqu’à sept jours après – à connaitre les clics qui ont amené l’internaute jusque-là. On a d’un côté un identifiant de source d’attribution (attributionsourceid) sur 8 bits, capable donc d’identifier jusqu’à 256 campagnes publicitaires en parallèle. De l’autre, attributeon, codé sur 4 bits, permettant donc de reconnaitre jusqu’à 16 évènements de conversion.

Si un clic sur une publicité de social.example a emmené l’utilisateur sur shop.example, l’attributionsourceid est stocké comme clic pour sept jours. Cette donnée est stockée par le navigateur, mais n’est pas directement accessible aux sites. PCM ne fonctionne qu’en eTLD+1, pour éviter que des sous-domaines ne soient créés pour chaque internaute.

Apple PCM

Ces valeurs de 8 et 4 bits ont été choisies pour permettre une certaine souplesse, sans pour autant être assez précis pour lier les informations à une personne en particulier. Les informations collectées sont envoyées en HTTPS depuis une fenêtre dédiée en navigation privée sans le moindre cookie, sous la forme de rapports expédiés entre 24 et 48 heures après leur création. Ceci, selon l’équipe de Webkit, pour dissocier l’envoi de tout autre évènement.

Dans le cas d’une application, le fonctionnement de base reste le même, avec une convention de nommage différente. Attributionsourceid devient sourceIdentifier, attributeon devient destinationURL, etc.

À la manière de SKAdNetwork, l’objectif n’est donc pas de casser le marché de la publicité, mais d’arriver plus ou moins au même résultat avec des données anonymisées. Les entreprises continueront de voir que quelqu’un a cliqué sur une pub et même que cette personne est allée jusqu’à un achat, mais ne pourront plus savoir qui.

« Aucun annonceur, vendeur ou même Apple ne peut voir quelles publicités sont cliquées ou quels achats sont réalisés. Cette solution évite de placer sa confiance dans l’une des parties impliquées – le réseau publicitaire, le vendeur ou d’autres intermédiaires – afin qu’aucun d’entre eux ne puisse pister les utilisateurs pendant qu’ils cliquent sur des publicités ou achètent des produits sur Safari », vante l’entreprise.

Quelques précisions. D’une part, l’utilisation du mode de navigation privée bloquera l’enregistrement des données par PCM. D’autre part, les bloqueurs de publicités pourront ajouter des paramètres pour détecter et bloquer le chemin .well-known, aboutissant au blocage de PCM, donc à sa collecte.

Enfin, les options de Safari dans iOS 14.5 reçoivent deux nouvelles capacités : un bouton pour supprimer l’ensemble des données enregistrées par PCM, et un autre pour désactiver la fonction.

Apple veut faire de PCM un standard

Private Click Measurement n’est pas à proprement parler une nouveauté. La première version de la fonction a été présentée en 2019 par l’équipe de Webkit. Le nom final est plus récent et son fonctionnement a été débattu au sein du groupe Privacy Community du W3C et sur GitHub.

Si PCM est débattu au W3C, c’est qu’Apple compte en faire un standard. Mais avant que le processus ne démarre, il faut que la technologie ait fait l’objet de deux implémentations indépendantes. Apple est donc actuellement en pourparlers avec Mozilla, Brave, Google ou encore Microsoft pour une intégration à leurs navigateurs.

En attendant, PCM est présent dès la première bêta d’iOS 14.5, ce qui peut d’ailleurs soulever quelques sourcils : pourquoi intégrer une technologie qui n’a même pas entamé son chemin vers la standardisation ? 

Apple donne plusieurs raisons. D’abord la nécessité de collecter des retours par l’ensemble des acteurs concernés : annonceurs, développeurs web, analystes et ainsi de suite. Ensuite, la société a préféré donner la même chose à tout le monde, plutôt qu’une approche par partenaires dument sélectionnés. Enfin, parce qu’en dehors de quelques exceptions, « la fonctionnalité et les données d’attribution sont stables », tout particulièrement le choix des 8 bits côté source du clic et des 4 bits côté attribution.

Certains éléments ne sont en effet pas finalisés et d’autres sont en préparation. Le plus important est sans conteste le mécanisme de prévention des fraudes par l’utilisation de jetons sans lien. On imagine que les annonceurs préfèreront attendre qu’une telle protection soit en place avant de se jeter sur PCM. Apple prévoit également d’utiliser une API JavaScript moderne pour déclencher les évènements, plutôt que le classique (et vieux) pixel. Le support des liens PCM dans les iframes imbriqués est lui aussi prévu.

Encore une fois, il n’est pas question de casser le marché de la publicité en bloquant leur personnalisation si rémunératrice. Mais à Cupertino, on propose de le faire de manière plus « vertueuse », qui par définition casserait la capacité de certaines entreprises à constituer des dossiers entiers d’habitudes, basés sur des informations identifiantes. Et si SKAdNetwork peut déplaire comme solution 100 % Apple, Private Click Measurement aurait l’avantage d’être plus générique. Une étape... qui pour l’instant reste à accomplir.

Le PDG de Parler largué par son entreprise

4 février 2021 à 09:19

Parler est le fameux réseau social vers lequel tous les regards se sont tournés après les évènements du Capitole aux États-Unis. 

Largement pointée du doigt pour avoir joué un rôle important, l’application a été supprimée des boutiques d’Apple et Google pour ne pas avoir su modérer plus efficacement les discours de haine et appels à la violence. Amazon a enchainé en coupant l’hébergement des données sur AWS.

Depuis, les données ont été extraites par des chercheurs, qui ont montré que la plupart d’entre elles contenaient encore de précieuses métadonnées, dont la géolocalisation sur les photos et vidéos. L’un des chercheurs a même créé une carte interactive basée sur ces informations, montrant comment Parler avait été utilisé comme support de coordination le jour de l’attaque du Capitole.

John Matze, PDG de l’entreprise, sert désormais de soupape. Il a confirmé au Wall Street Journal avoir été démis de ses fonctions par le conseil d’administration dirigé par Rebekah Mercer. Selon lui, il aurait été renvoyé pour son goût de la liberté d’expression et ce qu’il pensait être une approche « plus efficace de la modération des contenus », sans que l’on n’en sache plus.

Il est plus probable que son renvoi soit en lien avec son poste au moment des faits. Il était aux commandes pour l’ensemble des faits reprochés à l’application, y compris un manque flagrant de protection de la vie privée puisque toutes les métadonnées ont pu être récupérées.

Mozilla dresse un état de santé d'Internet en 2020, et ce n'est pas brillant

2 février 2021 à 13:08

Mozilla a publié son rapport sur l’état de santé d’Internet. Et le constat n’est pas bon : désinformation, biais en tous genres, voire éclatement du réseau des réseaux. Pour la fondation, les progrès sont non seulement possibles, mais nécessaires.

C’est la quatrième fois que Mozilla publie un bilan annuel de ses observations sur les développements d’Internet. Les angles d’analyse sont multiples, mais l’ensemble constitue ce que la fondation nomme elle-même un « état de santé », selon ses propres critères.

Pour Mozilla, cet état ne dépend pas du déploiement de la fibre ou d’IPv6, mais de la manière dont l’information est servie, par qui et avec quel accès. Et l’année 2020, si particulière à bien des égards, n’est pas brillante. Avec une nouveauté : la santé d’Internet s’est retrouvée profondément liée à celle des personnes, la crise sanitaire ayant fait exploser les usages numériques.

Deux thématiques tiennent à cœur à Mozilla : la diversité et les biais. Et parmi ces derniers, le « biais racial » est le plus grave selon la fondation, car il s’insinue de manière insidieuse partout. Et lorsque l’on parle de biais, on ne parle pas de comportement volontaire, mais d’un parti pris qui imprègnera jusqu’aux décisions les plus techniques avec, dans le collimateur de la fondation, les processus d’intelligence artificielle.

Une année 2020 bien spéciale

« Ce fut une année plein de pertes et chargée de changements très rapides, à mesure que la pandémie globale et la crise climatique frappaient tout le monde collectivement, tout en approfondissant les inégalités ». Un préambule bien sombre, mais Mozilla étaye son propos.

La fondation revient sur les nombreux confinements et couvre-feux qui ont émaillé les décisions des gouvernements un peu partout sur la planète. « Alors que de nombreux pays mettaient en place des confinements et des fermetures d’écoles, nous avons vu un changement d’une ampleur que nous aurions jugée impossible avant. Le rythme déjà rapide de l’expansion numérique a encore pris de la vitesse tandis que les gouvernements, services officiels de santé publique, entreprises et investisseurs de startups (presque tout le monde) cherchaient des solutions rapides à des problèmes urgents ».

Méfiance donc devant une explosion de nouvelles applications et l’arrivée soudaine de l’intelligence artificielle dans un plus grand nombre de services, pour aider à la prise de décisions, suivre l’évolution de la crise sanitaire, etc. De nouvelles pratiques ou d’anciennes intensifiées dans le sillage du coronavirus, entrainant une ribambelle de développements à surveiller, de l’absence de stratégie à long terme sur la vie privée « au vaste tracking des citoyens, employés et étudiants ».

Sept grands vainqueurs

Sur les dix plus grandes capitalisations boursières au monde, sept sont des géants du numérique : Apple, Microsoft, Amazon, Alphabet, Facebook, Tencent et Alibaba.

Mozilla pointe des profits qui ont explosé dans un contexte qui a largement renforcé leur puissance. Parmi les solutions rapides adoptées par de nombreux acteurs (privés comme publics), on retrouve l’utilisation de produits prêts à l’emploi qui n’attendaient plus que de nouveaux clients. Mozilla trace un parallèle entre l’augmentation de cette puissance et le nombre en augmentation de procédures en cours ayant trait à la vie privée.

Mozilla Health Report 2020

Mozilla évoque également un nombre croissant d’employés critiquant leur entreprise sur divers sujets, notamment le manque de diversité, l’éthique ou encore le type de contrats passés. Les exemples donnés par Mozilla pour tous ces points concernent Google. Seule exception, un groupe d’employés d’Amazon appelant l’entreprise à prendre ses responsabilités sur le plan environnemental.

Les grands médias sociaux sont vertement critiqués pour « leur tracking rampant, leur modération perfectible des contenus, leur transparence limitée des publicités politiques, leurs recommandations nocives, leurs biais algorithmiques, leur évasion fiscale » et autres. N’en jetez plus. « À travers le monde, la désinformation et les discours de haine ont été accélérés aussi bien par les actions humaines que les recommandations algorithmiques, de manières qui bénéficient à des groupes aux intentions cachées : déstabiliser et polariser les sociétés ».

Une inaction qui a pris un tour inattendu durant les dernières semaines du mandat de Donald Trump. Suite aux évènements du Capitole, Twitter, Facebook et d’autres ont finalement décidé d’agir contre l’ancien président, récemment remplacé par Joe Biden.

Depuis, les débats sont nombreux sur la place qu’occupent ces plateformes privées touchant des milliards de personnes à travers le monde. D’un côté, les tenants du rappel : ce sont des sociétés privées, qui font appliquer le règlement qu’elles souhaitent. De l’autre, ceux du débat démocratique, qui insistent sur la nécessité de neutralité de ces plateformes.

Apple, Microsoft, Amazon, Alphabet, Facebook, Tencent et Alibaba, par leur prévalence, ont une responsabilité accrue de lutte contre la désinformation. Et attention : « Les problèmes ne sont pas résolus en se contentant de supprimer le contenu », prévient Mozilla. « Retirer simplement le contenu n’améliore pas les systèmes qui déterminent ce qui est amplifié et ce qui est effacé par les algorithmes de la plateforme ». Ce d’autant qu’aucune des grandes plateformes n’est transparente sur le développement de ses algorithmes.

On se souvient notamment comment Mozilla avait copieusement documenté les problèmes relevés sur YouTube, dont 70 % des vidéos regardées viennent des recommandations.

De sérieux problèmes de biais

L’une des plus grandes inquiétudes de Mozilla concerne les biais. Selon la fondation, ils sont omniprésents et ont un impact aussi durable que concret sur la représentation de l’information dans une société qui en est saturée.

Parmi toutes ces distorsions, Mozilla se penche tout particulièrement sur le « biais racial », aux multiples ramifications contre les minorités ethniques et les noirs. Un biais qu’une majorité ne voit pas, car elle n’en soupçonne pas l’existence. Si l’on tape par exemple « robot intelligence artificielle », toutes les représentations ou presque sont blanches. Et dans les cas (nombreux) où le robot a un visage, il est le plus souvent masculin.

Mozilla Health Report 2020

Mozilla pointe qu’il ne s’agit pas d’une volonté propre aux créateurs des algorithmes, mais de biais – donc de distorsions plus ou moins inconscientes – induits par leur propre représentation du monde. Ils influent sur le développement, et une certaine forme de racisme se retrouvée codée au sein de mécanismes chargés de présenter une information. La fameuse dualité amplification/suppression qu’évoquait Mozilla, avec le risque très réel d’invisibilisation des minorités.

Mozilla rappelle également comment les algorithmes ont pu mener à d’autres sérieux problèmes. En 2009, une recherche sur les mots « black girls » dans Google menait essentiellement à des scènes pornographiques mettant en scène des femmes de couleur, comme révélées alors par Safiya Umoja Noble. La situation fut corrigée, mais sans que Google s’engage dans des initiatives plus ouvertes sur le sujet. En juin 2020, les clients de publicités en ligne utilisant les termes « black girls », « latina girls » et « asian girls » se voyaient encore proposer essentiellement des mots-clés à caractère pornographique, selon The Markup.

Pour la fondation, une bonne partie de ces biais sont issus de l’entourage immédiat des personnes, aussi bien celui qu’elles se composent elles-mêmes que celui de leur travail. Ici, les entreprises ont un rôle à jouer. Mais pour Mozilla, la partie est loin d’être gagnée. Elle prend pour exemple la seule présence des femmes en entreprise. La situation s’est légèrement améliorée au cours des quelques dernières années, mais elle est comprise entre 17 et 23 % chez les géants du numérique, une part jugée très insuffisante. Les vidéos de présentation des produits, notamment chez Apple, sont donc trompeuses, les entreprises faisant attention à respecter une stricte parité chez les intervenants.

Pour les mêmes raisons, l’autre grand biais est que de nombreux résultats sont centrés sur les États-Unis. « C’est parce que cela reflète un corpus particulier de contenus web et le contexte des développeurs logiciels, responsables, et dirigeants de compagnies technologiques qui sont rarement diversifiées en matière de race, ethnicité ou genre », pointe Mozilla.

En somme, une conclusion évidente : « Alors que la représentation courante d’un utilisateur "par défaut" est omniprésente, ce concept monolithique d’un utilisateur généralisé est souvent basé sur des spécificités invisibles qui sont considérées à tort comme universelles : blanc, homme cisgenre, Américain ». Considérant le manque de diversité dans les grandes entreprises, la fondation n’est donc pas étonnée que les biais algorithmiques soient si présents.

Et si de simples résultats de recherche sont déjà un sérieux problème, les biais peuvent avoir des conséquences dans la vie de tous les jours, allant de distributeurs de savon ne reconnaissant pas les mains de personnes de couleur, aux systèmes de reconnaissance faciale identifiant mal les femmes de couleur. « Bien sûr que les algorithmes sont racistes. Ils sont créés par des gens », titrait ainsi le journaliste Stephen Bush dans l’un de ses articles.

Mozilla va plus loin et intègre de nombreux exemples. Elle rappelle que 2020 a été marquée par un début de réveil des consciences avec le mouvement BlackLivesMatter, dans le sillage de la mort de George Floyd, un afro-américain tué (asphyxie posturale) par un officier de police blanc en plein jour. Dans les mois qui avaient suivi, IBM avait annoncé l’arrêt définitif des ventes de solutions de reconnaissance faciale. Quelques jours plus tard, Amazon annonçait un moratoire d’un an. Microsoft avait enchainé, indiquant que plus aucune technologie de ce type ne serait vendue aux forces de police tant qu’un cadre législatif fédéral ne serait pas défini.

Mais Mozilla craint que le réveil soit tardif, particulièrement en regard de l’invasion de la surveillance dans le quotidien, aussi bien celle dans les rues que celle achetée par les particuliers, qu’il s’agisse d’équipements de protection ou simplement… de réseaux sociaux.

Le splintering, ou l’éclatement d’Internet

C’est une autre des grandes préoccupations de Mozilla. « La pandémie est devenue un nouveau prétexte pour la censure du journalisme indépendant et une surveillance accrue. Lorsqu’elles ont rencontré une opposition ou un conflit, des autorités un peu partout dans le monde ont fréquemment coupé ou étranglé les connexions internet afin de censurer et réduire au silence ».

Le Cameroun, l’Inde, le Soudan, l’Indonésie et le Zimbabwe sont cités comme exemples dans lesquels la situation a pu s’améliorer. Les ordres de coupure y ont été combattus par des militants des droits numériques, avec succès. Mais souvent, ces coupures sont brèves et localisées, les rendant difficiles à combattre.

Pour Mozilla, le « splinternet » est « déjà une réalité ». Le terme désigne un Internet fragmenté, tiraillé de toutes parts par les intérêts divergents des États et grandes entreprises, ce que Quartz nomme le « techno-nationalisme ».

Dans un nombre croissant de pays, de larges pans d’Internet deviendraient ainsi inaccessibles ou strictement contrôlés. Ce constat, ajouté à la prise de contrôle par certaines entreprises, participe à une fragmentation qui menace les fondements de ce que devait être le réseau des réseaux, à savoir une place pour échanger librement.

« Dans cette nouvelle réalité, conserver la capacité centrale du web à valoriser les voix pour qu’elles atteignent des audiences globales et brisent les barrières d’accès à l’information sera critique pour préserver son ouverture », note la fondation.

Elle pointe en outre la complexité du sujet, quand les mêmes technologies utilisées pour diffuser la parole dans certains pays peuvent aussi servir à cacher des crimes.

Depuis ses promesses initiales, le web a vécu

Pour Mozilla, un ensemble particulier de fonctions techniques et architecturales ouvertes donnaient sa spécificité à Internet : une structure décentralisée, un modèle logiciel en couches, des réseaux de bout en bout, des standards ouverts et de l’open source.

L’accès, l’opportunité et la valorisation étaient des notions clés, d’autant plus présentes que les technologies retenues permettaient une diffusion sans frontière de l’information. La fondation ajoute que cette ouverture ne s’est pas faite sans restrictions, à mesure que des normes sociales puis des lois sont venues encadrer l’ensemble.

« Aujourd’hui, beaucoup de ces systèmes ouverts originaux sont profondément encapsulés et contrôlés par des systèmes informatiques propriétaires. Il y a plus de logiciels open source que jamais et l’open source continue d’ajouter une valeur positive à l’écosystème global. Et pourtant, l’expérience de bien des utilisateurs internet a migré vers des systèmes fermés, plus particulièrement les plateformes sociales populaires d’aujourd’hui », regrette Mozilla.

La fondation pointe en particulier plusieurs problèmes. Tout d’abord les « API ouvertes » qui ont remplacé en partie les standards ouverts. Ces interfaces ne sont que des sous-ensembles limités des standards et participent à la formation des fameux « jardins murés ». Ensuite, l’open source est très largement utilisé par des sociétés comme Amazon, Facebook et Google, mais il participe à la création de produits qui, eux, ne sont pas ouverts. Les données des utilisateurs s’y retrouvent piégées.

Le sens de « communauté » a également changé sous l’influence de ces entreprises. On ne parle ainsi plus d’un groupe autogouverné cherchant à produire une technologie utilisable par tous, mais d’une notion plus proche de « clients utilisant nos produits ». Et dans un tel groupe, la moindre décision d’une entreprise détermine ce qui est possible, sans parler de la surveillance de leurs habitudes pour en revendre les informations à des tiers.

Aucun mécanisme actuel de responsabilité ne semble taillé pour empêcher le modèle commercial « corrosif » de ces entreprises, que Mozilla décrit comme un « capitalisme de surveillance ».

Le bilan de Mozilla est ce qu’il annonce être : une collection de constats faits par la fondation, selon son propre prisme de lecture bien sûr. La fondation ne propose pas forcément une longue liste de solutions, car elles relèvent pour elle de l’évidence. Elle appelle ainsi chacun à se souvenir des idées et missions premières du web et plus globalement d’internet.

Face aux grandes entreprises, le choix des utilisateurs est primordial. Les produits proposés devraient toujours faire l’objet d’un choix éclairé, même si de nombreuses personnes n’ont que peu d’intérêt pour ce domaine. Les récents déboires de WhatsApp et la vague de nouveaux arrivants sur Signal ont montré que certaines situations pouvaient évoluer. Par leurs choix, les utilisateurs façonnent ainsi le marché. « Pour bâtir la vie en ligne que nous voulons, la communauté Internet elle-même doit être la voix de ces valeurs », conclut ainsi la fondation.

Le Project Zero de Google se penche sur la sécurité améliorée de… iMessage dans iOS 14

29 janvier 2021 à 09:12

Dans notre article hier, nous avons vu comment Facebook pestait contre l’arrivée prochaine de l’ATT sur iOS 14, qui forcera les applications à demander l’autorisation pour accéder à l’identifiant unique publicitaire (IDFA).

Mark Zuckerberg, durant la présentation des derniers résultats trimestriels de son entreprise, s’en est notamment pris à iMessage, dont les sauvegardes sur iCloud ne sont pas protégées par le chiffrement de bout en bout.

Et voilà que Google, relativement silencieux sur la thématique de la publicité et même « bon élève » en implémentant la solution d’Apple, décide justement de publier un article sur iMessage. Via son Project Zero, on en apprend davantage sur le sérieux renforcement de la sécurité avec iOS 14.

Selon Google, un pirate cherchera idéalement à obtenir une corruption de mémoire ne requérant aucune interaction de l’utilisateur. Il faut alors au minimum les éléments suivants : une vulnérabilité, une manière de casser l’ASLR à distance, un moyen de transformer la vulnérabilité en exécution distante de code et une méthode pour s’échapper de la sandbox.

L’article explique qu’avec iOS 14, Apple a largement remanié le fonctionnement d’iMessage et a introduit un service pour en renforcer la sécurité, BlastDoor. Il s’agit d’une nouvelle sandbox, beaucoup plus stricte, écrite en Swift (langage memory safe) et responsable de l’analyse des données provenant de sources non sûres, par exemple NSKeyedArchiver.

Google ajoute qu’Apple s’est également débarrassé d’une ancienne faiblesse de son implémentation d’ASLR : le cache partagé, ce qui permettait une attaque spécifique sur cette région. iOS 14 détecte ce type d’attaque et, le cas échéant, lance une nouvelle randomisation du cache.

En outre, le service BlastDoor rend les tentatives de casser d’ASLR par force brute plus complexes. Un mécanisme d’étranglement (throttling) exponentiel a été mis en place, géré par launchd. Si l’attaque provoque un plantage du processus, BlastDoor double à chaque fois le temps d’attente avant qu'une nouvelle tentative puisse être faite, jusqu’à un maximum de 20 min (a priori). L’attaque aurait ainsi besoin d’une demi-journée pour réussir sur ce point, là où il fallait auparavant quelques minutes.

Le papier, très technique, se conclut sur une note évidemment très positive, Google félicitant Apple pour les mesures proactives faites sur iMessage, la société ne s’étant pas contentée de corriger quelques bugs.

Mark Zuckerberg pourrait toujours faire valoir que cela ne résout en rien le problème des sauvegardes non chiffrées de bout en bout sur iCloud. Mais cela ne résout en rien non plus le problème des communications non chiffrées de bout en bout de Messenger.

Ubuntu 21.04 va à nouveau tenter Wayland par défaut

29 janvier 2021 à 09:12

Lors du développement d’Ubuntu 17.10, Canonical avait tenté d’utiliser le nouveau serveur d’affichage par défaut, en remplacement de X.org, qui restait bien sûr comme solution de fallback. Ce fut un échec et la société n’avait plus essayé depuis.

Avec l’arrivée d’Ubuntu 21.04, Canonical veut retenter. Dans une note, la société explique que nombre d’obstacles ont depuis été balayés, notamment avec le partage d’écran.

Ce qui ne signifie pas que la prochaine Ubuntu aura forcément Wayland par défaut. Avec une sortie prévue en avril et une bêta qui devrait arriver deux semaines avant, il reste entre deux et trois mois aux développeurs pour tester la fiabilité d’une session Wayland par défaut.

Rappelons que Fedora a fait de Wayland son serveur d’affichage par défaut depuis la version 25, sortie… en novembre 2016. La distribution a certes essuyé en partie les plâtres, mais elle n’est jamais revenue sur sa décision, chaque nouvelle mouture améliorant significativement ce support.

Une nouvelle étape vers l’assujettissement des ordinateurs à la copie privée

29 janvier 2021 à 09:12

C’est l’Institut CSA qui a été choisi par la Commission Copie privée pour réaliser l’étude d’usages concernant les disques durs internes aux ordinateurs. La société était en concurrence avec GFK. 

Les 12 ayants droit ont voté pour l’Institut CSA, les 6 représentants des industriels pour GFK. Les 6 représentants des consommateurs n’étaient pas présents. Le secteur culturel étant en force, il a pu imposer ses  vues, comme à chaque fois au sein de cette instance où ils sont en force.  

« Le choix final du titulaire du marché revient au ministère en tant que pouvoir adjudicateur », a rappelé Jean Musitelli, président de la Commission Copie privée. Cette désignation va permettre d’enclencher la vitesse supérieure vers l’assujettissement des ordinateurs fixes et portables. 

Il suffira en effet que les études d’usages révèlent que les particuliers ont réalisé des copies d’œuvres sur leur ordinateur pour que les ayants droit puissent butiner des millions d’euros supplémentaires de redevance. 

Combien ? Tout dépendra du barème qui sera adopté au sein de cette instance où ils sont en capacité de déterminer les montants qu’ils vont toucher.  En 2019, ils avaient collecté près de 270 millions d’euros, dont 70 % sur les smartphones.

Apple : l’App Tracking Transparency actif au début du printemps, Mark Zuckerberg en colère

28 janvier 2021 à 16:11

Apple a attendu le Data Privacy Day pour en dire enfin davantage sur les mesures qui entreront bientôt en vigueur pour donner plus de contrôle aux utilisateurs sur la collecte de données personnelles. Un mécanisme simple, sans révolution, mais suffisamment efficace pour que Facebook monte au créneau.

Lors de la WWDC de juin 2020, Apple avait préparé le terrain. On attendait ainsi deux grandes mesures. Dans un premier temps, l’arrivée de renseignements supplémentaires dans les fiches d’applications sur l’App Store, centrées sur les données consommées. Mais pas n’importe lesquelles : celles pouvant faire le lien avec l’identité de la personne, les fameuses données personnelles. Ces informations sont présentes depuis le 1er janvier.

Dans un second temps, une demande faite à l’utilisateur pour accéder à son IDFA (Identifier for Advertisers), pour chaque application. L’IDFA est l’identifiant d'iOS permettant un suivi transversal des habitudes, donc à travers l’ensemble des applications. Il permet la collecte de données personnelles tierces et ainsi la personnalisation renforcée des espaces publicitaires. Le tout est réuni sous l’appellation App Tracking Transparency, ou ATT.

C’est justement l’objet de la communication d’Apple hier soir : annoncer la couleur.

L’autorisation d’accès « au début du printemps », son fonctionnement

Si Apple n’a pas fourni de date précise pour sa mise en place, on sait désormais que la demande d’autorisation sera active au début du printemps. Elle arrivera par le biais d’une mise à jour d’iOS qui doit arriver prochainement en bêta. Il s’agira probablement de la mouture 14.5, la 14.4 étant disponible depuis peu.

Avec l’installation de cette future version, le comportement du système sur l’IDFA sera inversé : on passe d’un opt-out à un opt-in. En conséquence, chaque application lancée pour la première fois après la mise à jour et souhaitant accéder à cet identifiant devra en faire la demande. Si la personne interrogée refuse, l’accès à l’IDFA est bloqué.

C’est un changement important vis-à-vis des données personnelles tierces, dont l’aspiration se fera uniquement avec l’accord de l’utilisateur. Elles sont placées par iOS au même niveau que le micro, les contacts ou l’appareil photo, c’est-à-dire protégées par une notification et un consentement clair, dans l'esprit de lois comme le RGPD.

Apple a d'ailleurs publié un document montrant comment, depuis un cas pratique, deux personnes diffusaient leurs données personnelles sur Internet.

Apple Facebook ATT IDFA

Mais attention : refuser l’accès à l’IDFA ne signifie pas qu’une application ne récoltera plus de données personnelles. On parle bien de données tierces, donc récoltées à travers les autres applications et services.

Pour prendre l’exemple de Messenger, à la fiche descriptive de vie privée copieusement garnie, rien ne l’empêchera d’aspirer les données des utilisateurs au sein de son propre périmètre. Notez également qu’il sera possible de couper complètement l’utilisation de l’IDFA dans les paramètres.

Dans ce cas, plus aucune application ne pourra y accéder et ne génèrera donc de demande.

Le réglage valable pour les applications Apple, un nouveau cadre proposé

Plusieurs points sont à préciser. D’une part, les propres applications d’Apple seront soumises à ce mécanisme, l'entreprise le confirme. Non que ce soit particulièrement utile actuellement, puisque son modèle commercial ne repose pas sur la collecte de données personnelles et la publicité. Nous reviendrons sur ce point.

D'autre part, Apple explique que les éditeurs et régies publicitaires peuvent se passer entièrement de l’IDFA et donc ne pas être soumis à la nouvelle demande d’autorisation ? En passant par SKAdNetwork, un cadriciel (framework) conçu pour remonter tout un ensemble d’informations aux régies, sans en dire trop.

Dans le système actuel, l’IDFA sert à repérer l’ensemble des évènements. Si un utilisateur clique sur une publicité, la régie le sait. Et si le même identifiant lance l’application promue, la régie en est tout aussi informée. Ce qui permet de créer un profil d’habitudes et de savoir s’il y a eu conversion. Avec SKAdNetwork, ces données sont collectées par iOS et l’App Store, puis transformées en statistiques anonymes. La régie a les informations qu’elle voulait – une personne a cliqué sur une publicité puis a lancé l’application – mais elle ne peut plus savoir de qui elles proviennent.

L'un des problèmes pourrait être là : la solution proposée par Apple aux publicitaires pour ne pas avoir à récolter un consentement est une solution Apple. Des alternatives seront-elles possibles ?

Le secteur de la publicité, qui a tout misé sur la collecte massive de données ces dernières années, faisant tout pour préserver ce modèle sans réellement travailler à des alternatives crédibles, se fait ainsi prendre à son propre piège : déjà préoccupé par les géants américains qui captent l'essentiel de la valeur, il a laissé l'opportunité à un autre acteur de le prendre en tenaille sur le terrain du respect de la vie privée qu'il a refusé d'investir sérieusement. 

Et dans la bataille qui s’annonce, Apple a déjà un allié de poids : Google. Dans une note parue hier soir, la société informe les développeurs de l’arrivée prochaine de l’ATT. Elle leur recommande chaudement de passer à la version 7.64 de son SDK Mobile Ads, qui supporte justement SKAdNetwork. À Mountain View, on précise quand même travailler avec le reste de l’industrie pour « fournir à Apple des retours sur la manière d’améliorer encore SKAdNetwork afin que les publicitaires puissent mesurer précisément leurs campagnes sur iOS 14 ».

Cela étant, Google fait une autre annonce : à compter de l’activation de l’ATT, ses propres applications ne se serviront plus de l’IDFA, mais bien de SKAdNetwork. En conséquence, les applications Google n’afficheront aucun avertissement. Cela ne changera rien à la manière dont Google collecte des données au sein de ses propres services. Et l’entreprise de rappeler qu’elle place toujours les utilisateurs et leur vie privée en premier, et que «la transparence, le choix et le contrôle forment le socle de [son] engagement ». Elle en profite pour mentionner sa Privacy Sandbox, mais étrangement pas son veto récent à une importante décision du W3C.

Facebook ne décolère pas

On sait tout le mal que Facebook pense des nouvelles mesures d’Apple depuis des mois. En fin d’année dernière, le réseau social a publié une longue explication sur l’effet néfaste qu’elles vont entrainer, Facebook se positionnant alors en défenseur des particuliers et des petites et moyennes entreprises.

Durant la présentation des derniers résultats trimestriels, Marc Zuckerberg est revenu à la charge, indiquant pour la première fois qu’Apple devenait l’un de ses « plus gros concurrents ». Mais concurrence ou pas, il est clair pour lui qu’Apple abuse ses clients avec des arguments trompeurs, sous couvert de promouvoir la vie privée.

« Apple peut toujours dire qu'elle fait cela pour aider les gens, mais cette mesure est clairement prise dans son propre intérêt », a ainsi déclaré le patron de Facebook. Pourquoi ? Il ne détaille pas, mais l’explication n’est pas un mystère : les données personnelles ne sont pas utiles à Apple, dont le chiffre d’affaires ne dépend pas de la publicité. Contrairement à Facebook, chez qui elle représente environ 96 % des revenus.

Il est d’autant plus facile pour Apple de lancer des mesures qui vont à la fois promouvoir sa vertu et faire des dégâts à ses concurrents. Mark Zuckerberg reprocherait-il finalement à son concurrent de s’être emparé avec cynisme d’une armure de chevalier blanc ?

Décidé à renvoyer Apple dans les cordes, Facebook continue : « Apple a lancé récemment ses « informations nutritionnelles » qui se concentrent en grande partie sur les métadonnées que les applications collectent, plutôt que sur la vie privée et la sécurité des messages des gens, mais iMessage stocke des sauvegardes non chiffrées de bout en bout de vos messages par défaut, à moins que vous ne désactiviez iCloud ».

Hormis l’étrange décorrélation faite entre métadonnées et vie privée, Zuckerberg a raison sur iMessage. La situation est cependant connue depuis longtemps : dès lors qu’iCloud est activé, le service réalise des sauvegardes des données des appareils sur les serveurs d’Apple. Elles ne sont protégées que par un chiffrement simple, donnant à Apple la possibilité d’y prélever des informations en cas d’enquête.

Le sujet avait été copieusement mis en lumière après la tuerie de San Bernardino : le FBI exigeait d’Apple qu’elle débloque les données de l’iPhone, car le terroriste qui l’avait utilisé avait coupé iCloud. Zuckerberg enfonce le clou, ajoutant que le chiffrement de bout en bout de WhatsApp rend ce dernier « clairement supérieur » à iMessage. La messagerie d’Apple semble être curieusement un point de cristallisation pour le patron de Facebook, qui n’évoque pas les échanges sur Messenger, alors que le réseau social est utilisé par 2,8 milliards de personnes dans le monde.

Rappelons quand même que Facebook a récemment averti lui aussi les développeurs et partenaires de la nécessité de se préparer au changement en approche. Ses SDK ont été mis à jour pour prendre en charge SKAdNetwork.

Vivaldi 3.6 permet une gestion des onglets à deux niveaux

28 janvier 2021 à 09:51

Le navigateur est connu pour ses grandes possibilités de personnalisation, et ses fonctionnalités parfois plus poussées que la concurrence. La dernière mouture en date ne déroge pas à la règle.

Elle permet en effet de gérer les onglets sur deux niveaux, un peu comme on imbriquerait des fichiers dans un répertoire. L'affichage peut paraître étonnant, mais devrait permettre à certains de mieux organiser les éléments de leur navigation. 

Une vidéo de présentation et tous les détails sont donnés par ici.

❌
❌