Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Le récap' des bons plans du moment, semaine 8

26 février 2021 à 17:00

Cette semaine, nous avons fait le point sur différentes technologies réseau (routeur, Wi-Fi, box de FAI, etc.), nous avons étudié les nouveautés à venir de Windows et les changements de règles pour le roaming en Europe. La Team Bons Plans continue ses recherches en cette période de soldes (oui, on ne dirait pas...).

Comme toujours, vous pouvez également vous inscrire à nos newsletters. Pensez également à nous notifier de vos trouvailles via ce formulaire dédié en bas de cette page pour en faire profiter le reste de la communauté.

Recevoir nos bons plans par email

Comme d'habitude, voici l'ensemble des offres disponibles, triées par catégorie :

State of Play : Sony présente de nombreux titres en approche pour sa PlayStation 5

26 février 2021 à 08:18

Bien que des jeux soient encore en développement pour la PlayStation 4, c’est bien sûr la dernière console qui avait tous les honneurs.

De nombreuses bandes-annonces de titres en approche ont été montrées, dont la version PS5 du Remake de Final Fantasy VII, baptisée Intergrade. Elle sera gratuite pour ceux ayant déjà acheté la mouture PS4 et contiendra un nouvel épisode – à acheter – qui proposera de sauver Yuffie. Intergrade sortira le 10 juin.

Vous trouverez ci-dessous les autres jeux présentés durant l’évènement, dont beaucoup étaient déjà connus. Le State of Play a été l’occasion de montrer de nouvelles images et, pour certaines, d’apporter une date de sortie.

  • Returnal : 30 avril
  • Oddworld: Soulstorm : 6 avril
  • Crash Bandicoot 4 : 12 mai
  • Knockout City : 21 mai sur PlayStation 4 pour 19,99 dollars, la version PS5 sera améliorée
  • Sifu : pas de date, sortie prévue sur les deux consoles
  • Solar Ash : 2021
  • Five Nights at Freddy's: Security Breach : pas de date
  • Deathloop : sur PS5 et PC, le 21 mai

Toutes les vidéos se trouvent sur la page PlayStation de YouTube.

Cybersécurité : le miroir aux alouettes de l’open source, la confiance dans les composants

24 février 2021 à 15:35

En matière de cybersécurité, l’open source est un bon point de départ, mais pas suffisant pour autant. La traçabilité des composants est aussi importante, comme nous le rappelle l’affaire Supermicro. Quels sont les risques et les solutions envisagées sur ces sujets ? Une demi-douzaine de chercheurs répondent à ces questions.

La semaine dernière, Emmanuel Macron annonçait une stratégie cyber avec un milliard d’euros à la clé. Afin de revenir sur les ambitions de ce plan, le CEA, le CNRS et Inria organisaient une conférence commune pour faire un point de la situation de la recherche en France. 

Durant cette présentation, sur laquelle nous aurons l’occasion de revenir en détail, nous avons interrogé les chercheurs sur un point en particulier de la cybersécurité : les projets open source. Nous avions évidemment en mémoire la faille Heartbleed d’OpenSSL, qui a fait trembler Internet il y a maintenant sept ans. 

Des méthodes formelles à un « cyber centaure »

Pour Ludovic Mé, adjoint au directeur scientifique en charge du domaine de recherche Cybersécurité à Inria, il y a deux aspects à cette problématique. Il commence par voir le côté positif et rappelle qu’il y a « un certain nombre de failles dans SSL qui ont été découvertes grâce aux travaux académiques », notamment ceux « liés au domaine des méthodes formelles ».

Pour résumer il s’agit de « techniques informatiques d'une grande rigueur permettant, à l'aide de langages spécialisés et de règles logiques, de s'assurer (idéalement) de l'absence de tout défaut de programmes informatiques », rappelle l’Universalis.

Le chercheur explique que, dans certains cas, « les failles et les attaques correspondantes étaient tellement compliquées qu’on ne pouvait pas les trouver avec un crayon et un papier pour le dire simplement ». « C’est le monde académique qui a découvert les failles et c’est le monde académique qui a produit en association avec Microsoft, pour être très précis, une nouvelle version de SSL exempte de ces failles », affirme-t-il.

Cette technique d’« épauler l’expert – l’être humain – avec des capacités automatisées, y compris à base de machine learning », est prometteuse pour Florent Kirchner, responsable du programme Cybersécurité du CEA List. Pour détailler son propos, il reprend la notion de Centaure (une créature mi-homme, mi-cheval de la mythologie) notamment utilisée par le Grand Maitre des échecs Garry Kasparov, pour qui une association « entre l’homme et la machine, qui en fait joue mieux que l’homme tout seul ou la machine toute seule ».

Pour Florent Kirchner, cette collaboration serait particulièrement efficace dans le cas de l’analyse d’un système : « Un cyber centaure c’est quelque chose que demain on va continuer d‘explorer […] et montrer que cette complémentarité libère du temps aux experts, apporte une valeur ajoutée significative pour leur permettre de se concentrer sur les problèmes intéressants et importants », affirme-t-il.

Le responsable du programme Cybersécurité du CEA List voit ce cyber centaure comme l’« organisation ultime en matière de cybersécurité ». Pour Ludovic Mé, c’est la preuve que « les travaux académiques peuvent avoir un impact extrêmement réel ».

Le risque zéro n’existe pas

A contrario, une seconde lecture de cette douloureuse affaire Heartbleed peut être faite : « Est-ce que ça change aujourd’hui ? Si on disait les choses un peu rapidement on dirait : "non, ça n’a pas changé aujourd’hui" ». Pour le chercheur, le fond du problème est « qu’on ne peut jamais assurer qu’il n’y a pas une faille résiduelle dans [un] système ; qu’il soit ouvert ou fermé ne change rien ».

Cette remarque est valable pour tous les systèmes, mais le risque se multiplie lorsqu’un même logiciel est largement utilisé, ce qui était le cas d’OpenSSL. Ludovic Mé précise néanmoins que, comme de nombreux autres chercheurs du milieu académique, il pense que « si c’est ouvert c’est mieux, mais ce n’est pas une garantie complète non plus ».

Il s’explique :

« Le système est tellement compliqué, il y a tellement de dizaines de milliers de lignes de code que personne n’est capable d’assurer qu’effectivement tout a été revu. Et même si tout a été revu, toutes les failles n’ont pas été découvertes. Il est impossible d'éliminer le problème, c’est pour ça que la réponse un peu rapide serait de dire "non, ce n’est pas mieux aujourd’hui" ».

Point positif : il y a une « espèce de sensibilité globale à ce problème-là qui a augmenté, en particulier car il y a eu des cas comme ceux que vous mentionnez avec Heartbleed ». D’autres failles ont depuis fait trembler Internet et tomber certains protocoles de sécurité, renforçant la prise de conscience collective (souvent tardive). Mais il reste encore tellement de mauvaises pratiques, de « bugs », de défauts de conception… On est toujours surpris de les voir faire surface lorsqu’ils entrainent des fuites de données personnelles.

 « Open source » ne sont pas deux mots magiques en cybersécurité

Gildas Avoine, directeur du GDR CNRS Sécurité informatique et professeur de l’INSA Rennes à l’Institut de recherche en informatique et systèmes aléatoires, apporte son grain de sel sur la question de l’open source : « Ce qui est clair aujourd’hui [et] prôné par la communauté académique, c’est que les algorithmes et le code soient ouverts. On ne doit plus faire de sécurité par obscurité ».

Pour appuyer ses dires, le directeur de recherche cite le principe du linguiste Auguste Kerckhoffs Van Nieuwenhof, consigné dans son traité de La cryptographie militaire de 1883 : « La sécurité d’un système de cryptement ne doit pas dépendre de la préservation du secret de l’algorithme. La sécurité ne repose que sur le secret de la clé », comme l’indique l’ANSSI dans guide des bonnes pratiques de la cryptologie.

ANSSI Crypto
Crédits : ANSSI

Appliqué au monde moderne, ce principe « pourrait se traduire par l’open source », lâche Gildas Avoine. Son corolaire est tout aussi important : « la sécurité ne doit pas reposer sur le fait que le code n’est pas open source ».

« Bien souvent », personne n’a audité le code

Mais attention, si « open source » veut dire que tout le monde peut (en théorie) accéder au code source, cela ne signifie pas pour autant que des chercheurs passent des heures, semaines, mois ou années à le vérifier sous toutes les coutures… c’est même très loin d’être le cas : « Au final, il y a très peu de gens qui ont la compétence pour l’auditer, et bien souvent il n’y a personne qui l’a fait ». C’est malheureusement une triste réalité. 

Gildas Avoine en ajoute une couche : « Le code est dynamique, il évolue […] il y a différentes versions. Même s’il a été audité à un instant T, on s’aperçoit qu’il peut y avoir des failles qui arrivent un peu plus tard. C’était le cas de Heartbleed, une faille introduite avec le développement d’une nouvelle version ». Cette brèche était en plus passée sous les radars pendant plusieurs années. 

Pire encore selon Ludovic Mé : « quand une nouvelle version corrige, une faille est produite, il se passe parfois des mois, des années – des années – avant qu’elles soient déployées concrètement sur 99 % des systèmes. La faille résiduelle, même corrigée, est présente souvent pour de nombreuses années ». Dans le cas de Heartbleed par exemple, près de 200 000 serveurs étaient toujours vulnérables trois ans après la mise en ligne des correctifs. C’est un problème beaucoup plus large, que l’on retrouve par exemple dans les objets connectés embarquant d'anciens noyaux Linux, les ordinateurs, etc.

Pour résumer, « il faut être vigilant avec le code open source », explique Ludovic Mé. Même si l’open source est largement soutenue par le monde académique et que certaines sociétés sautent le pas notamment pour essayer de montrer qu’elles n’ont rien à cacher, « on n’a aucune garantie de sécurité parce que le code est open source ».

Supermicro : la crédibilité des déclarations de Bloomberg

Durant la conférence, le sujet des micropuces chinoises espionnes sur des cartes mères Supermicro est revenu sur le devant de la scène. Jacques Fournier, chef du laboratoire de sécurisation des objets et systèmes physiques du CEA Leti, était le premier à répondre : « Je n’ai pas d’information, je ne peux pas confirmer quoi que ce soit sur les révélations de Bloomberg ».

Il ajoutait néanmoins que c’est « effectivement une problématique qui est aujourd’hui existante […] On a des chaines d’approvisionnement de plus en plus complexes, qu’on n’arrive plus à tracer. Sur certains objets connectés et déploiements de systèmes critiques, ça peut poser problème ». Avec d’autres chercheurs et des partenaires privés, Fournier travaille sur des « processus qui permettent de réduire et mitiger les risques de supply chain ».

Florent Kirchner, responsable du programme Cybersécurité du CEA List, est plus sceptique : « jusqu’ici, il n’y a rien qui est venu prouver ces révélations là. On n’a pas trouvé ces puces chinoises. On aurait pu imaginer qu’en deux ans, on s’était laissé assez de temps pour regarder tout ça ».

Comme nous l’avions expliqué, des sociétés avec d’énormes moyens et de forts enjeux sur le sujet de la confidentialité (Amazon, Apple, OVH) se sont penchées sur ce sujet sans rien trouver jusqu’à présent. « Je prendrais ces révélations de Bloomberg avec une dose un peu sérieuse de sel en termes de crédibilité », ajoute Florent Kirchner. 

Des choses qu’on a « du mal à expliquer » dans les processeurs

Cela ne doit par contre pas cacher le fond du problème, comme nous l’avions déjà expliqué : « On a des composants qui viennent de partout dans le monde, et qui sont intégrés un peu partout dans le monde, qu’on reçoit ensuite et dans lesquels se pose fondamentalement la question de "est-ce que je peux avoir confiance ?" » ; une question valable aussi bien pour la partie logicielle que matérielle.

On touche ici à la question de la souveraineté numérique : « qu’est-ce qu’on veut maitriser, en quoi on a confiance, comment on fait pour établir la confiance ? », se demande Ludovic Mé.

Ce dernier ajoute : « je ne sais pas quel est le statut juridique de ça, mais reverser [au sens rétro-ingénierie, ndlr] les processeurs de nos amis ou moins amis américains ou d’ailleurs, pour voir ce qu’il y a dedans. Ceux qui le font savent et voient qu’il y a parfois des choses qu’ils ont du mal à expliquer dans ces processeurs. C’est avéré pour le coup ».

Déploiement de la 5G : près de 10 000 sites « ouverts commercialement », SFR à la traine

23 février 2021 à 10:42

L’Arcep vient de mettre en ligne son nouvel observatoire du déploiement de la 5G. Il ne réserve pas de grosses surprises puisque les stratégies de chacun restent inchangées. En tout, près de 10 000 sites sont d’ores et déjà accessibles aux clients, dont plus de la moitié sur les 700 MHz chez Free Mobile.

Lancée officiellement depuis plusieurs semaines en France, la 5G est en train de se déployer sur le territoire, avec de grosses différences dans les stratégies des opérateurs, chacune avec ses avantages et inconvénients. Afin d'en suivre l’évolution, l’Arcep et l’ANFR agissent de concert, publiant chacune son propre observatoire.

L’Agence nationale des fréquences (ANFR) détaille ainsi chaque mois le bilan des autorisations qu’elle délivre, ce qui n’indique en rien qu’une antenne est en place ou qu’elle est activée. Elle précise également le nombre de sites « techniquement opérationnels », émettant des ondes radio sans forcément être commercialement ouverts.

Cette dernière information se trouve du côté de l'autorité de régulation des télécoms, qui vient d’ailleurs de mettre à jour son observatoire avec les données datant du 31 janvier 2021. En un mois, les opérateurs ont déployé plus de 1 300 sites 5G dans leur ensemble, s’approchant ainsi de la barrière des 10 000 actifs.

Le grand écart : 869 sites 5G pour SFR, 6 273 pour Free Mobile

Voici le bilan tel que donné par l'Arcep : 

  • Bouygues Telecom : 1885 sites en 5G, dont 14,6 % en 3,5 GHz
  • Free Mobile : 6 273 sites 5G, dont 6,5 % en 3,5 GHz
  • Orange : 953 sites en 5G, dont 74,6 % en 3,5 GHz
  • SFR : 869 sites en 5G, dont 22,8 % en 3,5 GHz

De notre côté, nous avons compilé les chiffres en fonction des fréquences, avec à chaque fois les évolutions par rapport au précédent relevé. L'Autorité rappelle au passage un point important : « Un même site peut être équipé de plusieurs bandes de fréquences pour fournir le service 5G. Ainsi, le nombre de sites total peut être inférieur à la somme des sites répartis selon les bandes de fréquences ».

Dans ses calculs et dans son communiqué de presse, elle mélange sur une même ligne les fréquences de 700-800 MHz et sur une autre celles de 1800-2100 MHz. Ce n’est pas notre cas dans le tableau ci-dessous, car dans les faits la situation est (pour le moment) bien plus simple comme le montrent les données brutes, disponibles par ici.

En les analysant, on constate que hors de la bande des 3,5 GHz, Free n’utilise que celle des 700 MHz, ce qui n’est pas surprenant puisqu’il ne dispose pas de fréquences dans celle de 800 MHz (il n’a rien remporté aux enchères). De leur côté, Bouygues Telecom, Orange et SFR ne réutilisent pour le moment que la bande des 2,1 GHz.

Cela donne le résultat suivant :

Arcep déploiement 5G février 2021

Ainsi, aucun site n'est ouvert commercialement dans les 800 MHz et 1,8 GHz, tous les opérateurs confondus. On peut donc résumer la situation ansi que le pourcentage de sites ouverts comme suit : 

  • 1 594 sites 5G dans les 3,5 GHz : Orange à 44,6 %, Free à 25,7 %, Bouygues à 17,3 % et SFR à 12,4 %
  • 2 771 sites 5G dans les 2,1 GHz : Bouygues à 65,6 %, SFR à 24,9 % et Orange à 9,5 %
  • 6 273 sites 5G dans les 700 MHz : Free Mobile à 100 %

SFR tourne au ralenti

Après avoir été le premier opérateur à lancer son réseau commercial (pour 50 % de la population niçoise seulement), SFR est cette fois dernier du classement en nombre de sites ouverts pour ses clients.

L’opérateur ne revendique que 869 sites, soit une hausse de 77 sites seulement en un mois (+8,9 %). Sur les deux dernières semaines de décembre, la progression de la marque au carré rouge était pourtant de pas moins de 500 sites. SFR est également bon dernier sur un autre point : il n’a « que » 198 sites sur la bande des 3,5 GHz.

Cette dernière est considérée comme étant au « cœur » de la 5G car elle est plus élevée et les blocs de fréquences y sont plus larges que dans les autres bandes, ils peuvent donc y proposer des débits bien supérieurs.

Orange toujours à fond sur les 3,5 GHz, Free Mobile sur les 700 MHz

Orange est légèrement devant avec 953 sites ouverts commercialement pour la 5G, mais il existe une différente fondamentale : l'opérateur se concentre massivement sur les 3,5 GHz représentant près de 75 % de ses sites (soit 711). Il est d’ailleurs largement en tête puisqu'il en compte près de deux fois plus que le second, Free Mobile.

La stratégie de Bouygues Telecom semble proche de celle de SFR puisqu'il est troisième en nombre de sites sur les 3,5 GHz : seulement 275. C'est tout de même près du double de décembre dernier. L’opérateur peut néanmoins revendiquer la seconde marche du podium concernant le nombre de sites 5G ouverts commercialement… principalement grâce à la réutilisation du 2,1 GHz, sur pas moins de 1 819 sites. 

Reste le cas de Free Mobile, second sur le 3,5 GHz donc, mais qui domine largement les débats sur le nombre de sites 5G : 6 273. Mais aussi de la couverture, car c’est le seul opérateur à miser sur le 700 MHz pour proposer de la 5G. Il revendique ainsi plus de 40 % de la population –, mais avec des débits bien moindres… le problème étant que l’opérateur ne les précise pas. Il ne fait d’ailleurs aucune mention d’une différence de débit sur sa carte.

Perseverance : des photos de Mars, de la descente, du rover… et une fausse vidéo

22 février 2021 à 13:34

Depuis sa nouvelle et dernière demeure, le rover Perseverance envoie ses premières photos et informations. Des images de la descente ont également été prises par Mars Reconnaissance Orbiter et le jetpack chargé de poser le rover. Une fausse vidéo rapidement devenue virale est arrivée dans la foulée.

C’est fait : un nouveau rover s’est posé sur Mars. Il va pouvoir commencer à parcourir la planète rouge à la recherche de traces de vies passées. Nous avons déjà longuement détaillé les tenants et aboutissants de cette mission, et notamment de l’un de ses principaux instruments (développé en France) : SuperCam.

Notre dossier sur l'exploration de Mars et la recherche de la vie avec Mars 2020 :

Des rovers sur Mars depuis plus de 20 ans

Le premier rover sur la quatrième planète de notre Système solaire remonte pour rappel à 1997, avec la mission Pathfinder et son petit rover Sojourner. Les choses se sont ensuite accélérées dans les années 2000.

Tout d’abord avec les jumeaux Spirit et Opportunity de la mission Mars Exploration Rover, puis Curiosity en 2012 avec la mission Mars Science Laboratory. On est maintenant avec Perseverance de Mars 2020, qui se trouve dans le cratère de Jezero. Pour approfondir l’histoire des rovers martiens, le CNES proposait il y a quelques mois une émission baptisée De Sojourner à MMX, la lignée des rovers.

Perseverance réussit son atterrissage, en plein dans la zone prévue 

L’Agence spatiale américaine avait minutieusement préparé le terrain avant le lancement. Elle avait délimité une zone de 45 km de diamètre où le rover devait se poser afin d’avoir le plus de chance de mener à bien sa mission. Bonne nouvelle, il s’est parfaitement positionné, comme on peut le voir sur cette carte interactive de la NASA. Elle sera mise à jour en fonction des déplacements du rover sur le sol martien.

Cratère JezeroMars Rover
Le rover Perseverance à gauche, une vue globale avec les autres rovers et modules à droite

Pour rappel, la marge de manœuvre est extrêmement réduite lors de la rentrée dans l’atmosphère : « un degré de plus et l’engin qui arrive à plus de 20 000 km/h se détruit. Un degré de moins et il rebondit sur l’atmosphère et se perd dans l’espace », comme le rappelait le CNES.

La NASA propose sur cette page de revivre en images de synthèse la procédure d’atterrissage du rover, avec la possibilité de changer de point de vue, d’accélérer ou ralentir le déroulement des opérations, etc. En réalité, cette manœuvre est entièrement automatisée.

Des photos de Perseverance depuis le jetpack et la sonde MRO

En plus d’avoir des instruments de nouvelle génération, la plateforme volante – ou jetpack – qui a ralenti la chute de Perseverance était elle aussi équipée d’une caméra haute définition pour suivre la descente. Une première image du rover juste avant que ces roues ne touchent le sol a été mise en ligne, sur son compte Twitter officiel.

Une vidéo (elle aussi en HD) sera publiée prochainement indique l’Agence spatiale américaine. Pour Curiosity, un stop motion avait été mis en ligne, mais la qualité était loin d’être la même.

The moment that my team dreamed of for years, now a reality. Dare mighty things. #CountdownToMars pic.twitter.com/8SgV53S9KG

— NASA's Perseverance Mars Rover (@NASAPersevere) February 19, 2021

Ce n’est pas la seule image actuellement disponible de la descente. La caméra HiRISE de la sonde Mars Reconnaissance Orbiter (MRO) a capturé le rover et son parachute lors de cette délicate phase. Il ne s’agit pas d’une image en très haute résolution, mais ce cliché n’en reste pas moins « exceptionnel », même si ce n’est pas une première pour l’instrument HiRISE. Il avait déjà capturé la descente de Curiosity.

Quoi qu’il en soit, à peine le rover Perseverance est posé sur Mars que les premières photos in situ arrivent sur Terre (en noir et blanc pour commencer). Elles sont disponibles sur cette page, et se comptent déjà par dizaines au format RAW. D’autres images sont également accessibles par ici, dont certaines en couleurs… et ce n’est que le début, d’autant que SuperCam n’est pas encore en marche. « Contrairement aux anciens rovers, la majorité des caméras de Perseverance capturent des images en couleur », ajoute la NASA.

Une conférence de presse est prévue ce soir à 20h, avec de nouvelles images et vidéos de la planète rouge, indique l’Agence spatiale américaine. Il sera possible de la suivre par ici.

Perseverance
Crédits : NASA JPL

Ingenuity se prépare à prendre son envol

De son côté, le petit hélicoptère Ingenuity est en train de faire le plein d’énergie avant de voler de ses propres hélices. Si des bonnes nouvelles sont envoyées par le rover, l’émancipation n’est pas pour tout de suite : « La liaison descendante […] à travers une connexion via Mars Reconnaissance Orbiter indique que l'hélicoptère, qui restera attaché au rover pendant 30 à 60 jours, et sa station de base (une boîte électrique sur le rover qui stocke et envoie les communications entre le giravion et la Terre) fonctionnent comme prévu », affirme le JPL de la NASA.

Le chargement des six batteries au lithium-ion du drone se fait en douceur, le temps de vérifier que tout se passe comme prévu. Plus tard, lorsqu’il sera autonome, il devra les recharger tout seul, avec son panneau solaire. « Une fois que Perseverance aura déployé Ingenuity à la surface, l'hélicoptère disposera d'une fenêtre d'essai en vol de 30 jours martiens (31 jours terrestres) », rappelle le PJL.

Il faudra pour cela que le petit drone de 2 kg survive aux nuits martiennes, durant lesquelles les températures peuvent descendre jusqu’à -90°C. Si le décollage et le premier vol d’Ingenuity sont un succès, 90 % de la mission sera remplie. Ensuite, « si le giravion atterrit avec succès et reste opérationnel, jusqu'à quatre autres vols pourraient être tentés ». Si cette expérimentation est un succès, elle pourrait être reconduite sur d’autres missions.

La fausse vidéo de Mars avec du son 

Ce week-end, une vidéo a largement circulé sur les réseaux sociaux (voir ici ou encore là), rapidement relayés par certains sans plus de précautions. Elle présentait bien un paysage martien avec en prime une piste audio laissant croire que c’était en provenance de Perseverance qui venait juste d’arriver sur Mars.

La présence de micros est en effet une des nouveautés de Perseverance qui fait parler d’elle et pour lesquelles les attentes scientifiques sont importantes. Une lecture même rapide de la vidéo permettait pourtant d’éviter de tomber dans le panneau, sans avoir besoin de pouvoir identifier le rover au premier coup d’œil.

Le premier indice était flagrant et se trouvait à la fin de la vidéo : on pouvait voir Curiosity écrit sur le rover. Autre indice important : les traces laissées par les roues dans le sol, alors que Perseverance n’a pas encore bougé d’un iota. Bref, « la mariée était trop belle », mais son histoire s’est répandue comme une trainée de poudre.

Cette affaire – sans gravité  dans le cas présent – est l’occasion de rappeler qu’il faut faire preuve de prudence avec ce genre de vidéos sensationnelles, d’autant plus dans le domaine des sciences. Si dans le cas présent les ficelles étaient très grosses, ce n’est pas toujours le cas. 

Internet par satellite : feu vert de l’Arcep pour Starlink de SpaceX

19 février 2021 à 15:28

SpaceX dispose désormais de quatre autorisations de l’Arcep, lui permettant de déployer son offre en France. Elles concernent l’exploitation des fréquences sur trois stations de base au sol ainsi que pour les « terminaux utilisateurs (type paraboles) », qui permettent aux clients d’accéder à Internet.

Cela fait maintenant des mois que SpaceX envoie des satellites par paquets de plusieurs dizaines sur des orbites basses pour construire son réseau mondial Starlink. La constellation grossit rapidement puisqu’il y en a désormais plus de 1 000 en orbite, selon SpaceNews.

Le but de Starlink est de proposer un accès à Internet partout dans le monde, avec une latence raisonnable, surtout comparée à celle des autres offres par satellites (géostationnaires). Pendant la bêta, « les utilisateurs peuvent s'attendre à voir des vitesses variant entre 50 et 150 Mb/s et une latence de 20 à 40 ms ».

Avec des offres traditionnelles, la latence est de plusieurs centaines de millisecondes au minimum, à cause de la distance à parcourir (36 000 km entre le satellite et la Terre). Le lancement de nouveaux satellites permet certes d’augmenter les capacités et donc les débits des clients, mais ne change rien à la latence tant qu’ils sont géostationnaires.

Des stations au sol dans le Nord, la Gironde et la Manche

La bêta a débuté l’année dernière pour certains clients triés sur le volet, avec l’interdiction de parler des performances… même si des fuites sont rapidement arrivées. La procédure s’est accélérée sur la fin de l’année pour des clients sur liste d’attente. On apprenait au passage que l’abonnement est à 99 dollars par mois, et qu’il faut acheter un kit de réception (parabole) à 499 dollars.

Les précommandes ont officiellement ouvert il y a quelques jours, avec un lancement prévu pour la seconde moitié de l’année en France. « La disponibilité est limitée. Les commandes seront traitées sur la base du premier arrivé, premier servi », précise la société.

Deployment of 60 Starlink satellites confirmed pic.twitter.com/apZ7oTOvNk

— SpaceX (@SpaceX) February 16, 2021

Au cours de l’année dernière, l’Arcep a délivré trois « autorisations d’exploitation de fréquences liées aux stations passerelles (Gateway), essentielles au fonctionnement du réseau (ces fréquences sont utilisées pour permettre au satellite de se connecter au réseau terrestre) ». Pour rappel, Internet par satellite a un fonctionnement particulier : le client envoi une demande au satellite, qui la transmet à une station de base au sol, qui renvoie le résultat au satellite, qui la transmet à l’utilisateur.

La première autorisation remonte à début juillet, au nom de la société Tibro (orbit à l’envers) et porte sur « la station terrienne Gravelines Starlink ». La seconde est arrivée quelques semaines plus tard, en aout. Elle concerne de nouveau la société Tibro (qui sert visiblement à cacher le nom de SpaceX), mais pour une station au sol à Villenave-d’Ornon, en Gironde cette fois.

La troisième date de début décembre, mais est un peu différente : SpaceX ne se cache plus derrière Tibro ; l’autorisation est à son nom propre. Elle concerne la ville de Saint-Senier-sur-Beuvron (non loin du Mont-Saint-Michel) dans la Manche. Cette autorisation avait soulevé quelques inquiétudes chez certains habitants.

Dans les trois cas, les autorisations de l’Arcep permettent à SpaceX d’exploiter des fréquences radioélectriques « dans les bandes 18 GHz et 28 GHz ». La première sert à la liaison descendante (espace vers Terre), la seconde pour les liaisons montantes (Terre vers espace). Il est indiqué que les autorisations sont valables pour « une durée de dix ans », et qu’elles sont renouvelables sous certaines conditions.

Bref, les satellites se mettent en place dans le ciel et les stations au sol ont leurs autorisations dans trois points stratégiques en France (et dans d’autres pays dans le monde), mais cela n’est toujours pas suffisant pour lancer un réseau commercial : il faut encore que les clients puissent se connecter aux satellites.

Paraboles pour Starlink : SpaceX obtient le feu vert de l’Arcep

C’est l’objet de la dernière autorisation qui vient d’être rendue publique par le régulateur des télécoms.

Elle est valable « sur l’ensemble du territoire sur lequel l’Arcep est affectataire » et permet à SpaceX l’« exploitation de fréquences liées aux terminaux utilisateurs (type paraboles), nécessaire pour fournir un service d’accès à Internet par satellite aux utilisateurs finaux ».

D’un point de vue technique, cela correspond aux bandes de 10,95 à 12,70 GHz pour le sens espace vers Terre et de 14 à 14,5 GHz dans le sens inverse. 

Cette autorisation s’inscrit dans le cadre de la décision ECC/DEC/(17)04 de la Conférence européenne des administrations des postes et télécommunications (CEPT). Elle précise « un certain nombre de critères relatifs à l’utilisation de fréquences radioélectriques de ces bandes afin d’effectuer des communications entre des systèmes à satellites non-géostationnaires et des stations terriennes fixes ».

SpaceX devra « interrompre immédiatement » en cas de brouillage

Le but est de « prévenir des brouillages qui pourraient être causés par les terminaux utilisateurs », une étape importante puisque les clients ne sont soumis à aucune déclaration individuelle pour l’installation des paraboles. Cette autorisation ne donne par contre aucune « garantie de non-brouillage » et oblige à une « non-interférence vis-à-vis d’autres systèmes et services utilisant ces bandes de fréquences ou présents en bandes adjacentes ».

Dans l’article 4 il est précisé que « la société Starlink Internet Services Limited devra interrompre immédiatement toute activité liée à l’utilisation de ces fréquences si des brouillages étaient constatés ». Cette autorisation est également valable dix ans.

Enfin, l’Arcep rappelle qu’il ne s’agit là que des autorisations nécessaires à l’exploitation des fréquences. Cela « ne dispense pas de la délivrance d’autres autorisations requises pour l’implantation de stations radioélectriques (déclarations auprès de l’Agence nationale des fréquences, autorisations d’urbanisme) ».

Android 12 disponible en Developer Preview : la liste des nouveautés, le détail du calendrier

19 février 2021 à 08:50

Google vient de mettre en ligne la première version d’Android 12 pour les développeurs. Comme précédemment, elle met l’accent sur la sécurité et la confidentialité des données. Des changements sont aussi annoncés sur le multimédia et les notifications. La société précise aussi son calendrier pour les bêtas et versions finales.

Il y a un an quasiment jour pour jour, Google publiait la première Developper Preview d’Android 11. D’autres ont suivi, puis des bêtas sont arrivées avant la version finale début septembre. Le calendrier avait été quelque peu chamboulé par la crise sanitaire, même si les délais avaient dans l'ensemble été tenus.

Google s’était réjoui de l’adoption d’Android 11 par ses partenaires, qui serait plus rapide qu’avec Android 9 et 10 (au moins sur les deux premiers mois de l’année). Rappelons que la fragmentation d’Android est un réel problème, et pas seulement pour profiter des nouvelles fonctionnalités : certains smartphones ne peuvent même plus avoir de mises à jour de sécurité.

Comme c’est le cas depuis plusieurs versions déjà, Android 12 promet d’améliorer (un peu) les choses sur ce point. Voici un tour d’horizon des nouveautés que l’on peut attendre de cette nouvelle version.

Comme son nom l’indique, cette Developper Preview s’adresse principalement aux développeurs afin de tester leurs applications. Les utilisateurs finaux peuvent évidemment l’installer, mais à leurs risques et périls : Android 12 ne doit pas être considéré comme stable et de nombreux bugs peuvent survenir à tout moment.

Des applications toujours plus contrôlées

Un des premiers changements mis en avant concerne la sécurité et la confidentialité : Android 12 va donner « aux utilisateurs plus de transparence et de contrôle tout en protégeant leurs appareils et leurs données ». Le système d’exploitation propose ainsi « de nouveaux contrôles sur les identifiants pouvant être utilisés pour le suivi, des valeurs par défaut plus sûres pour les applications, etc ».

Ce genre de sujet est le cheval de bataille d’Apple depuis très longtemps, mais Google le prend (enfin) au sérieux depuis quelque temps. Le père d’Android ne donne aucune précision supplémentaire pour le moment sur les « identifiants pouvant être utilisés pour le suivi », alors que son concurrent est passé à l’offensive, avec des levées de boucliers chez les publicitaires.

La nouvelle WebView d’Android 12 récupère une fonctionnalité sur la gestion des cookies présente dans Chrome depuis quelque temps déjà : SameSite. Selon Google, cela permet de renforcer la « sécurité et la confidentialité, et de donner aux utilisateurs plus de transparence et de contrôle sur la façon dont les cookies peuvent être utilisés sur les sites ».

Comme à chaque nouvelle version d’Android, Google promet que ce n’est que le début : « plus de fonctionnalités de confidentialité et de sécurité » seront proposées avec les prochaines préversions. Quoi qu’il en soit, les développeurs doivent maintenant tester au plus vite leurs applications avec ces nouveaux mécanismes pour en vérifier la compatibilité. 

La société de Mountain View précise enfin que les modifications liées aux applications sont pour le moment en opt-in pour laisser le temps aux développeurs de se préparer. De la documentation technique est disponible par ici.

Android 12

Multimédia : transcodeur HEVC, AVIF, ImageDecoder

Sur le multimédia, Google présente son « Compatible media transcoding », un transcodeur qui permet de transformer automatiquement une vidéo HEVC (H.265) dans le format AVC (H.264/MPEG-4) pour les applications qui en auraient besoin. L’opération n’est pas immédiate : il faut environ 9 secondes à un Pixel 4 pour une vidéo d’une minute en 1080p à 30 ips. Autant dire que cela pourra rapidement devenir fastidieux sur de longues vidéos, mais cela peut avoir un intérêt pour de petites scènes filmées avec son smartphone.

Pour les photos, Android 12 prend en charge AV1 Image File Format (AVIF), un système basé sur le codec AV1,  pensé pour les vidéos. Pour rappel, ce dernier est pris en charge par Android depuis la version 10. Une comparaison entre AVIF, WebP et JPEG avec différentes tailles de fichiers (mais forcément à l’avantage d’AVIF) est disponible par ici.

Android 12

Dans Android 11, le NDK ImageDecoder ne récupérait que la première image d’un GIF ou d’un WebP, alors qu’il récupère désormais l’ensemble des images et des informations contenues dans les fichiers. Pour un « son spatial », le MPEG-H serait désormais supporté avec jusqu’à 24 canaux, contre 8 auparavant, selon plusieurs confrères américains (le billet de blog n’en fait pas mention).

Afin d’agrémenter ses messages avec des contenus multimédias, Android 12 propose « une nouvelle API unifiée [OnReceiveContentListener] qui accepte du contenu de n'importe quelle source : presse-papiers, clavier ou glisser-déposer ». Ce peut être du texte (avec mise en forme), des images, des vidéos, du contenu audio… 

Le retour haptique se synchronise avec l’audio

Cette fonctionnalité permet au système d’interagir avec l'utilisateur pour indiquer qu’une commande a bien été validée. Par exemple, vous pouvez l’activer sur les claviers virtuels pour avoir un retour (sous la forme d’une petite vibration) lorsque vous cliquez sur une touche.

Désormais, « la force et la fréquence des vibrations sont dérivées d'une piste audio, ce qui vous permet de créer des expériences de jeu et audio plus immersives ». Deux exemples sont mis en avant : un flot de vibrations différent suivant la personne qui vous appelle (si elle a une sonnerie personnalisée bien évidemment) et « simuler » un terrain accidenté dans un jeu de courses de voitures. Des capacités que l'on trouve sur les iPhone depuis plusieurs années.

Performances et notifications

Afin d’améliorer les performances du terminal et éviter d’avoir un système surchargé, la nouvelle version d’Android empêchera des applications en arrière-plan de lancer des services au premier plan, « sauf dans quelques cas particuliers ». De plus amples informations pour les développeurs se trouvent par là.

Comme avec chaque version ou presque, les notifications sont revues afin de « les rendre plus modernes, plus faciles à utiliser et plus fonctionnelles ». Les applications avaient jusqu’à présent une grande marge de manœuvre pour les personnaliser (mises en page, style…), mais Google reconnait que cela pouvait « embrouiller » les utilisateurs ou causer des problèmes de rendu. Android 12 réduit la voilure et « applique un modèle standard » pour la mise en page des notifications. La trame est disponible ici

Anroid 12

Mises à jour : ART (et le transcodage) dans Mainline

Initié avec Android 10, le projet Mainline permet de passer certaines mises à jour par le Google Play pour ne plus dépendre du bon vouloir des constructeurs.

Avec cette nouvelle version du système d’exploitation, cette méthode est encore renforcée : « Dans Android 12, nous avons ajouté le module Android Runtime (ART) qui nous permet d’envoyer des mises à jour au système et aux bibliothèques sur les terminaux mobiles ».

La fonction de transcodage vidéo (HEVC->AVC) se servira par exemple de cette méthode.

Tablettes, smartphones pliables et Android TV

Les tablettes et les smartphones pliables ne sont pas oubliés : les travaux commencés avec les précédentes versions du système d’exploitation continuent afin d’adapter au mieux le système et l’interface (voir ici et ).

Même chose pour les télévisions : Android 12 pour Android TV est également disponible en preview, dès maintenant pour le kit ADT-3. Pour rappel, cette déclinaison était arrivée avec plusieurs mois de retard pour Android 11.

Des bêtas en mai, les versions stabilisées à partir d’aout

Comme à chaque fois, cette Developper Preview n’est disponible que pour les Pixel 3 à 5 de Google pour le moment. Il est possible de passer par l’émulateur présent dans Android Studio. La procédure est expliquée sur cette page.

Cette première version d’Android 12 est principalement là pour récolter les retours des développeurs et leur permettre de prendre en main les nouvelles fonctionnalités. Le calendrier pour la suite des événements est plus ou moins le même qu’avec Android 11.

Une seconde DP est prévue pour mars, puis une troisième en avril. La première bêta devrait arriver en mai et s’adressera aussi aux utilisateurs. En juin et juillet, deux autres bêtas sont prévues.

Une étape importante est prévue pour aout avec la « Platform Stability ». Elle coïncidera avec la mise en ligne d’une quatrième bêta, si tout se passe comme prévu. À partir de là, les API et autres fonctionnalités seront figées. Ce sera alors la dernière ligne droite.

Plus tard, une Release candidate sera proposée, puis la version finale d’Android, et d’AOSP (Android Open Source Project) dans le même temps. Les partenaires de Google pourront alors commencer le travail d’intégration pour déployer cette mise à jour sur leurs terminaux… du moins pour ceux qui auront la chance d’en profiter.

Android 12

Micropuces chinoises sur des cartes mères : Bloomberg en remet une couche, Supermicro réfute

18 février 2021 à 11:14

Selon Bloomberg, l’affaire de la puce-espionne sur les cartes mères Supermicro ne serait qu’une petite partie de l’iceberg. Malgré les nombreuses contestations, nos confrères persistent et signent, en s’appuyant sur de nouvelles déclarations et sources. Pas de quoi convaincre Supermicro, qui dément formellement les nouvelles accusations.

Il y a un peu moins de deux ans et demi, Bloomberg publiait une longue enquête portant sur les services de renseignements chinois qui auraient développé et intégré dans des cartes mères Supermicro – largement utilisées dans le monde des serveurs – des micropuces-espionnes.

Apple, Amazon et Supermicro se sont rapidement inscrits en faux et ont demandé à nos confrères de se rétracter, ce qu’ils n’ont jamais fait. Le fabricant de cartes mères a lancé une enquête indépendante qui n’a relevé « aucun matériel malveillant sur les cartes mères ».

Petite révision sur les accusations et démentis

D’autres se sont ajoutés à la liste des sceptiques face à cette révélation. Les services de renseignements anglais et américains ont par exemple affirmé n’avoir « aucune raison de douter des informations détaillées publiées par AWS [Amazon Web Services, ndlr] et Apple ». Même son de cloche à la Sécurité intérieure des États-Unis (DHS).

Quelques jours plus tard, Rob Joyce (conseiller pour la cybersécurité à la NSA) affirmait n’avoir « rien vu » et craignait « que nous poursuivions des fantômes ». De son côté, Octave Klaba nous expliquait avoir « passé beaucoup de temps » sur cette histoire, là encore sans rien trouver, etc. Idem sur le site spécialisé ServeTheHome (STH) pour qui « les détails techniques du prétendu piratage de Bloomberg sont inexacts et/ou invraisemblables ».

Depuis, c’est le calme plat. Chacun campe sur ses positions : aucune société n’a apporté la preuve formelle de la présence d’une puce-espionne sur une carte mère Supermicro, tandis que Bloomberg n’a fait aucune rétractation. Nos confrères au contraire affirmaient avoir une « nouvelle preuve de piratage de matériel Supermicro chez un opérateur américain ».

Une nouvelle saison du feuilleton débute, avec un nouvel article de nos confrères – « The Long Hack : Comment la Chine a exploité un fournisseur de technologie américain » – où ils donnent de nouveaux détails et sources… un article suivi rapidement d’un démenti de Supermicro.

Bloomberg brandit de nouvelles accusations (et sources)…

Dans leur introduction, nos confrères mettent en avant trois éléments pour poser le décor. En 2010 tout d’abord, « le département de la Défense a trouvé que des milliers de ses serveurs envoyaient des données de réseaux militaires vers la Chine ». En cause, un bout de code « caché » dans le BIOS des machines.

Second élément en 2014, lorsqu’Intel a « découvert qu'un groupe de piratage chinois de haut vol avait pénétré dans son réseau ». Enfin en 2015, quand le FBI (Federal Bureau of Investigation) a « averti plusieurs entreprises que des agents chinois avaient caché une puce avec une porte dérobée dans les serveurs d'un fabricant ».

Dans les trois cas, ces attaques distinctes auraient en commun d’impliquer la Chine et le fabricant Supermicro. Selon Bloomberg, les experts en cybersécurité américains auraient découvert le pot aux roses il y a des années, mais les autorités auraient décidé de garder leurs conclusions secrètes pour essayer de contrer les attaques et « en apprendre davantage sur les capacités de la Chine ».

En s’appuyant sur des déclarations de quatorze sources proches du dossier (d’anciens responsables du renseignement), Bloomberg ajoute que cette situation aurait ainsi « fait l'objet d'un contrôle fédéral pendant une grande partie de la dernière décennie ». Ce serait notamment le cas du FBI depuis 2012. 

Pour appuyer son propos, Bloomberg cite Jay Tabb, un ancien haut responsable du Federal Bureau of Investigation : l’affaire « Supermicro illustre parfaitement à quel point les entreprises américaines sont susceptibles de subir une potentielle altération néfaste des produits qu'elles font fabriquer en Chine […] C’est un exemple du pire scénario si vous n’avez pas une supervision complète de l’endroit où vos appareils sont fabriqués ».

Il ne donne aucun détail sur une éventuelle enquête en cours, et affirme que « le gouvernement chinois fait cela depuis longtemps, et les entreprises doivent en être conscientes […] La Silicon Valley en particulier doit cesser de prétendre que cela ne se produit pas ». Il ne confirme pas directement les allégations concernant la présence de puces-espionnes. 

… Supermicro le renvoie dans les cordes

La réponse de Supermicro ne s’est pas fait attendre. Un communiqué a été mis en ligne, sur la même lignée qu’il y a deux ans et demi : « L'histoire de Bloomberg est un mélange d'allégations disparates et inexactes qui remontent à de nombreuses années ».

La société réaffirme n’avoir « jamais été contacté par le gouvernement américain, l'un de [ses] partenaires ou clients au sujet des enquêtes présumées […] Au contraire, plusieurs agences gouvernementales américaines, dont Bloomberg affirme qu'elles ont ouvert des enquêtes, continuent d'utiliser nos produits depuis des années ».

Supermicro se dit d’autant plus surprise que les accusations remonteraient à dix ans. Pour l’entreprise, « Bloomberg essaye de faire revivre son histoire de 2018, fausse et largement discréditée ». Les réponses de la société sont intégrées dans l’enquête de nos confrères.

Bloomberg ne démord pas, ça durerait depuis dix ans

Dans le reste de son article, Bloomberg revient plus en détail sur ses prétendues découvertes. Pour appuyer leurs dires, nos confrères affirment s’être entretenus avec « plus de 50 personnes des forces de l'ordre, de l'armée, du Congrès, des agences de renseignement et du secteur privé »… une grande majorité sous couvert d’anonymat. Elles étaient pour rappel 17 en 2018.

Le site rappelle que plusieurs voix se sont fait entendre pour demander une rétraction (Apple, Amazon, Supermicro, des officiels américains…), mais nos confrères persistent et signent. Ils ajoutent même que leur première analyse ne serait que la partie émergée de l’iceberg :

« À la lecture de nouveaux rapports, il semble évident que la publication [initiale] de Bloomberg Businessweek n'avait mis en lumière qu'une partie des événements, dans lesquels les responsables américains ont d'abord soupçonné, puis enquêté, surveillé et essayé de contrôler des manipulations répétées de la Chine sur les produits Supermicro ».

Déclaration choc : « C'est réel […] et le gouvernement le sait »

Comment nos confrères expliquent-ils le mutisme de Supermicro (et des autres) ? Tout simplement, car le grand public et surtout les parties concernées n’auraient pas été informés de l'enquête de contre-espionnage du FBI. C’est en tout cas la déclaration de « trois anciens responsables américains ». Le sceau du secret serait partiellement levé lors de réunions « secrètes » pour mettre en garde des acteurs tiers triés sur le volet.

Bloomberg publie ensuite des déclarations de Mike Janke (Data Tribe, BlackPhone et ancien Navy SEAL), une de ses sources acceptant d’être citée sur certains points. Il confirmerait sans détour la situation : « C'est réel […] et le gouvernement le sait ».

Mais comment le sait-il ? « [Via] deux sociétés de sécurité que je conseillais et qui ont été informées par la division de contre-espionnage du FBI qui enquêtait sur la découverte de puces malveillantes ajoutées aux cartes mères Supermicro ».

Était-il une des personnes directement « briefées » ou bien s’agit-il de propos rapportés par d’autres ? Ce n’est pas précisé et c’est potentiellement un souci dans le cheminement et la compréhension de l’information (nous y reviendrons).

Une puce « planquée » entre les couches d’une carte mère ?

C’est au tour de Mike Quinn (ex-Cisco pendant 23 ans et de passage deux ans chez Microsoft) d’entrer en piste : il « a déclaré avoir été informé de l'ajout de puces sur les cartes mères Supermicro par des responsables de l'US Air Force », expliquent nos confrères.

Il travaillait alors pour une entreprise (non citée) répondant à un appel d’offres pour des contrats avec l'armée de l'air « et les responsables voulaient s'assurer qu'aucun projet n'inclurait des équipements de Supermicro », ajoute Bloomberg.

Il explique que « ce n’était pas un simple gars qui volait une carte-mère et soudait une puce dans sa chambre d’hôtel, c’était directement intégré sur le produit final ». La fameuse puce-espionne était, selon Mike Quinn, « mélangée » aux couches du PCB de la carte mère.

Une source – là encore anonyme – de The Register met en avant une autre hypothèse : la puce-espionne pourrait être cachée sous une autre puce, qui a elle toute sa place sur la carte mère. Cette technique rendrait la supercherie bien plus difficilement détectable : « Si vous créez quelque chose qui ne devrait pas être là, un passage aux rayons X peut le révéler […] Mais si cela ne change que légèrement la forme et la taille du silicium existant, c'est plus difficile à détecter ».

« Il n'est pas difficile d'ajouter un petit circuit, et il n'y a pas de différence tangible à l'observation ». Il faudra pour le moment se contenter de sa parole puisqu’aucune preuve n’a été apportée. On peut évidemment se demander comment elle a fait pour passer inaperçue aux différentes vagues de vérifications qui ont eu lieu en 2018. Des sociétés avec de gros moyens et de gros enjeux sur la sécurité de leurs clients se sont lancées dans des analyses très poussées… sans rien trouver jusqu’à présent.

Et si tout cela n’était qu’un « malentendu » technique ?

Toutes ces belles paroles de Bloomberg sont, cette fois encore, fortement remises en doute par certains experts. Pwn All The Things n’y va pas avec le dos de la cuillère contre nos confrères dans un long thread Twitter. Le compte soulève une piste pour expliquer la situation :

« c’est une source qui a mal compris un briefing défensif du FBI sur les activités des chaînes d'approvisionnement de Chine, qui l'a divulgué à la presse, et Bloomberg n'a *encore* pas réussi à faire le travail nécessaire pour vérifier ces affirmations sensationnelles, car ils confondent des références impressionnantes avec une expertise dans le domaine ». 

Bref, Bloomberg se serait (trop) laissé impressionner par le CV de certaines sources, alors qu’elles n’auraient pas forcément toute l’expertise technique pour comprendre les tenants et les aboutissants de cette affaire. Certaines sources pourraient par exemple se mélanger les pinceaux entre une modification logicielle (via le fimware) et matérielle (via l’ajout d’une puce), ce qui n’est pas du tout la même chose. Impossible pour autant de dire si c’est le cas. 

Pwn All The Things regrette notamment que la traçabilité de l’information ne soit pas plus indiquée, par exemple pour savoir « le nombre de personnes non techniques par lesquelles sont passées ces informations avant d'arriver à la source » finale. Bref, cette histoire semble « trop grosse », d’autant plus avec les démentis massifs et détaillés qui ont rapidement suivi.

Après, certaines fuites d’informations ont permis de se faire une idée – parfois surprenante – des capacités et des moyens mis en œuvre par des agences de renseignements. C’est notamment le cas des agissements de la NSA.

Pwn All The Thing appelle Bloomberg et ses sources à publier des documents permettant de prouver leurs dires et « ridiculiser » au passage Apple, Amazon, le FBI, la NSA, le DHS Department of Homeland Security (Département de la Sécurité intérieure des États-Unis) et l’ODNI (Office of the Director of National Intelligence) qui ont contredit ouvertement la version de Bloomberg. Pour le moment, rien de tel n’a été fait à notre connaissance.

La morale de cette histoire est…

A contrario, The Register va dans le sens de Bloomberg, toujours en se basant sur leur source qui souhaite elle aussi garder l’anonymat : « J'ai physiquement eu des preuves entre mes mains » sur l’existence d’un matériel compromis, affirme-t-elle à nos confrères, mais sans préciser quelle en était la nature.  « Je l'ai vu de plusieurs gouvernements », ajoute-t-elle.  

En guise de conclusion, cette même personne explique qu’il « est important d'être conscient que ce genre de choses se produit ». Si par « ce genre de chose » on parle d’espionnage à haut niveau par des États, alors on ne peut qu’être sur la même longueur d’onde et c’est certainement le point le plus important à retenir.

Dans tous les cas – que Bloomberg ait raison ou non – l’espionnage numérique ne doit pas être pris à la légère, peu importe le vecteur d’attaque. On se souviendra du débat sur le matériel 5G Huawei interdit dans certains pays, sous la pression des États-Unis qui parlent – sans apporter de preuve – de risques pour la sécurité nationale.

De leur côté, les entreprises l’ont généralement bien compris et appliquent des règles strictes d’hygiène numérique, en surveillant par exemple les flots de données entrants et sortants, réalisant des audits de sécurité par des tiers, etc. Le risque zéro n’existe pas, et personne ne pourrait d’ailleurs l’affirmer ; il faut en permanence surveiller et s’adapter. 

Netgate lance les versions CE 2.5.0 et Plus 21.02 de pfSense avec WireGuard

18 février 2021 à 09:16

Il y a un mois, le constructeur faisait deux grandes annonces : l’intégration de la solution VPN WireGuard et l’arrivée d’une offre Plus pour pfSense, reprenant les rênes de la Factory Edition.

Les changements sont nombreux et sont pour l’instant communs aux offres Community et Plus, avec notamment, le support de la technologie Quick Assist d’Intel, l’export de profil IPsec, le passage à FreeBSD 12.2-STABLE, OpenSSL 1.1.1, l’intégration de WireGuard dans le noyau, de meilleures performances, OpenVPN 2.5.0 ou encore des améliorations pour le gestionnaire de certificats.

La Community Edition reste gratuite, tandis que Plus exige un abonnement. Netgate précise que les actuels clients de la Factory Edition 2.4.5-p1 vont être automatiquement migrés vers la nouvelle version 21.02.

GNOME travaille sur un remaniement de Logiciels

18 février 2021 à 09:16

Ce n’est pas peu dire que l’application a mauvaise réputation, entre une interface jugée peu pratique, une certaine lourdeur et un manque de fonctionnalités modernes.

Les développeurs de GNOME travaillent cependant sur un remaniement de son interface, point le plus souvent critiqué. Dans une série de maquettes, on peut ainsi voir les transformations envisagées, notamment de nouvelles cartes d’applications, des présentations plus claires et complètes, et surtout l’apparition d’une barre latérale.

Cette dernière devrait être un net progrès, puisque l’utilisateur pourra accéder rapidement aux sections de la boutique, aux applications déjà installées et surtout aux mises à jour, puisque Logiciels a le même rôle que les Store d’Apple et Microsoft.

Ces changements visuels devraient s’accompagner d’ajouts plus fonctionnels, comme la possibilité d’installer une application pour l’utilisateur en cours uniquement ou pour tout le système, ou encore une section dédiée aux extensions compatibles.

Aucune date n'a été donnée pour cette nouvelle version. Il y a peu de chances qu'elle soit terminée pour l'arrivée de GNOME 40.

Microsoft teste un mode Enfants dans les préversions d’Edge

17 février 2021 à 09:15

Les testeurs Edge Insiders peuvent récupérer depuis peu dans le canal Dev une préversion présentant un nouveau mode « Kids ».

Il s’active en changeant simplement de profil. Les parents n’ont donc qu’à en créer un déclaré comme « enfant » pour que les réglages idoines s’activent.

On retrouve ainsi une prévention de suivi bloquée sur « Stricte », des thèmes personnalisés, des articles destinés à la jeunesse ou encore une liste blanche de sites préapprouvés que les parents peuvent modifier depuis leur propre profil.

Bon point, le profil Enfants ne nécessite pas de compte Microsoft pour fonctionner. En outre, basculer d’un profil Enfants vers un autre adulte réclamera un mot de passe, que les parents devront définir.

Le financement d'une campagne électorale par le biais d'une cagnotte en ligne est possible

17 février 2021 à 09:15

Questionné par le sénateur Cyril Pellevat (LR), le ministre de l’Intérieur rappelle que « pour les élections municipales dans les communes de moins de 9 000 habitants, les candidats ou listes de candidats n'ont pas l'obligation de désigner un mandataire financier ou une association de financement électorale »

De même, ils ne sont pas tenus « de déposer un compte de campagne auprès de la commission nationale des comptes de campagne et des financements politiques ».

Conclusion : « dans le silence des textes, rien n'interdit à ces candidats d'avoir recours à un système de paiement en ligne ou à une plateforme de financement participatif pour le financement de leur campagne électorale ». 

Cependant, le recours à ces instruments « doit s'opérer dans le respect des autres dispositions du code électoral qui sont applicables aux élections municipales dans toutes les communes ». Cela concerne notamment « l'interdiction de financement de la campagne par une personne morale à l'exception d'un parti ou d'un groupement politique », outre « la limitation des dons des personnes physiques à 4 600 euros par donateur lors des mêmes élections ».

Mars 2020 (Perseverance) : « sept minutes de terreur », avant de chercher d’éventuelles traces de vie

16 février 2021 à 15:28

Dans deux jours, le rover Perseverance et le drone Ingenuity vont passer l’épreuve du feu. Si tout se passe comme prévu, jeudi soir ils seront à la surface de Mars, parés pour débuter les opérations scientifiques, et notamment chercher des traces de vies avec l’instrument français SuperCam.

Depuis quelques semaines, Mars est le théâtre d’une agitation importante. Après les sondes chinoise et émiratie, c’est maintenant au tour de la NASA d’entrer en piste avec Mars 2020. Son objectif est de larguer un atterrisseur sur la surface de la planète rouge, avec le rover Perseverance à bord. La France est fortement impliquée dans cette mission, notamment via l’instrument SuperCam.

Elle comprend quatre objectifs principaux, comme le rappelle l’Observatoire de Paris : poursuivre l’exploration géologique de ses prédécesseurs (Spirit, Opportunity et Curiosity), chercher des traces de vie, prélever des échantillons et enfin préparer l’exploration humaine.

Avant d’en arriver là, les scientifiques et le rover vont devoir passer par les « sept minutes de terreur » que représentent la descente. « Plus de mille personnes ont travaillé dur pendant presque dix ans pour préparer cette mission, et c’est en seulement sept minutes que tout se joue », explique Eric Lorigny, responsable des opérations. Les Français par exemple se sont fait une belle frayeur en 2018 (nous y reviendrons). Cette étape clé est donc le point d’orgue d’une mission qui a décollé il y a sept mois (juillet 2020).

Notre dossier sur l'exploration de Mars et la recherche de la vie avec Mars 2020 :

La procédure d’atterrissage est entièrement automatisée

En l’espace de quelques minutes seulement, l’avenir de la mission va se jouer : « c’est le temps nécessaire à la sonde spatiale pour atterrir sur Mars à partir de son entrée dans l’atmosphère. Durant cette phase critique, encore appelée EDL (pour Entry, Descent and Landing), aucune assistance humaine n’est possible », tout se fait via l’ordinateur de bord qui est le seul à prendre des décisions.

Eric Lorigny insiste : « La moindre erreur d’angle d’entrée, d’estimation de vitesse ou de télécommande qui ne se déclenche pas au bon moment, et tout déraille ». Un message envoyé par la sonde mettrait au moins trois minutes à arriver sur Terre, puis à nouveau trois minutes dans le sens inverse. Envoyer un ordre en réaction à un événement prendrait donc au moins six minutes, autant dire qu’un tel délai de réponse est totalement inutile. 

La procédure est la suivante : dix minutes avant d’entrer dans l’atmosphère, le module larguera son étage de croisière qui l’a transporté jusqu’à Mars. Dans les 90 premières secondes de la phase de descente, la sonde atteindra son pic de température et de décélération, puis elle larguera son parachute au bout de quatre minutes.

Au moment de toucher le sol, la vitesse sera passée de plus de 20 000 km/h à moins de 3 km/h seulement. L’atterrissage est prévu vers 21h55 (heure de Paris) ce jeudi 18 février… en espérant que Perseverance ne finisse pas comme Schiaparelli, la sonde d’ExoMars 2016 de l’Agence spatiale européenne. La NASA n’en est pour rappel pas à son coup d’essai pour poser des rovers sur la planète rouge, loin de là.

Pour résumer, les principales opérations de l’atterrissage sont les suivantes : « Rentrée atmosphérique pilotée, descente sous parachute supersonique, descente propulsée, séparation de l’étage de descente, déploiement des roues du rover, contact au sol… ».

Plusieurs instituts seront en direct jeudi soir afin de vivre cet événement au plus près de Mars, en voici quelqu’un :

À la découverte du cratère Jezero

Perseverance ne doit pas se poser n’importe où, le rover doit atterrir dans le cratère Jezero d’environ 45 km de diamètre. « C’est comme demander à Mbappé de marquer un but à plus de 160 000 km des cages », explique le CNES. Pour réussir son entrée, la sonde doit passer à travers une petite lucarne bien précise dans l’atmosphère, et avec un angle très précis : « un degré de plus et l’engin qui arrive à plus de 20 000 km/h se détruit. Un degré de moins et il rebondit sur l’atmosphère et se perd dans l’espace ».

Il est âgé de plus de 3,5 milliards d’années et « aurait abrité un lac qui s’est rempli et vidé au moins deux fois », une zone au fort potentiel pour cette mission. « Les couches de sédiments sont favorables à la préservation de traces d’une forme de vie, si elle s’y est développée. Après avoir exploré le delta formé lors de l’assèchement du lac, Perseverance se dirigera vers les vestiges d’anciens rivages ».

Les nouveautés de Perseverance et SuperCam

Le rover embarque sept instruments scientifiques, dont SuperCam construit en partenariat avec plusieurs laboratoires français, et notamment ceux du CNES, du CNRS et des universités françaises. Nous avons déjà longuement détaillé les caractéristiques techniques de SuperCam, qui est une version améliorée de ChemCam du rover Curiosity.

« La fréquence du laser est doublée : de rouge on est passé à vert. On ne va pas exploser la roche, mais simplement exciter les molécules », expliquait Sylvestre Maurice en 2018. Cette technique n’a jamais été utilisée sur Mars affirme Thales (le fabricant du laser), et « permettra de pister d’éventuels marqueurs de la vie ».

Le CNES détaille brièvement les cinq fonctions « son et lumière » du SuperCam :

  • La spectrométrie Raman identifie des molécules et des structures minérales après excitation par un faisceau laser vert (532 nm).
  • La spectroscopie LIBS détermine la composition chimique élémentaire par ablation laser (faisceau infrarouge à 1064 nm) et génération d'un plasma brillant.
  • MIC : un microphone aide à la caractérisation de la dureté des roches, en enregistrant l'onde acoustique émise par le signal LIBS. Il enregistre aussi divers phénomènes atmosphériques et les bruits du rover.
  • La spectroscopie Visible-Infrarouge (VISIR) analyse la lumière solaire réfléchie par les roches.
  • La caméra couleur fournit une image détaillée des roches analysées et de leur environnement proche.

LIBS et Raman ont une portée de sept mètres, tandis que « l’infrarouge et la caméra portent jusqu’à l’horizon », expliquait le CNES. Début 2018, Philippe Caïs, ingénieur de recherche CNRS au LAB de Bordeaux et chef de projet SuperCam Mast Unit (la partie française dans le mât), expliquait que capter les sons environnants avec un micro avait déjà été tenté par deux fois, mais s'était soldé par deux échecs. 

SuperCam
Crédits : CNES

Le développement de SuperCam n’a pas été un long fleuve tranquille, loin de là même. Dans le Journal du CNRS, Pernelle Bernardi (ingénieure système et responsable des spécifications et des performances de SuperCam) revient sur cette étape et plus particulièrement sur un incident d‘octobre 2018, soit deux ans avant le lancement.

« Un incident technique détruit la moitié de l’instrument de vol lors d’une dernière opération nécessitant un passage en étuve pour accélérer la polymérisation d’un collage. Et pour cause : le télescope et ses équipements (laser, caméra, spectroscope infrarouge) voient alors des températures qui grimpent jusqu’à 250 °C, bien au-delà de l’acceptable... », explique le Centre national de la recherche scientifique. 

« L’équipe a dû repartir de zéro ! », se souvient la responsable, alors que la livraison aux Américains était prévue pour quelques semaines plus tard seulement. Comme on peut s’en douter puisque le décollage à bien eu lieu comme prévu, une solution a été trouvée : « en plus de remplacer la pièce détruite en seulement six mois, les Français créent l’exploit d’améliorer ses performances ». 

Depuis son lancement, SuperCam a déjà été allumé à deux reprises – les 19 octobre et 12 novembre – afin de « vérifier que l’instrument avait bien vécu le lancement ». Bonne nouvelle : « toutes les données sont conformes », affirme Pernelle Bernardi. Bien évidemment, de nouveaux tests sont prévus après l’atterrissage. 

Préparer des échantillons, sans les contaminer

Comme nous l’expliquions en introduction, une des missions de Perseverance est de « collecter et stocker des échantillons de roches martiennes dans des conteneurs ultrapropres, stériles et hermétiquement scellés ». Avec la mission Mars 2020, il n’est pas prévu de les récupérer : ce sera le rôle « d’autres missions du programme Mars Sample Return (MSR) », mené conjointement par la NASA et l’ESA. L’horizon 2031 est pour le moment visé pour cette opération de récupération.

Comme le reste de la mission, les conteneurs avec les échantillons sont conformes aux recommandations de protection planétaire du COSPAR : « Perseverance a été biologiquement décontaminé pour préserver la planète Mars de toute contamination biologique. Le niveau de propreté atteint évite de détecter, dans les échantillons, des traces chimiques de vie terrestre qui pourraient être prises pour les traces d’une forme de vie martienne (faux positifs) ».

Un drone va essayer de voler sur Mars

En bonus, Perseverance emporte Ingenuity : « un drone hélicoptère capable de voler sur plusieurs centaines de mètres et qui pourra l’aider pour sa navigation », explique la NASA. Ce sera la première fois qu’un tel engin volant sera envoyé sur la planète rouge. Il dispose d’une caméra pour cartographier les alentours de Perseverance. Il lui envoie les images, puis le rover les transmet à son tour à la Terre.

Cette expérience est « distincte » du rover de Mars 2020. Il dispose de « quatre pales fabriquées en fibre de carbone, disposées en deux rotors qui tournent dans des directions opposées à environ 2 400 tours/minutes – beaucoup plus rapides qu’un hélicoptère sur Terre ».

La NASA rappelle qu’il s’agit d’une « démonstration technologique » afin de tester le vol en conditions réelles sur Mars. Si elle est concluante, d’autres drones pourraient être prévus pour les prochaines missions d’exploration des objets du Système solaire. Ce genre d’engins permettrait aussi d’avoir une vision intermédiaire, à mi-distance entre les sondes en orbite à plusieurs centaines de kilomètres d’altitude et les rover cloués au sol.

L’UFC Que Choisir et le BEUC s’attaquent à TikTok

16 février 2021 à 08:43

L’UFC-Que Choisir et le Bureau Européen des Unions de Consommateurs (BEUC) ont déposé plainte contre TikTok devant la Commission européenne et le réseau des autorités de protection des consommateurs. L'association reproche notamment au réseau social des CGU peu claires, des clauses qu’elle estime illicites et « qui favorisent TikTok au détriment de ses utilisateurs ». 

« Très concrètement, TikTok se donne le droit de faire ce qu’il veut des vidéos publiées : les utiliser, les modifier, les reproduire sans que les utilisateurs n’aient leur mot à dire. C’est illégal ». Autres critiques, un défaut d’information « sur les données personnelles qui sont collectées, leur but et destination contrairement aux obligations du RGPD ».

Les deux structures réclament « une enquête à l’échelle européenne et nationale sur les pratiques de Tiktok » et « qu’une décision contraignante soit prise par les autorités de protection de consommateurs concernées » pour « mieux informer les consommateurs sur sa politique et son modèle économique ». 

Elles souhaitent également que soit expliqué « le fonctionnement de sa politique d’achat de pièces de monnaie et ses implications financières » et que soient prévues des « mesures efficaces de protection des mineurs notamment en matière d’utilisation de leurs données personnelles et d’exposition au marketing, à la publicité cachée et aux contenus inappropriés ».

Avantage quantique en Europe : retour sur un choix sémantique lourd de sens

15 février 2021 à 14:46

Après les États-Unis et la Chine, une équipe européenne affirme avoir atteint l’« avantage quantique » en laboratoire. Eleni Diamanti du CNRS nous explique pourquoi elle ne parle pas de « suprématie quantique » et nous donne des détails sur les tenants, aboutissants et débouchés que l’on peut en attendre.

Il y a quelques jours, des scientifiques du CNRS, de l’université d’Édimbourg (Écosse) et de l’entreprise QC Ware Corp (France et USA) ont affirmé avoir mis au point une machine quantique capable d’effectuer « une tâche de vérification donnée en quelques secondes alors que le même exercice prendrait un temps équivalent à l’âge de l’univers pour un ordinateur classique ». Hasard (ou pas) du calendrier, cette annonce intervient juste après celle du Plan Quantique français promettant pas moins de 1,8 milliard d’euros pour la recherche.

Notre dossier sur le Plan Quantique en France : 

Le sujet est complexe, le communiqué bref : « Pour cette démonstration, ils ont combiné un algorithme interactif complexe, qui permet de résoudre un certain type de problèmes mathématiques avec des informations limitées, et un système expérimental photonique simple, réalisable dans tous les laboratoires photoniques de pointe ».

On note également que plutôt que de parler de « suprématie quantique », les chercheurs préfèrent le terme « avantage quantique ». Eleni Diamanti, chercheuse au CNRS et coauteure des travaux dans Nature Communications, nous explique les raisons de cet important choix sémantique, et répond à nos questions.

Les choix derrière les mots

La première annonce de « suprématie quantique » a été faite par Google et la NASA en octobre 2019. Avec son processeur Sycamore à 53 qubits, le géant américain aurait « effectué un calcul en 200 secondes qui prendrait 10 000 ans au supercalculateur le plus rapide du monde ». IBM s’était rapidement inscrit en faux.

Big Blue affirmait alors qu’une « simulation idéale de la même tâche peut être effectuée sur un système classique en 2,5 jours et avec une fidélité beaucoup plus grande ». Elle y voyait « une excellente démonstration des progrès de l’informatique quantique basée sur la supraconductivité […], mais elle ne doit pas être considérée comme une preuve de la suprématie quantique ». Il faut dire que cette course quantique est autant médiatique que scientifique.

En décembre 2020, rebelote, mais avec un prototype d’ordinateur quantique développé par l'Université des sciences et technologies de Chine. Baptisée Jiuzhang, cette machine n’a « besoin que de 200 secondes pour traiter 50 millions d'échantillons par échantillonnage de boson gaussien (GBS), alors que le superordinateur le plus rapide au monde a besoin de 600 millions d'années ».

On vous épargne les détails techniques pour se concentrer sur le cœur de cette annonce : « C'est la première fois que la Chine atteint "la suprématie quantique". La Chine est ainsi devenue le deuxième pays à atteindre "la suprématie quantique" », affirme le Quotidien du Peuple, un organe de presse officiel du Parti communiste chinois… et donc une déclaration à prendre avec des pincettes.

Dans le titre de leur publication, les chercheurs chinois annoncent plutôt avoir obtenu un « avantage de calcul quantique utilisant des photons », pas de suprématie à proprement parler donc… mais ils ont tout de même tendance un peu à mélanger les deux dans leur exposé des faits :

« Si l’amélioration semble écrasante, de sorte qu'aucun ordinateur classique ne peut effectuer la même tâche dans un laps de temps raisonnable […] on parle davantage de calcul quantique ou de suprématie quantique. Ici, nous utilisons le premier terme ».

Blanc bonnet et bonnet blanc ? Pas tout à fait

Pour Olivier Ezrati (consultant et auteur sur les questions d’IA, IoT, et quantiques), ces deux termes n’ont pourtant pas vraiment la même signification : 

« Un avantage quantique est observé avec un calculateur quantique lorsqu’il réalise une opération en un temps meilleur que les supercalculateurs les plus performants exploitant l’algorithme classique le plus efficace du moment. Meilleur, mais pas forcément de plusieurs ordres de grandeur.

Une suprématie quantique intervient si un calcul quantique spécifique n’a pas d’équivalent classique exécutable dans un temps humainement raisonnable. Il vaut mieux que ce temps soit complètement déraisonnable, du genre de quelques milliers, millions voire milliards d’années ».

Bref, deux salles et deux ambiances : Google parle sans détour de « suprémacie » dans le titre et le contenu de sa publication, tandis que les scientifiques chinois sont en partie plus mesurés avec leur « avantage quantique ».

Dans tous les cas, « la bifurcation vers les technologies quantiques est en marche », résume Philippe Chomaz, directeur scientifique à la direction de la recherche fondamentale du CEA. Pour simplifier, la question n’est pas tant de savoir « si » les ordinateurs quantiques prendront le dessus, mais plutôt « quand ». 

La notion d'« avantage quantique » est également le choix fait par les chercheurs européens, qui viennent de faire une annonce en la matière. Eleni Diamanti a accepté de revenir sur ce choix et l'avancée du projet. 

Aussi bien dans le communiqué du CNRS que dans la publication dans Nature, le terme « supremacy » n’est pas utilisé, pour quelle raison ?

Nous avons fait le choix d'être prudents avec l'utilisation de ce terme puisque notre machine quantique qui nous a permis de montrer cet avantage quantique algorithmique ('quantum computational advantage', terme de toute façon préférable à 'supremacy') n'a pas vocation d'amener à terme à un ordinateur quantique universel.

Le terme 'supremacy' est souvent associé à ce but final, pour la machine Google par exemple, qui pour l'instant est très loin d'être un ordinateur quantique universel, mais c'est l'objectif ultime.

Est-il possible d’avoir de plus amples détails sur l’algorithme utilisé ? Comme dans le cas de Google, il s’agit d’un cas théorique sans « utilité » concrète dans la pratique ?

Notre algorithme, même théorique, se distingue par rapport aux algorithmes de Google ou de la machine chinoise par le fait qu'il ne s'agit pas d'un algorithme d'échantillonnage (sampling), mais de vérification avec une réponse de type 'oui ou non'. C'est une différence importante qui le rend de fait plus utile.

Par exemple, un cas pratique d'utilisation est d'imaginer un scénario où un utilisateur d'un service (client) souhaiterait vérifier si le processeur (serveur) peut comme annoncé trouver une solution à un problème complexe (de type NP-complet). Le serveur ne souhaite pas dévoiler toute la solution, mais juste une partie suffisante pour convaincre le client. Notre algorithme permet cette vérification de façon extrêmement efficace.

La programmation de l’algorithme sur la machine quantique a-t-elle été un défi ? […] Votre recherche porte-t-elle principalement sur la partie logicielle, matérielle ou les deux ?

De nouvelles techniques algorithmiques ont été au cœur de ce travail. La machine elle-même est relativement simple, mais elle utilise une astuce assez importante qui nous avait déjà permis de montrer un avantage quantique dans un autre contexte (pas algorithmique) dans une publication précédente.

Est-il aussi possible d’avoir plus de détails sur la machine utilisée (nombre de qubits, type de fonctionnement, etc. ) et son mode de fonctionnement ? 

C'est une question un peu difficile à répondre comme cela. Nous espérons pouvoir trouver le temps d'écrire une note vulgarisée sur notre travail comme on est conscients que le sujet est complexe et contient beaucoup de subtilités. En tous cas, la machine utilisée est photonique et utilise le codage de l'information quantique (comme dicté par l'algorithme) sur des propriétés des impulsions lumineuses émises par un laser.

Ces photons envoyés, disons par le serveur traversent un circuit simple d'optique linéaire et sont détectés par des détecteurs de photons uniques. L'étape de vérification par le client se passe à ce stade.

Comme expliqué en réponse à votre première question, cette machine n'a pas vocation à amener à un ordinateur quantique universel, il s'agit ici d'un exemple concret d'un algorithme pour lequel on peut montrer un avantage quantique même avec la technologie actuellement disponible.

Avez-vous d’autres pistes à l’étude sur votre machine afin de proposer une démonstration de l’avantage quantique « utile » ?

Nous étudions actuellement l'utilisation de notre machine pour la démonstration d'un avantage quantique sur le calcul de la différence entre deux séries des données. D'autres pistes suivront sûrement !

Carences du service universel (cuivre) : « J’appelle Orange à prendre ses responsabilités »

12 février 2021 à 14:42

La colère monte autour du service universel, notamment dans les zones rurales « qui subissent depuis des années la dégradation de l’entretien et de la maintenance du réseau historique sur cuivre ». Une mission flash a été lancée pour faire le point de la situation. Après quatre semaines d’auditions, elle a rendu son bilan. Voici notre compte rendu.

Mi-janvier, la Commission des affaires économiques de l’Assemblée nationale confiait à Célia de Lavergne une « mission flash » sur le service universel des communications électroniques. Un sujet sensible qui touche à la fois les opérateurs et leurs clients, qui se retrouvent parfois pris en tenaille entre Orange et leur FAI, avec une qualité de service en retrait. 

Le sujet s’était invité dans les débats lors des auditions de Laure de La Raudière, nouvelle présidente de l’Arcep, selon qui « la qualité de service sur le réseau cuivre est préoccupante à certains endroits et doit faire l'objet d'une attention particulière de l’Arcep ». Stéphane Richard lui répondait qu’on « a un vrai problème avec le prix du dégroupage. Ce débat doit être ouvert sérieusement ».

C’est dans ce climat plus que tendu que Célia de Lavergne vient de rendre son rapport, attendu de pied ferme par l’ensemble des acteurs, qu'elle a présenté à l’Assemblée nationale. Dans les grandes lignes, elle pointe du doigt deux responsables : « l'opérateur, qui au fond a failli à ses valeurs initiales de missions de service public, mais aussi à l'État qui a mal encadré ce service universel ». Critiques suivies de propositions d’améliorations.

Des « lourds » passifs, une « convention mal ficelée »

Célia de Lavergne (LReM) commence par quelques rappels sur le fonctionnement du service universel des télécommunications, et explique pourquoi nous sommes à un moment charnière. Il « a été mise en place en 2002 et dans le cadre de la privatisation de France Télécom, était comme un filet de sécurité qui permettait de garantir à chacun de nos concitoyens un accès de qualité et en continuité d'un service à un tarif abordable ».

« Le cadre juridique qui est prévu est celui d'une désignation par l'État d'un opérateur afin d'assurer ce service au travers de conventions trisannuelles. Cet opérateur, c'est Orange : c'est le propriétaire historique du réseau, vous l'aurez compris en situation de monopole. La dernière convention signée fin 2017 s'est achevée le 3 décembre 2020 », ajoute-t-elle.

Cette désignation se fait via un appel d’offres, avec un volontaire désigné d’office au besoin : « soit Orange y répond et dans ce cas-là c’est une négociation avec l’État, soit c’est une désignation d’office », avec des contraintes dans les deux cas.

La période est chargée, car ce renouvellement de la convention intervient après le vote de la loi Ddadue qui fixe « un nouveau cadre pour ce service universel et qui complète la téléphonie fixe par un accès à haut débit ».

Pour la députée, « le passif est lourd » sur le service universel : « Nous avons, au dire des organisations syndicales d'Orange elle-même, un abandon depuis plus de vingt ans de l'investissement dans le réseau cuivre, stratégie qui visait à basculer vers la fibre certes, mais qui n'a pas prévu la transition qui est même un peu plus longue que prévu […] Nous allons dépendre encore pendant dix ans au moins du cuivre », utilisé par « plus de 24 millions d'utilisateurs encore à ce jour, dont 1,4 million pour le service universel ».

Mais Orange n’est pas le seul fautif dans son viseur : « nous avons aussi un passif lourd sur une convention de service universel mal ficelée. Pourquoi ? Parce que les indicateurs [de qualité de service] sont nationaux donc nous avons une appréciation globale de la réalité du service et des indicateurs construits de manière non universelle. Pour exemple, 85 % des réparations doivent être faites sous 48h, mais quid des 15 % restant ? Rien n’a été prévu… »

Pour Célia de Lavergne, il faut construire « cette transition en n'oubliant personne et en réaffirmant le caractère universel de ce service universel, en plaçant au cœur de la réflexion le sujet de la continuité, de l'accès et de la qualité de service ».

Visiblement remontée, elle ajoute qu’il « n'est plus possible d'attendre des mois avant d'être réparé ou raccordé, de n'avoir aucune réponse sur les délais, de se sentir parfaitement impuissant faute d'outils légaux, juridique et contractuel ».

Ces indicateurs de qualité sont renseignés par Orange et contrôlés par le régulateur des télécoms, mais cela mériterait pour la rapporteure « que nous y consacrions un temps plus important ». L’Arcep les a publiés en septembre 2020 pour les premier et second trimestres. On peut voir qu’Orange était dans les clous pour certains, mais au-dessus pour d’autres, notamment la cible à 48h pour traiter « 85 % des dérangements d’abonnés ».

Arcep qualité service 2020Arcep qualité service 2020

De nouveaux indicateurs plus précis au niveau des territoires

La députée souhaite aussi revoir le périmètre de ces indicateurs, afin de leur ajouter plus de granularité, par exemple avec un détail au niveau départemental. Cela permettrait d’avoir « une vraie vision de quels sont les points noirs sur le territoire et de la réalité de la qualité de service territoire par territoire ». Actuellement, les zones rurales sont « noyés au milieu d’une masse de plus de 24 millions de clients du réseau cuivre ».

Stéphane Richard avait anticipé le sujet il y a quelques jours : « Il ne faut pas que des situations locales masquent le fait que sur un plan général un réseau cuivre fait l'objet d'allocation de moyens considérables ». De son côté, Laure de la Raudière a déjà indiqué que la situation était « très préoccupante » et qu’elle attendait justement ce rapport afin d’avoir une vision globale.

Diviser le service universel en deux (téléphonie et haut débit)

Le « nouveau » service universel tel qu’inscrit dans la loi Ddadue du 3 décembre 2020 comprend deux composantes : en plus du service de téléphone fixe, il est question d’« un service d'accès adéquat à l'Internet haut débit », alors qu‘auparavant il était uniquement question de « débits suffisants pour permettre l'accès à Internet ». Dans son rapport, Célia de Lavergne veut aller plus loin : « un "bon haut débit" de 8 Mb/s devra être visé dans le premier service universel du haut débit, avec, à terme, un objectif de "très haut débit" de 30 Mb/s ».

Elle propose de « dissocier dans la phase transitoire » les deux composantes. Cela permettait de mettre « Orange devant ses responsabilités sur la question de la téléphonie fixe qu'il gère depuis plus de 40 ans et qui correspond à l'engagement qu'il a pris devant nos concitoyens français ». Dans le même temps, cela permettrait « de traiter la question du haut débit par ailleurs ».

Les deux paquets « doivent donner lieu à deux procédures d’attribution distinctes, d’ici à 2025, date à laquelle ils pourront être traités conjointement », ajoute-t-elle.

Sur la téléphonie fixe, qui incomberait évidemment à Orange (de gré ou de force) : « je vous propose qu’on reparte sur une convention de désignation sur cinq ans, plus longue que les trois ans de manière à avoir plus de visibilité sur les investissements, mais aussi de manière à mieux contrôler le suivi des indicateurs et mettre en demeure si besoin, l'opérateur ».

Retour sur la mise en demeure d’Orange en 2018

Sur le service universel et sa qualité de service, une étape importante s’est déroulée fin 2019 : Orange a été mise en demeure par l’Arcep de « respecter ses obligations de qualité de service du service universel ». S’en est suivie une passe d’armes entre le régulateur et l’opérateur, qui a déposé une question prioritaire de constitutionnalité (QPC).

L’opération avait fait grand bruit, même si Orange l’a finalement retirée. Dans tous les cas, le FAI garde sous le coude « son arme nucléaire » lâchait le sénateur Patrick Chaize.

Quoi qu’il en soit, on est dans une triple peine pour Célia de Lavergne : « on a une convention insuffisamment universelle, non respectée et qui aujourd’hui ne prévoit qu'une partie du service futur, ça veut dire qu'on a beaucoup de travail devant nous… ».

Elle en profite pour faire le point de la situation un an et demi après cette mise en demeure : « Aujourd’hui, ce qui semble apparaître, c'est que les résultats se sont améliorés. Cependant, […] la façon structurelle dont sont conçus ces indicateurs ne traite pas 15 % de la population ». Elle juge les efforts insuffisants : « même s'il y a une amélioration sur le papier, la mise en demeure n'a pas été suivie de fait ».

La députée donne un exemple : « Orange se prévaut du recrutement de 149 techniciens [contre 200 annoncés, ndlr], ça ne résout pas pour moi, le sujet […] que nos territoires aujourd’hui ont du mal à voir sur le terrain les délais de réparation se réduire – comme pour la grande majorité des Français à 48h au maximum – et les délais de raccordement à 8 jours et 12 jours », respectivement pour les lignes existantes et l’ensemble des lignes.

Elle cite un autre exemple : « sur le site Internet Orange de la Drôme, on vous annonce huit mois pour un raccordement, alors même que dans la fonction de service universel, il est question de 12 jours. Donc c'est même assumé par l'opérateur ».

Quatre enjeux majeurs « pour l'avenir de nos réseaux »

Durant son audition, la députée détaillait plusieurs pistes pour la partie haut débit, sans avoir « l'arrogance de vous dire avec certitude quelle serait la meilleure solution ». Selon elle, quatre sujets représentent « des enjeux majeurs pour l'avenir de nos réseaux », il faut donc s’en préoccuper au plus vite.

Le premier, sans surprise, concerne l’avenir du réseau cuivre dont le décommissionnement a commencé et devrait se terminer d’ici dix ans. Ce sujet doit rapidement être saisi par l’ensemble des participants afin d’avoir le maximum de visibilité et d’anticipation.

Le second concerne le génie civil : « Quand on dit réseau cuivre, il y a les fils et puis tout le génie civil, les poteaux, les fourreaux… » Si le cuivre est voué à disparaitre, ce n’est pas le cas du reste qui « est en grande majorité réutilisée pour la fibre ». La question de la propriété se pose alors : « devrait-elle rester uniquement à un opérateur privé Orange, où rebasculer dans la sphère publique » ? Elle pense notamment aux cas des RIP, mais « cela doit être débattu en accord évidemment avec les syndicats de collectivités, on ne va pas faire sans eux ni contre eux ».

Le troisième point concerne « la multiplication des épisodes climatiques intenses », qui ne se conjugue pas bien avec le fait que « nous sommes en train de refaire les mêmes erreurs que par le passé : nous remettons des fils en aérien au lieu de les enfouir parce que le coût est bien plus élevé (80 % sont sur le génie civil lorsqu'on enterre) ». Il faut donc se demander s’il n’est pas intéressant de dépenser plus à l’installation pour s’éviter des soucis par la suite.

Quatrième et dernier point, la possible mise en place d’une « force d'intervention rapide », comme celle dont dispose Enedis. Elle interviendrait dans les cas d’épisodes climatiques majeurs, afin de reconnecter les gens dans des délais raisonnables. Elle reposerait évidemment sur la mutualisation à l'échelle nationale des techniciens. Plusieurs questions restent à trancher : « Est-ce que c'est une force dédiée contractée par appel d'offres? Est-ce que c'est une mutualisation de techniciens entre les territoires ? ».

Obligations renforcées, et levée de verrou

Célia de Lavergne ne s’arrête pas en si bon chemin : « Nous créerions une obligation de réparation sous un mois », après quoi « les sanctions qui seraient appliquées à l'opérateur seraient dissuasives, sauf justification de l'opérateur sur la non-réparabilité, mais au cas par cas de ces situations ». Actuellement, « au bout de 48 heures, vous êtes dédommagé, mais parfois il ne se passe plus rien après ».

Elle rappelle qu’il existe deux obligations de raccordement en fonction de si la ligne existe déjà ou si elle est à construire. Dans ce dernier cas, « ne nous entêtons pas à investir dans le cuivre quand on sait qu’il est plutôt en fin de vie ». Elle milite ainsi pour « lever un verrou de la précédente convention qui passait à 99 % par du filaire pour aller vers des technologies alternatives comme le satellite ou là 4G fixe ».

Anticipant des levées de boucliers sur les points noirs de ces solutions (latences, débits, quotas…) elle reconnait que « ces technologies ont été beaucoup décriées sur le terrain », mais que ses auditions indiquent « que des progrès ont été faits ». Elle cite notamment la mise en place d'un nouveau satellite, qui améliore certes les débits, mais toujours pas les latences. N’en déplaise à Eutelsat qui n’hésite pas à comparer son offre 100 Mb/s à de la fibre, on en est loin dans la réalité.

En 4G, le principal souci est que les opérateurs appliquent souvent un fair use, et donc un débit réduit au-delà d’une certaine quantité de data (200 Go chez Orange et SFR, 250 Go chez Free et NRJ Mobile) . Dans tous les cas, elle ouvre la porte avec précaution : « nous pouvons espérer que ces solutions, sans être généralisées, puissent être efficaces de manière transitoire jusqu’à la fibre ». 

Transparence, élagage, financement…

La rapporteure affirme qu’il faut « également un effort de transparence. Le comble du secteur des télécoms, c'est qu’on en défend l’open data, mais pour avoir parfois des informations basiques, c'est assez compliqué ». Elle demande ainsi un « effort » à Orange pour donner des indicateurs précis sur le génie civil : longueurs de fil, nombre d'ouvrages, ancienneté, manière dont ils peuvent ou non être réutilisés pour la fibre, etc.

Elle propose aussi de donner la possibilité aux citoyens de publier, « peut être sur une partie visible de Jalertelarcep.fr, les difficultés/signalements sur les réparations dont ils ont besoin, les défaillances du réseau téléphonique, de manière à les faire connaître et à pouvoir suivre en temps réel la manière dont ils sont traités ». Du name and shame en quelque sorte, dont certains ne se privent déjà pas de le faire via les réseaux sociaux.

D’autres sujets ont été abordés, comme l’élagage pour les lignes aériennes. Elle rappelle que la loi pour une République numérique de 2016 « responsabilise le propriétaire privé et permet au maire de le mettre en demeure […] La réalité, c'est que ce cadre fonctionne difficilement sur le terrain. Je vous propose de rétablir la servitude d’élagage sur l'entretien du réseau, comme cela est fait aujourd'hui pour Enedis, ce qui fonctionne très bien ».

Vient ensuite la délicate question du financement de l’ensemble de ces changements. Réponse courte : « Tout simplement, comme le système l'a prévu par le fonds de compensation de service universel qui prévoit que chaque opérateur participe […] Il n'y a rien d'exceptionnel là-dessus, ça n'est pas un sujet comme on peut le voir sur la place publique d'entretien plus large couvert par le tarif du dégroupage, mais bien celui du fonds de compensation qui est l'outil majeur du service universel ».

Le rapport parle aussi d’une « augmentation du fonds », mais sans aucune précision supplémentaire sur le montant qu’il faudrait ajouter. L’Arcep rappelle que les opérateurs mis à contribution sont ceux « ayant un chiffre d'affaires annuel supérieur à 100 millions d'euros sur le marché de détail. La contribution s'effectue au prorata du chiffre d'affaires pertinent des opérateurs ».

Groupe travail service universel

Des tacles à Orange

Durant la présentation de son rapport, Célia de Lavergne en profitait pour revenir sur un point important relatif au fonctionnement du service universel : « c'est une mécanique d'abonnement. Vous avez souscrit un certain abonnement, mais au fond vous utilisez le même vecteur que tous les réseaux cuivre ». On peut avoir un abonnement xDSL sans passer par le service universel ou même sans le savoir.

« Et c'est un peu d'ailleurs là-dessus qu’Orange joue quand il y a un débat public sur le financement de l'entretien du réseau cuivre. On a 24 millions de personnes qui en dépendent [du réseau cuivre, pas du service universel, ndlr], et donc il y a tout le sujet de l'entretien du réseau dans son ensemble ».

Elle présente le service universel comme « un filet de sécurité de minimum de service. À partir du moment, il s'applique au service universel, il s'applique à tous les usagers du réseau cuivre […]  Ça permet de définir le minimum acceptable selon nous, politiquement et techniquement d'ailleurs par rapport à l'opérateur ».

Durant son audition, la rapporteure est revenue aussi sur la question de la sous-traitance des lignes, qui est une conséquence de la gestion d’Orange : « Elle arrive du fait qu’Orange n'a pas investi dans le cuivre […] Ils sont passés de 70 000 à 15 000 techniciens en 15 ans ».

Après avoir drastiquement diminué les effectifs, ils « sont aussi passés par la sous-traitance parce qu'ils ont pensé que c'était moins cher que c'était plus simple, dégradant clairement le service ». Quand les pouvoirs publics et/ou le régulateur tapent du poing sur la table et demandent d’améliorer la qualité de service, « ça les force à recruter ». Pour la députée, cela démontre clairement que l’opérateur historique sait parfaitement où se trouve le problème.

Autre exemple. Suite à la mise en demeure de l’Arcep en 2018, « ils avaient dit 200 techniciens, dont 70 pour la Drôme et l'Ardèche. On en a 149, je n’ai pas fait le calcul pour la Drôme Ardèche, mais ça veut dire qu'ils savent très bien où sont les points noirs. Avec ce qu'on vous propose, on va le savoir davantage, comme l'ensemble des citoyens ».

Pour bien enfoncer le clou, elle « insiste sur un point qui [lui] tient à cœur » : « Quand vous avez été propriétaire et gestionnaire de réseau aussi structurant que celui du réseau cuivre pendant 40 ans, vous ne pouvez pas vous dédouaner de ces responsabilités. Vous êtes responsable jusqu'au bout, vis-à-vis de tous les citoyens et vis-à-vis du démantèlement jusqu'au dernier jour et moi j'appelle Orange à prendre ses responsabilités sur ces sujets-là ». 

Nous avons demandé à Orange sa position vis-à-vis des déclarations de Célia de Lavergne et du rapport de la Commission. Il faudra également voir ce qu’en fera l’Arcep et sa nouvelle présidente, qui attaque son mandat par un sujet brulant.

Mars : la sonde européenne TGO permet « d’explorer l’atmosphère comme jamais auparavant »

11 février 2021 à 14:29

L’Agence spatiale européenne détaille deux publications issues des données de sa sonde Trace Gas Orbiter (TGO). La première concerne la détection d’un nouveau gaz qui ouvre le chapitre d’un « nouveau cycle chimique à comprendre », tandis que la seconde améliore notre compréhension de la perte de l’eau.

Mars est au cœur des attentions de plusieurs pays depuis plusieurs mois. L’été dernier, l’Agence spatiale américaine envoyait sa mission Mars 2020 en direction de la planète rouge, avec le rover Perseverance à son bord. Le but est de chercher des traces de vies passées dans le sol martien et de préparer des échantillons prometteurs pour une éventuelle mission de récupération par la suite. 

1…2… et 3 sondes arrivent autour de Mars

L’Europe devait aussi envoyer sa propre sonde – avec la seconde partie de la mission ExoMars – mais le lancement a été retardé de deux ans, après un premier report de deux ans en mai 2016. Rater une fenêtre de tir oblige en effet à une longue attente, le temps que les planètes se retrouvent à nouveau dans un alignement favorable, c’est-à-dire quand elles sont au plus proches l’une de l’autre.

Deux autres nations se sont également lancées dans l’aventure : les Émirats arabes unis avec la sonde Al-Amal et la Chine avec sa mission Tianwen-1. Cette dernière doit en plus tenter de poser un atterrisseur sur la surface de la planète, puis y déployer un robot.

Pour le moment, les deux sondes viennent de s’insérer sur une orbite martienne. Les deux nations deviennent donc les cinquième et sixième à placer un engin spatial autour de Mars (en plus des États-Unis, de l’Europe, de l’URSS et de l’Inde). Elles rejoignent ainsi les sondes déjà en place, qui effectuent des mesures et des relevés depuis des années déjà, de quoi ouvrir de nouvelles perspectives avec de nouvelles données.

De son côté, l’Agence spatiale européenne fait le dos rond en attendant le lancement d’ExoMars 2022, mais profite tout de même de l’effervescence mondiale pour faire une double annonce : « ExoMars découvre un nouveau gaz et retrace la perte d’eau sur Mars ». 

« Du chlorure d’hydrogène pour la première fois sur Mars »

Petit retour en arrière. La première partie de la mission ExoMars a décollé en mars 2016 et s’est placée en orbite en octobre de la même année. La sonde a ensuite passé plusieurs mois à réduire sa vitesse et abaisser son orbite. Ce n’est qu’en mars-avril 2018 que Trace Gas Orbiter (TGO) a « fini de surfer » sur l’atmosphère, qu’elle trouve sa place définitive et que les observations scientifiques peuvent débuter. Pour rappel, l’atterrisseur Schiaparelli a connu un funeste destin, finissant éparpillé façon puzzle à la surface de la planète.

Il s’agissait là d’une moitié de la mission, l’ESA peut continuer à faire de la science avec son orbiteur qui fonctionne comme prévu. L’Agence ne s’en prive d’ailleurs pas. Les premiers résultats tombent en avril 2019 avec « de nouvelles preuves de l’impact qu’a eu l’orage de poussière à l’échelle planétaire sur l’eau dans l’atmosphère, et la surprenante absence de méthane ».

En juin 2020, Trace Gas Orbiter détectait « une lueur verte d’oxygène dans l’atmosphère de Mars », puis des « signatures inédites d’ozone (O₃) et le dioxyde de carbone (CO₂) » en septembre. Récemment, la caméra CaSSIS de la sonde prenait sa 20 000e photo de la planète. Aujourd’hui, l’Agence spatiale européenne annonce donc la découverte  d’un nouveau gaz dans l’atmosphère. 

« Nous avons découvert du chlorure d’hydrogène [ou HCl, composé d’un atome d’hydrogène et d’un de chlore, ndlr ] pour la première fois sur Mars. Il s’agit de la première détection d’un gaz halogène dans l’atmosphère de Mars, et cela représente un nouveau cycle chimique à comprendre », se réjouit Kevin Olsen, un des principaux scientifiques à l’origine de cette découverte.

D’où vient-il ? Les scientifiques ont des pistes…

Les gaz à base de chlore (ou de soufre) représentent un enjeu particulier dans l’étude des planètes : « ils sont des indicateurs possibles de l’activité volcanique », explique l’Agence spatiale européenne. Mais ce n’est pas le cas cette fois, pour deux raisons principalement : des détections simultanées dans des endroits très éloignés (les deux hémisphères en l’occurrence) et l’absence d’autres gaz que l’on retrouve normalement en cas d’activité volcanique.

Pour les chercheurs, cela « suggère une interaction surface-atmosphère entièrement nouvelle, due aux saisons de poussière sur Mars, qui n’avait pas été explorée auparavant ». Une hypothèse confortée par un autre point : le gaz a été détecté « lors d'une tempête de poussière sur toute la planète en 2018 et il a de nouveau disparu par la suite », avant de revenir avec la nouvelle saison des poussières sur la planète. 

Pour rappel, l’importante tempête de 2018 avait obscurci le ciel et recouvert les panneaux solaires du rover Opportunity, conduisant à la fin de cette mission

Voilà, selon les scientifiques, le procédé de formation de ce chlorure d’hydrogène : 

« Dans le cadre d’un processus très similaire à celui observé sur Terre, les sels sous forme de chlorure de sodium – vestiges des océans évaporés et encastrés dans la surface poussiéreuse de Mars – sont soulevés dans l’atmosphère par les vents.

La lumière du soleil réchauffe l’atmosphère, ce qui provoque l’ascension des poussières, ainsi que de la vapeur d’eau libérée par les calottes glaciaires. Les poussières salées réagissent avec l’eau atmosphérique pour libérer du chlore, qui lui-même réagit avec les molécules contenant de l’hydrogène pour créer du chlorure d’hydrogène.

D’autres réactions pourraient voir la poussière riche en chlore ou en acide chlorhydrique remonter à la surface, peut-être sous forme de perchlorates, une classe de sel composée d’oxygène et de chlore. »

Bien évidemment, « des tests approfondis en laboratoire et de nouvelles simulations atmosphériques globales seront nécessaires pour mieux comprendre l’interaction surface-atmosphère à base de chlore, ainsi que des observations continues sur Mars pour confirmer que la hausse et la baisse du HCl sont dues à l’été de l’hémisphère sud ».

Dans tous les cas, c’est une « étape majeure pour la mission ExoMars Trace Gas Orbiter », affirme Håkan Svedhem, scientifique du projet.

ESA TGO

De nouveaux « indices sur l’évolution du climat »

En parallèle de cette découverte, l’Agence spatiale européenne annonce avoir trouvé de nouveaux « indices sur l’évolution du climat ». Pour rappel, les experts s’accordent pour dire que l’eau s’écoulait autrefois sous forme liquide à la surface de la planète, comme en témoignent les traces laissées par d’anciennes vallées et canaux  de rivières maintenant asséchés. Pour la NASA, on pourrait même en trouver à notre époque, mais il ne s’agit que d’hypothèses pour le moment.

On est par contre certain que, actuellement, elle est présente sous forme de glace dans les calottes et enfouie sous la surface de la planète. Dans le même temps, Mars continue aujourd’hui de perdre de l’eau « sous forme d’hydrogène et d’oxygène s’échappant de l’atmosphère » et des questions demeurent encore sur la compréhension de l’évolution du climat de notre voisine.

Pour essayer d’y répondre, il faudrait pouvoir comprendre l’interaction des différents « réservoirs » d’eau présents sur Mars, et leurs comportements saisonniers sur le long terme. Un des moyens d’y arriver est d’étudier des vapeurs d’eau et d’eau « semi-lourde », c’est-à-dire quand un atome d’hydrogène (H) est remplacé par un atome de deutérium (D). Le deutérium est pour rappel une forme d’hydrogène avec un neutron supplémentaire.

Le rapport D/H fait office de chronomètre

Plus précisément, les scientifiques étudient le rapport deutérium sur hydrogène, c’est-à-dire D/H : « c’est notre chronomètre – une mesure puissante qui nous renseigne sur l’histoire de l’eau sur Mars, et sur l’évolution de la perte d’eau au fil du temps ».

Mais comment fonctionne-t-il ? Laurette Piani (chargée de recherche CNRS) donnait des explications sur son site personnel : 

Les chercheurs « utilisent ce rapport isotopique pour estimer la quantité d’eau qui a été perdue par évaporation dans l’espace depuis la formation de la planète. En effet, les molécules d’eau contenant du D (HDO) s’évaporent moins facilement que celles qui ne contiennent que du H (H₂O). L’eau qui reste après évaporation va donc posséder un rapport D/H plus élevé que l’eau initiale.

Supposant un rapport D/H initial similaire à celui de l’eau des minéraux de météorites martiennes [qui ont emprisonné de l’eau durant leurs formations, il y a 4,5 milliards d’années, ndlr], les chercheurs ont évalué la quantité d’eau perdue pour obtenir le rapport actuel et estimé le temps nécessaire pour évaporer cette eau. »

TGO améliore la précision du « chronomètre »

Cette technique n’est pas nouvelle, loin de là, mais la sonde Trace Gas Orbiter permet de « mieux comprendre et calibrer ce chronomètre et tester de nouveaux réservoirs d’eau potentiels sur Mars », explique Geronimo Villanueva, auteur principal de cette nouvelle conclusion. 

Avec les données récoltées avec TGO, l’eau vaporisée dans l’atmosphère présente « un rapport D/H six fois supérieur à celui de la Terre dans tous les réservoirs de Mars, ce qui confirme que de grandes quantités d’eau ont été perdues au fil du temps ».

Ce n’est pas tout : les mesures effectuées entre avril 2018 et avril 2019 montrent « trois cas d’accélération de la perte d’eau dans l’atmosphère : la tempête de poussière mondiale de 2018, une tempête régionale courte, mais intense en janvier 2019, et la libération d’eau de la calotte polaire sud pendant les mois d’été liée au changement de saison ».

L’été relativement chaud de l’hémisphère sud « semble être le moteur de nos nouvelles observations telles que la perte accrue d’eau dans l’atmosphère et l’activité de la poussière liée à la détection du chlorure d’hydrogène, que nous constatons dans les deux dernières études », explique Håkan Svedhem, scientifique du projet TGO.

ESA TGO

Explorer l’atmosphère « comme jamais auparavant »

Ann Carine Vandaele, chercheuse principale de l’instrument scientifique NOMAd (Nadir and Occultation for MArs Discovery) fait une comparaison : « c’est comme si nous n’avions eu qu’une vue en 2D. À présent, nous pouvons explorer l’atmosphère en 3D ». Une possibilité permise grâce à un « niveau de détail » qu’il était « impossible » d’atteindre sans TGO. En effet, les mesures ne donnaient auparavant qu’une moyenne sur la profondeur de l’atmosphère entière.

« Les observations du Trace Gas Orbiter nous permettent d’explorer l’atmosphère martienne comme jamais auparavant », affirme-t-il en guise de conclusion. L’Agence spatiale européenne veut désormais coordonner des observations avec d’autres sondes, dont MAVEN de la NASA afin d’obtenir « des informations complémentaires sur l’évolution de l’eau au cours de l’année martienne ».

Instagram serre la vis sur les DM injurieux

11 février 2021 à 08:52

La politique d’Instagram était jusqu’à présent la suivante : en cas de schéma détecté de messages injurieux envoyés à répétition, le compte qui les émet se voit privé de cette fonctionnalité pendant un temps déterminé.

Le service durcit le ton, dans le sillage de violentes attaques racistes contre plusieurs joueurs anglais de football, dont Axel Tuanzebe, Anthony Martial et Marcus Rashford de Manchester United.

Désormais, les mêmes constats n’aboutiront plus à un blocage temporaire, mais à une suppression du compte pour non-respect des règles du service. Si le service détecte une réinscription de la personne pour contourner ces mesures, même résultat.

Instagram prépare également plusieurs chantiers. Une option sera bientôt – et enfin ! – proposée pour ne plus accepter les messages privés venant de comptes que l’on ne suit pas. Le service préparerait également une fonction pour aider à gérer les messages injurieux, mais sans en dire plus pour le moment.

Intel poursuit un ancien employé pour avoir volé des documents sur ses Xeon

10 février 2021 à 09:15

Varun Gupta a travaillé dix ans chez Intel avant de partir en janvier 2020 occuper un poste important chez Microsoft, dans la planification stratégique du cloud et de l’intelligence artificielle.

Le problème est survenu quand Gupta a été chargé de négocier avec Intel l’obtention de Xeon personnalisés, ainsi que leur tarif en faisant valoir les volumes importants des commandes que Microsoft passerait.

Dans sa plainte, Intel indique que les informations alors données par Gupta étaient confidentielles et ne pouvaient provenir que de son ancien poste.

Après quoi, une équipe de sécurité chez Intel s’est emparée du problème, avec l’assistance de Microsoft. Ils ont pu déterminer que 3 900 documents avaient été copiés sur une clé USB FreeAgent GoFlex de Seagate, et d’autres informations sur un disque dur externe USB My Passport de Western Digital.

Ces informations ont ensuite été utilisées à de multiples reprises chez Microsoft. Par exemple, le disque USB a été branché 114 fois sur la Surface de Gupta entre les 3 février et 23 juillet 2020.

Gupta nie les faits. Intel demande un procès devant un jury et des dommages et intérêts d’au moins 75 000 dollars, en plus d’un remboursement des frais juridiques et d’une mesure pour empêcher Gupta de tout nouvel accès aux données.

❌
❌