Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Trappist-1 : les sept exoplanètes pesées « avec une précision inédite »… mais comment fait-on ?

27 janvier 2021 à 11:05

Dans l’espace, il n’y a pas de balance pour « peser » les exoplanètes, encore moins celles se trouvant à des dizaines d’années-lumière. Tels des MacGyver de l’espace, les scientifiques ont simplement besoin d’un chronomètre et de la patience pour pouvoir estimer/déduire la masse des exoplanètes. Explications.

Cela fait maintenant presque quatre ans que le système solaire Trappist-1 a fait parler de lui. Autour de son étoile (Trappist-1a) orbitent sept exoplanètes (Trappist-1b à 1h) de taille et masse comparables à celles de la Terre. Une découverte importante sur le plan scientifique, d’autant que certaines peuvent en plus abriter de l’eau liquide, mais qui a (comme toujours en pareille situation) lancé la machine a spéculations et fantasmes.

Une précision de 3 à 5 % sur la masse des exoplanètes

Dans un article scientifique tout juste publié par Planetary Sciences Journal (mais qui était déjà disponible sur ArXiv depuis octobre 2020), une équipe de chercheurs emmenée par Éric Agol annonce avoir caractérisé avec une « précision inédite » les sept exoplanètes.

C’est notamment le cas de leur masse avec une « précision de 3 % à 5 % », de leur rayon et de divers paramètres orbitaux. Toutes les données brutes sont disponibles par ici, mais ne représentent pas un intérêt particulier pour le grand public.

Cette publication est néanmoins l’occasion d’expliquer comment les scientifiques ont réussi à estimer avec une telle précision la masse d’exoplanètes situées à près de 40 années-lumière de la Terre. Réponse courte : avec un chronomètre, de l’ingéniosité et beaucoup de calculs.

On sort le chronomètre pour mesurer le « Transit Timing Variations »

Depuis la Terre, on ne peut pas observer directement les exoplanètes, car elles sont bien trop petites et n’émettent pas de lumière contrairement aux étoiles. Les astronomes ont néanmoins une astuce à leur service : la méthode du transit.

Pour faire simple, il s’agit de mesurer la lumière envoyée par une étoile et de traquer les petites baisses de luminosités, signes du passage d‘une exoplanète dans le champ. En mesurant le temps entre deux transits, les chercheurs peuvent en déduire rapidement la période orbitale. 

L’astrophysicien Franck Selsis (CNRS, laboratoire d'astrophysique de Bordeaux) ayant participé aux travaux rappelle qu’une « planète orbitant seule ou suffisamment loin de ses autres compagnons planétaires gravite autour de son étoile sur une orbite strictement périodique, dite képlérienne, et son année a une durée fixe invariable ».

Les choses se compliquent lorsque d’autres exoplanètes sont présentes : dans ce cas, « l’orbite est perturbée ». Ce sont notamment de petits décalages dans l’orbite d’Uranus qui ont conduit Urbain Le Verrier à prédire l’existence de Neptune en 1846, uniquement par le calcul. 

Dans le cas de Trappist-1, les sept exoplanètes se tiennent dans un mouchoir de poche (ou presque), chacune modifiant donc plus ou moins les orbites de ses sœurs : « Les interactions gravitationnelles entre les planètes font que ces transits ne se produisent pas de façon strictement périodique, mais avec une avance ou un retard pouvant atteindre plusieurs dizaines de minutes. On appelle le chronométrage de ces retards et avances des TTV (Transit Timing Variations) ».

Trappist-1
Crédits : CNRS

447 transits opposés à des simulations

Les écarts de temps dépendent de plusieurs paramètres : « période orbitale, excentricité, inclinaison des orbites entre elles et bien entendu de la masse des planètes », détaille Franck Selsis. « Si nous connaissions parfaitement ces grandeurs, nous pourrions prédire tout aussi parfaitement le moment exact des transits. Mais le problème inverse consistant à caractériser les planètes et leurs orbites à partir du chronométrage des transits est autrement plus complexe… », explique-t-il.

Pour affiner leurs modèles, les chercheurs ont pu s’appuyer sur pas moins de 447 mesures de transits, dont une grosse partie vient de télescopes dans l’espace : 188 pour Spitzer et 122 pour K2. Plus une exoplanète est proche de son étoile, plus elle fait un tour rapidement et donc plus le nombre de transits mesurés sur une période est important. Trappist-1b a eu droit à 160 mesures, 1c à 107, et ainsi de suite jusqu’à 1h avec 14 transits.

Le principe de base est le suivant : les chercheurs lancent alors des simulations complexes « avec un modèle à huit corps [une étoile et sept exoplanètes, ndlr] en essayant à chaque simulation un jeu de masses et de paramètres orbitaux différent ». Ils ne conservent ensuite que les simulations « compatibles avec les observations, qui contraignent ainsi ces paramètres ».

Simple en théorie, mais en pratique « cela fait beaucoup de paramètres indépendants et cette méthode pourrait prendre un temps considérable même sur de puissants ordinateurs ; il a donc fallu imaginer des méthodes statistiques beaucoup plus malignes, et inédites, pour explorer cet espace des paramètres », explique Franck Selsis sans pour autant entrer dans les détails. Dans tous les cas, le principe de base est là. 

Trappist-1

Crédits : The Planetary Science Journal

La réalité colle parfaitement à la simulation (et vice-versa)

D’autres exoplanètes se trouvent-elles dans le système Trappist-1 ? Pour le chercheur du CNRS, « il n’y a pas de place entre les planètes, mais il pourrait y avoir des planètes au-delà de la planète h (la plus externe) ou entre l’étoile et la planète b (la plus interne) ». 

En théorie, de telles exoplanètes pourraient ne jamais passer devant leur étoile à cause d’une orbite plus inclinée, mais les mesures et les simulations semblent dire le contraire : « Dans ce cas, selon les masses et les orbites de ces planètes additionnelles, nous aurions pu nous trouver incapables de reproduire les variations de temps de transit du système. Mais ce n’est pas le cas. On pourrait également améliorer cet accord en ajoutant une planète, mais ce n’est pas non plus ce qui se passe ».

Pour autant, l’existence d’au moins une autre exoplanète n’est pas totalement à exclure, mais elle serait alors « trop peu massive ou trop loin pour perturber les planètes connues de façon détectable dans les données actuelles ».

Trappist-1Trappist-1

James Webb maintenant attendu de pied ferme

Améliorer significativement nos connaissances sur leurs masse et diamètre permet de faire de même sur les hypothèses concernant leur composition, notamment la teneur en eau : 

« On voit que la densité des planètes est compatible avec une composition à peu près terrestre, légèrement moins dense. Cette densité plus faible peut s’expliquer de différentes façons : soit par une plus grande teneur en eau que la Terre (qui vaut un peu moins que 0,1 % de sa masse), soit par une teneur moindre en fer.

Nous pouvons mettre des limites supérieures sur la quantité d’eau : pour les planètes externes, à partir de la planète e, la teneur en eau ne peut dépasser 5–10 % de la masse totale. Pour les planètes plus internes (b, c et d) où l’eau ne peut exister à l’état liquide et doit former une atmosphère, la contrainte est plus forte car le rayon apparent de la planète est très augmentée par une telle enveloppe de vapeur : ces planètes sont au moins 10 % plus sèches que la Terre ».

Maintenant que Trappist-1 est mieux connu, les astronomes peuvent faire le chemin inverse : utiliser les simulations pour prévoir les transits afin de « planifier et optimiser les observations avec le télescope spatial James Webb qui sera lancé » en octobre 2021, sauf s’il est de nouveau retardé.

Les chercheurs pourront alors poursuivre la caractérisation des sept exoplanètes et, pourquoi pas, essayer d’observer leur atmosphère , si elles en ont une. Une ligne à ajouter dans la déjà longue liste des choses à faire…

Tweetbot 6 passe à l’abonnement et table sur l’API v2 de Twitter

27 janvier 2021 à 09:41

Nouvelle version majeure pour le client tiers Tweetbot, connu sur iOS pour sa légèreté et ses performances. Si les fonctions n’ont que peu progressé, on y trouvera quelques raffinements esthétiques, comme des thèmes supplémentaires et de nouvelles icônes pour l’écran d’accueil.

Le champ fonctionnel progresse en fait par l’adoption de la version 2 de l’API officielle fournie par Twitter. Cette fameuse API que le réseau social a volontairement limitée depuis des années pour étouffer les clients tiers

L’entreprise a cependant promis des efforts sur ce terrain, et la version 2 propose notamment, en plus de quelques améliorations d’ordre général, le support des sondages. 

Les utilisateurs seront cependant beaucoup à être frustrés du passage à l’abonnement, même si celui de Tweetbot reste raisonnable, surtout dans sa formule annuelle : 0,99 euro par mois ou 6,49 euros par an.

Point important, la nouvelle mouture provoque le retrait de l’ancienne dans l’App Store. Les possesseurs d’une licence Tweetbot 5 la garde bien sûr et pourront la récupérer. Mais les nouveaux venus ne pourront plus choisir entre licence perpétuelle et abonnement.

Retour sur deux piliers du Plan Quantique en France : l’ordinateur et les communications

26 janvier 2021 à 14:22

Avec l’informatique quantique, « nous sommes véritablement entrés dans une nouvelle ère ». C’est le cas des communications où la « révolution » est déjà là, mais aussi des ordinateurs où elle est en embuscade. Des chercheurs du CEA et CNRS font le point sur l’avancement des travaux et reviennent sur le Plan Quantique français.

La semaine dernière, Emmanuel Macron dévoilait le Plan Quantique de la France, avec un financement de 1,8 milliard d’euros sur cinq ans à la clé. Il se décompose en plusieurs tranches, notamment pour mettre au point des machines quantiques (en deux phases), développer les communications, les capteurs et la recherche fondamentale.

Afin d’aller au-delà du simple discours politique, le CEA et le CNRS avaient organisé une conférence de presse avec près d’une dizaine de chercheurs travaillant sur les différents aspects du quantique et de leurs applications au quotidien (ou presque).

Avant d’entrer dans les détails, Sébastien Tanzilli (chargé de mission technologies quantiques au CNRS) et Philippe Chomaz (directeur scientifique à la Direction de la recherche fondamentale du CEA) dressaient un panorama de l’implication du quantique dans notre monde actuel. 

Notre dossier sur le Plan Quantique en France : 

« Nous sommes véritablement entrés dans une nouvelle ère »

Ce dernier commence par rappeler que la mécanique quantique est une « théorie inventée au début du 20e siècle pour comprendre la matière, les atomes, les électrons, la lumière et leurs interactions ». Depuis, elle a permis de développer énormément de technologies sur de vastes domaines d’applications comme « l'information, les lasers, l'électronique, les transistors, les ordinateurs, les smartphones ». Si bien que, pour le chercheur, on est déjà « aujourd'hui une société entièrement quantique ».

La première question que l’on peut légitimement se poser est donc de se demander pourquoi lancer un Plan Quantique début 2021 alors que la mécanique et les technologies quantiques ont déjà plus d’une centaine d’années et des applications dans la vie courante. 

Prenant le relai, Sébastien Tanzilli explique que la réponse est… « à la fois complexe et simple », comme c’est finalement un peu toujours le cas dans le monde du quantique. Réponse courte : « nous sommes véritablement entrés dans une nouvelle ère […] après des années et des années de recherche et de développement », explique le chercheur du CNRS.

Les quatre piliers de la recherche en « quantique »

La « nouveauté », c’est qu’on est désormais capable de contrôler individuellement et collectivement – le second point est le plus important – des systèmes quantiques tels que des électrons, atomes ou photons. « Cette capacité nous permet d'accéder véritablement à des propriétés de la physique quantique, [qui] sont disruptives pour tout un ensemble de technologies, qui s'apparente au traitement et à la communication de l'information ».

Le sujet principal pour Sébastien Tanzilli est donc de savoir : « qu'est-ce qu'on pourra faire demain que nous ne pouvons pas faire aujourd'hui ou pas de manière optimale », aussi bien dans les domaines du calcul, des mesures et des communications. Sans oublier la recherche fondamentale, une part extrêmement importante de la physique mécanique, informatique ou quantique.

Philippe Chomaz détaille un peu les propos de son collègue et l’intrication des champs de recherches : « les capteurs quantiques vont créer et mesurer l’information, la communication quantique va la transférer et le calcul quantique va transformer cette information ». Le Plan Quantique présenté hier a justement « pour objectif de permettre à la France d'être un acteur fort » dans l’ensemble de ces domaines.

Sécuriser « de manière "ultime" » les communications

Sébastien Tanzilli commence par revenir sur les communications, où la physique quantique peut servir à échanger des clés secrètes pour les algorithmes de cryptographie. Elles peuvent ainsi « être utilisées dans des protocoles de communication ou de cryptographie pour sécuriser de manière "ultime" les échanges de données qui transitent au travers ou entre des systèmes d'information ». Les communications peuvent passer par des fibres optiques ou des satellites qui, selon les cas, peuvent être la source et/ou le récepteur du signal.

Avec le Plan Quantique, 325 millions d’euros sont consacrés aux communications, en faisant le second poste de dépense après la construction d’ordinateurs quantiques (en deux phases). L’objectif « réside véritablement dans la construction de réseaux de communication quantique sur les bases des réseaux télécoms existants », affirme Sébastien Tanzilli. Et ce ne sont pas les pistes de travail qui manquent. Voici deux exemples : quelles sources de photons utiliser et quels protocoles mettre en œuvre pour garantir la sécurité des liens ?

Eleni Diamanti (chercheuse du CNRS au laboratoire LIP6), rappelle que des technologies sont déjà disponibles dans le commerce pour la distribution quantique de clés, permettant « un niveau de sécurité de communication plus élevé et ce que l'on pourrait attendre avec les communications modernes traditionnelles ». Sur ce point, on est donc au-delà de la théorie depuis des années, mais l’usage est « plutôt limité » pour le moment. Le but de la recherche – aidée par les fonds supplémentaires – est de démocratiser cette technologie.

Nicolas Sangouard (chercheur à l’Institut de physique théorique de CEA-Paris-Saclay) rappelle tout de même que « ces systèmes commerciaux n'exploitent pas pleinement le potentiel de la quantique. Ils reposent par exemple sur un niveau de confiance des appareils utilisés ». Des améliorations sont donc possibles.

Une des thématiques abordées par les chercheurs est de savoir « comment justement rendre ces prototypes plus sûrs en reposant leur sécurité sur moins d'hypothèses ». Le but ultime – Nicolas Sangouard en parle comme d’un « rêve » – serait « par exemple des systèmes où même si on ne connait pas la provenance des appareils ni leur fonctionnement, on pourrait utiliser les communications quantiques pour sécuriser les communications ».

Le chercheur ajoute que les systèmes actuels ne fonctionnent que « sur des distances réduites », même si elles s’allongent régulièrement au fil du temps. Avec d’autres chercheurs, Nicolas Sangouard « rêve d'un Internet quantique, un Internet avec une sécurité ultime », mais cela « passe par de gros programmes de recherche nationaux et européens ».

L’annonce du Plan Quantique va dans le bon sens pour Nicolas Sangouard : « on a plein d'énergie et on est maintenant content d'avoir les moyens pour développer ces ambitions ».

Se préparer aujourd’hui à la révolution de demain

Pour le scientifique du CEA, il ne faut pas attendre pour sécuriser les communications : « malgré le fait que cette technologie [un ordinateur quantique, ndlr] n'existe pas encore, c'est déjà une menace pour la sécurité, puisque la plupart des communications actuelles sont effectivement codées avec des problèmes mathématiques qui pourront dans le futur être cassés avec des ordinateurs quantiques ». Google par exemple testait déjà mi-2016 des algorithmes post-quantiques, c’est-à-dire capables de résister à de telles machines.

L’avenir soulève ainsi des questions déjà concrètes : « indépendamment qu’il faille trois, cinq ou dix ans […] si on stocke l’information qui est échangée à l’heure actuelle ou pourra l’échanger dans trois, cinq ou dix ans ». Cela n’a rien de nouveau, des agences de renseignements (c’est le cas de la NSA par exemple) stockent depuis déjà des années des données chiffrées dans l’attente de récupérer un jour la clé, de disposer d’une faille ou d’un ordinateur assez puissant (une machine quantique par exemple) pour casser le chiffrement par la « force ».

Ce n’est d’ailleurs pas pour rien que, dans le Plan Quantique du gouvernement, 150 millions d’euros sont dédiés à la cryptographie post-quantique, dont le but est évidemment de « sécuriser les communications ». Eleni Diamanti, qui travaille sur ce sujet, affirme que « la France est très bien positionnée dans les systèmes cryptographiques post-quantiques ». Il faut donc garder ce leadership.

La chercheuse revient au passage sur l’état actuel de la recherche : « L’idée d’un système de cryptographie hybride qui combine de façon complémentaire et avantageuse les algorithmes de cryptographique quantique et post quantique, c’est la solution la plus poursuivie par les chercheurs […] ça promet une sécurité maximale dans tous les cas d’usages imaginables ».

La quête d’un vrai ordinateur quantique

Philippe Chomaz évoque ensuite le second pilier du Plan Quantique : le calcul et les machines quantiques, objets de tous les fantasmes ou presque. Le financement de près de 800 millions d’euros (quasiment 50 % du Plan) laisse à priori toutes les portes ouvertes. Les scientifiques peuvent travailler sur des concepts et dispositifs afin de réaliser « un ordinateur quantique qui permet de résoudre des problèmes inaccessibles à la puissance d'un calculateur classique ». Aucune piste n’est officiellement privilégiée pour le moment.

Dans le lot, il y a par exemple l’« ordinateur quantique à base de silicium ». Maud Vinet (responsable du programme matériel quantique au CEA-Leti) rappelle que, en 2016, une première mondiale a été annoncée : « on a utilisé une technologie quasi industrielle qui sert à fabriquer des transistors pour fabriquer un bit quantique ».

Interrogée par un de nos confrères pour savoir où en est cette technologie aujourd’hui, la scientifique explique : « une grande partie de notre travail est de comprendre tous les paramètres matériaux et technologiques qui vont avoir un impact sur la performance du qubit pour être capable d'en mettre plusieurs millions ». Un qubit en effet ne sert à rien pour les calculs, il en faut des dizaines, des centaines, des milliers…

Cette perspective est néanmoins encore lointaine : « à l'état de l'art dans le monde académique, il y a eu quatre qubits qui ont été démontrés dans les technologies semi-conducteurs ». Pas de quoi révolutionner le monde de l’ordinateur quantique, ou de fanfaronner vis-à-vis de Google et son système à 53 qubits.

Pour rappel, la société en avait profité pour revendiquer la suprématie quantique, démentie rapidement par d’autres acteurs et chercheurs. Comme nous l’avons récemment expliqué, savoir si la barrière mythique est franchie n’est pas le plus important. « On est à un point de bifurcation » et le prochain embranchement sera de « faire un calcul utile, c'est-à-dire battre un calculateur classique sur quelque chose d'utile ». 

Il faut tenter le « pari du silicium »… sera-t-il payant ?

Maud Vinet tient par contre à préciser que ce serait un peu réducteur de comparer ainsi l’ordinateur quantique à base de silicium à celui de Google, car « il y a tout un travail technologique qui est préparatoire à pouvoir mettre beaucoup de qubits ». 

Tristan Meunier (chercheur du CNRS à l’Institut Néel) donne de la perspective : « notre stratégie c’est de partir d'un système qui est directement intégrable en utilisant les technologies de la microélectronique. Mais ceci a un coût, ça veut dire qu'on est en retard à l'heure actuelle par rapport à la recherche académique. Mais sur le long terme, on peut penser que notre stratégie sera payante ».

Pour Philippe Chomaz, il est « essentiel » de tenter ce « pari du silicium », car cela « pourrait permettre d'atteindre, avec les technologies de la microélectronique, un ordinateur avec un très grand nombre de qubits dans un horizon de la décennie ». On se donne donc rendez-vous dans plusieurs années pour voir où en sera chacun et quelles technologies auront pris de l’avance et auront encore un avenir devant elles.

Dans le prochain et dernier article de notre série, nous reviendrons sur la révolution des capteurs quantiques, ainsi que sur l’importance de la recherche fondamentale et d’une politique commune en Europe.

Avec Birdwatch, Twitter passe à la lutte communautaire contre la désinformation

26 janvier 2021 à 09:24

Birdwatch est le nom d’un nouveau programme dont les tests ont débuté hier aux États-Unis. Un millier de personnes environ seront embarquées pour un objectif clair : lutter contre la désinformation.

Le programme permet à ces personnes d’écrire des notes sur des tweets, via une interface spécifique. Ces notes peuvent contenir des renseignements issus de recherches. 

L’idée est donc qu’un tweet puisse être accompagné d’informations mettant en cause la véracité de l’information fournie. Pour l’instant, ces notes ne sont pas affichées sur Twitter, mais sur le site Birdwatch dédié, public mais disponible uniquement aux États-Unis.

Les participants pourront également noter les informations données par d’autres, pour évaluer leur pertinence. Lorsqu’un consensus semblera établi, les commentaires seront publiés sur Twitter, c’est du moins l’objectif à terme. Les notes intègreront directement le système de recommandation du réseau.

Twitter fait un coup double : ne pas s’occuper lui-même de cette vérification, et présenter l’idée comme démocratiquement efficace. Les premiers retours seraient en effet très positifs, vantant justement l’approche communautaire. 

Le réseau compte bien capitaliser sur cet aspect et annonce que tout sera transparent dans Birdwatch, en particulier l’ensemble des commentaires formulés, déjà disponibles sous forme de fichier TSV. Même chose pour les algorithmes du système de classement, dont les itérations seront publiées sur Birdwatch Guide. Une première version est déjà disponible.

L’espoir de Twitter est que cette fonction fournisse assez de contexte sur les tweets problématiques pour que le processus de réflexion sur la désinformation devienne plus commun et accessible. Pour l’entreprise, c’est la première étape pour rendre la communauté « résistante aux tentatives de manipulation ». Twitter veut s’assurer qu’elle ne sera « pas dominée par une majorité ou des préjugés ».

Le calendrier de Birdwatch est également une aubaine pour la société, prise dans les remous de sa décision de bannir le compte de Donald Trump : d’un côté les tenants du « pour » insistant sur la limite d’une liberté d’expression face aux nombreux avertissements, et de l’autre les « contre » dénonçant le pouvoir d’un acteur américain sur des questions relevant du débat public, de la démocratie et du rôle de l’État.

Un étonnant ballet cosmique de cinq exoplanètes « questionne les théories de formation planétaire »

25 janvier 2021 à 15:00

En combinant les données de plusieurs télescopes, des astronomes ont découvert un système solaire avec six exoplanètes, dont cinq font « à un véritable ballet cosmique autour de leur étoile centrale ». Pour les chercheurs, cela « questionne notre compréhension de la formation et de l’évolution des systèmes planétaires ».

Notre Système solaire est bien connu et documenté, notamment grâce aux nombreuses sondes d’explorations qui le parcourent depuis des dizaines d’années. La Terre est évidemment la planète sur laquelle nous avons le plus de données, mais Mars, Vénus et les autres ne sont pas en reste. 

Nous savons également bien comment le Soleil –  notre étoile – s’est formé et, avec lui, les planètes, la ceinture d’astéroïdes, le nuage de Oort, etc. De nombreux télescopes ont aussi participé à la découverte et aux premières analyses d’autres systèmes solaires dans l’univers. Autour des étoiles, on trouve parfois des exoplanètes, certaines plus ou moins semblables à la Terre de par leurs positions, leurs tailles, leurs densités, etc.

Aujourd’hui, l’European Southern Observatory nous emmène à 200 années-lumière de la Terre, dans le système TOI-178. Ce dernier est à la fois très loin de nous à la minuscule échelle de notre Terre, mais aussi juste à côté par rapport à l’immensité de l’Univers (la partie observable est une sphère de 93 milliards d'années-lumière de diamètre). Ce système était déjà connu, mais il est bien plus riche en exoplanètes que laissaient le penser les premières analyses.

« Des observations plus poussées nous ont permis de comprendre que le système n’était pas constitué de deux planètes orbitant à distance semblables de leur étoile, mais de plusieurs planètes situées dans une configuration bien particulière », explique Adrien Leleu, auteur principal de la publication à venir dans Astronomy & Astrophysics.

« Un ballet cosmique » d’exoplanètes

Les observations ont été faites via plusieurs sources, aussi bien au sol que dans l’espace : le satellite CHEOPS de l’Agence Spatiale Européenne spécialisé dans la traque d’exoplanètes, ainsi que les instruments NGTS et SPECULOOS de l’Observatoire de Paranal de l’ESO au Chili.

Ils étaient utilisés pour des mesures de transits, c’est-à-dire lorsque les exoplanètes passent devant leur étoile, provoquant donc une diminution de la lumière émise par celle-ci vue depuis le télescope. L’instrument ESPRESSO du Very Large Telescope (VLT) de l’ESO était aussi mis à contribution pour mesurer les vitesses radiales.

Au total, six exoplanètes ont été identifiées, affirment les astronomes. Elles sont « caractérisées par des dimensions comprises entre un et trois diamètres terrestres, leurs masses s’échelonnent entre 1,5 et 30 masses terrestres ». Dans notre Système solaire, Jupiter et Saturne sont bien au-delà de ces chiffres avec 1317 fois le volume et 317 fois la masse de la Terre pour la première, contre respectivement 757 et 95 fois pour la seconde.

Certaines sont rocheuses – comme Mercure, Vénus, la Terre et Mars – mais avec un diamètre supérieur à notre planète bleue, on parle alors de « super-Terres ». D’autres sont gazeuses – comme Jupiter et Saturne – mais avec un diamètre nettement inférieur à celui de Neptune, on parle alors de « mini-Neptunes ».

La planète la plus proche de l’étoile (donc aussi la plus rapide) fait un tour complet en quelques jours seulement – 88 jours pour Mercure, la plus proche du Soleil – tandis que la plus éloignée ne met que « dix fois plus de temps ». Là encore, ce n’est pas la même échelle que dans notre Système solaire ou Neptune met plus de 160 ans pour faire un tour.

Sur les six exoplanètes, les cinq plus éloignées de l’étoile ont un comportement particulier : elles « décrivent un ballet cosmique lorsqu’elles se déplacent sur leurs orbites respectives. En d’autres termes, elles sont en résonance », résume l’ESO. Cette particularité implique « que des configurations planétaires particulières se reproduisent à intervalles de temps réguliers, certaines planètes s’alignant à quelques orbites de distance ».

Une chaine de résonnance en cinq temps : 18:9:6:4:3

Un tel phénomène n’est pas nouveau ou inconnu. On le retrouve dans notre Système solaire, pas forcément avec les planètes, mais avec Jupiter et plusieurs de ses satellites naturels (Ganymède, Europe et Io) : ils sont dans une configuration 1:2:4. Cela signifie que quand Ganymede réalise une orbite compète autour de Jupiter, Europe en fait deux et Io quatre.

Les cinq planètes extérieures du système TOI-178 décrivent une chaîne de résonance de type 18:9:6:4:3. Pendant que la première planète du quintette décrit 18 tours autour de son orbite, la seconde en fait 9, la troisième 6, la quatrième 4 et la cinquième 3.

Dans le cas du système TOI-178, la chaîne de résonance est donc « bien plus complexe » qu’avec les lunes de Jupiter, ajoute l’European Southern Observatory. De plus, c’est l'une des chaines les « plus longues découvertes à ce jour au sein d’un système planétaire ».

Pour montrer en images et en musique le résultat, l’ESO publie un schéma des orbites avec une note de musique spécifique à chaque planète impliquée dans la résonnance : « cette note retentit lorsqu’une planète effectue une orbite complète ou une demi-orbite. Lorsque les planètes s’alignent à ces points précis de leur orbite, elles résonnent ».

Une exoplanète détectée grâce à des calculs

L’ESO explique que, « à l’origine, les scientifiques ne connaissaient l’existence que de cinq des six planètes du système. Mais en suivant le rythme de cette résonance, ils ont déterminé par le calcul la position qu’occuperait la sixième planète lors de leur prochaine fenêtre d’observation ». On calcule et on confirme ensuite par des observations, c’est l'un des fondements de l’astronomie moderne.

Au-delà de la « curiosité mathématique » – et en laissant de côté la première exoplanète qui n’est pas en résonnance avec les autres – cette situation « fournit de précieux indices concernant l’histoire du système » : « Les orbites de ce système planétaire sont parfaitement ordonnées [elles sont dans un ordre décroissant, ndlr], ce qui suggère que ce système a lentement et doucement évolué depuis sa naissance », explique Yann Alibert co-auteur de l’étude. En effet, en cas de perturbation majeure – un impact géant sur une des planètes par exemple – le fragile équilibre de TOI-178 aurait très certainement volé en éclat.

Contraste entre « harmonie rythmique » et « dissonance des densités »

Autre facteur de surprise : la densité des planètes qui semble « assez aléatoire », selon Nathan Hara, également impliqué dans la publication scientifique : « une planète aussi dense que la Terre se situe non loin d’une planète cotonneuse caractérisée par une densité inférieure de moitié à celle de Neptune, suivie d’une planète de même densité que Neptune ». Or, « ce n’est pas ce à quoi nous sommes habitués ».

Si l’on prend encore notre Système solaire comme base de comparaison, nous pouvons le découper en deux : quatre planètes telluriques – Mercure, Vénus, Terre et Mars – pour commencer, suivies par quatre géantes – Jupiter, Saturne, Uranus et Neptune – mais ces quatre dernières ont toutes une densité entre trois et huit fois inférieure à celle de la Terre.

TOI-178 présente donc deux facettes presque antinomiques pour les astronomes : d’un côté une « harmonie rythmique du ballet orbital » (des planètes en résonnance et ordonnées), de l’autre des planètes qui ne sont pas « correctement rangées » par leur densité. Pour Adrien Leleu (auteur principal de l’étude), ce contraste soulève des questions sur « notre compréhension de la formation et de l’évolution des systèmes planétaires ».

Vers d’autres détections grâce à la chaîne de résonance ?

Pour le moment, aucune des six exoplanètes de ce système solaire ne se trouve dans la zone habitable de leur étoile, mais les chercheurs « imaginent qu’en suivant la chaîne de résonance, ils pourraient détecter d’autres planètes potentiellement situées à l’intérieur ou en périphérie de cette région ». D’une manière ou d’une autre, les chercheurs espèrent à l’avenir mieux connaître les systèmes solaires tels que TOI-178.

Cela pourrait être une mission pour le futur Extremely Large Telescope (ELT) de l’ESO (mise en service prévue en 2025), car il sera « en mesure d’imager directement les exoplanètes rocheuses situées dans la zone habitable d’une étoile et de caractériser leurs atmosphères », ajoute l’European Southern Observatory. L’ELT devra aussi se pencher sur la « mort » de la galaxie ID2299, dont les observations soulèvent aussi de nombreuses questions.

Google améliore le partage dans les Custom Tabs de Chrome pour Android

25 janvier 2021 à 09:43

Les Custom Tabs sont une solution concurrente à la WebView, même si les deux fonctions permettent de gérer des contextes différents. Il s’agit, dans les deux cas, d’afficher des ressources web.

La WebView est particulièrement utile quand l’application doit afficher des ressources embarquées. Une simple vue déportée de Chrome suffit alors. Les Custom Tabs s’adressent davantage aux applications ayant besoin d’afficher une page web, par exemple pour un supplément d’information, un formulaire, etc.

Ils évitent de basculer sur le navigateur et d’interrompre l’utilisation de l’application. Ils autorisent en outre les développeurs tiers à modifier la couleur de la barre d’outils, à placer des animations d’entrée et de sortie et à ajouter des actions personnalisées dans la barre, le menu déroulant ou la barre du bas.

Google reconnait cependant que ces Custom Tabs n’offrent aucun moyen de partager facilement le contenu. L’utilisateur doit aller passer par des moyens détournés comme copier l’adresse pour la coller dans le navigateur, et ainsi accéder aux fonctions classiques de partage.

Chrome 88, lancé récemment, a introduit sur Android une modification, pour l’instant expérimentale. Il n’est pas nécessaire de l’activer : l’expérience est en opt-out. Les développeurs qui ne veulent pas de ce bouton partage pourront le désactiver via la méthode setShareState(), comme expliqué dans le billet de présentation.

Le bouton de partage est celui d’Android, standard. Les développeurs n’ont donc rien à y ajouter de spécifique puisqu’il contiendra les raccourcis vers les services et applications habituels de l’utilisateur.

❌
❌