Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierNext INpact

Google améliore le partage dans les Custom Tabs de Chrome pour Android

25 janvier 2021 à 09:43

Les Custom Tabs sont une solution concurrente à la WebView, même si les deux fonctions permettent de gérer des contextes différents. Il s’agit, dans les deux cas, d’afficher des ressources web.

La WebView est particulièrement utile quand l’application doit afficher des ressources embarquées. Une simple vue déportée de Chrome suffit alors. Les Custom Tabs s’adressent davantage aux applications ayant besoin d’afficher une page web, par exemple pour un supplément d’information, un formulaire, etc.

Ils évitent de basculer sur le navigateur et d’interrompre l’utilisation de l’application. Ils autorisent en outre les développeurs tiers à modifier la couleur de la barre d’outils, à placer des animations d’entrée et de sortie et à ajouter des actions personnalisées dans la barre, le menu déroulant ou la barre du bas.

Google reconnait cependant que ces Custom Tabs n’offrent aucun moyen de partager facilement le contenu. L’utilisateur doit aller passer par des moyens détournés comme copier l’adresse pour la coller dans le navigateur, et ainsi accéder aux fonctions classiques de partage.

Chrome 88, lancé récemment, a introduit sur Android une modification, pour l’instant expérimentale. Il n’est pas nécessaire de l’activer : l’expérience est en opt-out. Les développeurs qui ne veulent pas de ce bouton partage pourront le désactiver via la méthode setShareState(), comme expliqué dans le billet de présentation.

Le bouton de partage est celui d’Android, standard. Les développeurs n’ont donc rien à y ajouter de spécifique puisqu’il contiendra les raccourcis vers les services et applications habituels de l’utilisateur.

Un étonnant ballet cosmique de cinq exoplanètes « questionne les théories de formation planétaire »

25 janvier 2021 à 15:00

En combinant les données de plusieurs télescopes, des astronomes ont découvert un système solaire avec six exoplanètes, dont cinq font « à un véritable ballet cosmique autour de leur étoile centrale ». Pour les chercheurs, cela « questionne notre compréhension de la formation et de l’évolution des systèmes planétaires ».

Notre Système solaire est bien connu et documenté, notamment grâce aux nombreuses sondes d’explorations qui le parcourent depuis des dizaines d’années. La Terre est évidemment la planète sur laquelle nous avons le plus de données, mais Mars, Vénus et les autres ne sont pas en reste. 

Nous savons également bien comment le Soleil –  notre étoile – s’est formé et, avec lui, les planètes, la ceinture d’astéroïdes, le nuage de Oort, etc. De nombreux télescopes ont aussi participé à la découverte et aux premières analyses d’autres systèmes solaires dans l’univers. Autour des étoiles, on trouve parfois des exoplanètes, certaines plus ou moins semblables à la Terre de par leurs positions, leurs tailles, leurs densités, etc.

Aujourd’hui, l’European Southern Observatory nous emmène à 200 années-lumière de la Terre, dans le système TOI-178. Ce dernier est à la fois très loin de nous à la minuscule échelle de notre Terre, mais aussi juste à côté par rapport à l’immensité de l’Univers (la partie observable est une sphère de 93 milliards d'années-lumière de diamètre). Ce système était déjà connu, mais il est bien plus riche en exoplanètes que laissaient le penser les premières analyses.

« Des observations plus poussées nous ont permis de comprendre que le système n’était pas constitué de deux planètes orbitant à distance semblables de leur étoile, mais de plusieurs planètes situées dans une configuration bien particulière », explique Adrien Leleu, auteur principal de la publication à venir dans Astronomy & Astrophysics.

« Un ballet cosmique » d’exoplanètes

Les observations ont été faites via plusieurs sources, aussi bien au sol que dans l’espace : le satellite CHEOPS de l’Agence Spatiale Européenne spécialisé dans la traque d’exoplanètes, ainsi que les instruments NGTS et SPECULOOS de l’Observatoire de Paranal de l’ESO au Chili.

Ils étaient utilisés pour des mesures de transits, c’est-à-dire lorsque les exoplanètes passent devant leur étoile, provoquant donc une diminution de la lumière émise par celle-ci vue depuis le télescope. L’instrument ESPRESSO du Very Large Telescope (VLT) de l’ESO était aussi mis à contribution pour mesurer les vitesses radiales.

Au total, six exoplanètes ont été identifiées, affirment les astronomes. Elles sont « caractérisées par des dimensions comprises entre un et trois diamètres terrestres, leurs masses s’échelonnent entre 1,5 et 30 masses terrestres ». Dans notre Système solaire, Jupiter et Saturne sont bien au-delà de ces chiffres avec 1317 fois le volume et 317 fois la masse de la Terre pour la première, contre respectivement 757 et 95 fois pour la seconde.

Certaines sont rocheuses – comme Mercure, Vénus, la Terre et Mars – mais avec un diamètre supérieur à notre planète bleue, on parle alors de « super-Terres ». D’autres sont gazeuses – comme Jupiter et Saturne – mais avec un diamètre nettement inférieur à celui de Neptune, on parle alors de « mini-Neptunes ».

La planète la plus proche de l’étoile (donc aussi la plus rapide) fait un tour complet en quelques jours seulement – 88 jours pour Mercure, la plus proche du Soleil – tandis que la plus éloignée ne met que « dix fois plus de temps ». Là encore, ce n’est pas la même échelle que dans notre Système solaire ou Neptune met plus de 160 ans pour faire un tour.

Sur les six exoplanètes, les cinq plus éloignées de l’étoile ont un comportement particulier : elles « décrivent un ballet cosmique lorsqu’elles se déplacent sur leurs orbites respectives. En d’autres termes, elles sont en résonance », résume l’ESO. Cette particularité implique « que des configurations planétaires particulières se reproduisent à intervalles de temps réguliers, certaines planètes s’alignant à quelques orbites de distance ».

Une chaine de résonnance en cinq temps : 18:9:6:4:3

Un tel phénomène n’est pas nouveau ou inconnu. On le retrouve dans notre Système solaire, pas forcément avec les planètes, mais avec Jupiter et plusieurs de ses satellites naturels (Ganymède, Europe et Io) : ils sont dans une configuration 1:2:4. Cela signifie que quand Ganymede réalise une orbite compète autour de Jupiter, Europe en fait deux et Io quatre.

Les cinq planètes extérieures du système TOI-178 décrivent une chaîne de résonance de type 18:9:6:4:3. Pendant que la première planète du quintette décrit 18 tours autour de son orbite, la seconde en fait 9, la troisième 6, la quatrième 4 et la cinquième 3.

Dans le cas du système TOI-178, la chaîne de résonance est donc « bien plus complexe » qu’avec les lunes de Jupiter, ajoute l’European Southern Observatory. De plus, c’est l'une des chaines les « plus longues découvertes à ce jour au sein d’un système planétaire ».

Pour montrer en images et en musique le résultat, l’ESO publie un schéma des orbites avec une note de musique spécifique à chaque planète impliquée dans la résonnance : « cette note retentit lorsqu’une planète effectue une orbite complète ou une demi-orbite. Lorsque les planètes s’alignent à ces points précis de leur orbite, elles résonnent ».

Une exoplanète détectée grâce à des calculs

L’ESO explique que, « à l’origine, les scientifiques ne connaissaient l’existence que de cinq des six planètes du système. Mais en suivant le rythme de cette résonance, ils ont déterminé par le calcul la position qu’occuperait la sixième planète lors de leur prochaine fenêtre d’observation ». On calcule et on confirme ensuite par des observations, c’est l'un des fondements de l’astronomie moderne.

Au-delà de la « curiosité mathématique » – et en laissant de côté la première exoplanète qui n’est pas en résonnance avec les autres – cette situation « fournit de précieux indices concernant l’histoire du système » : « Les orbites de ce système planétaire sont parfaitement ordonnées [elles sont dans un ordre décroissant, ndlr], ce qui suggère que ce système a lentement et doucement évolué depuis sa naissance », explique Yann Alibert co-auteur de l’étude. En effet, en cas de perturbation majeure – un impact géant sur une des planètes par exemple – le fragile équilibre de TOI-178 aurait très certainement volé en éclat.

Contraste entre « harmonie rythmique » et « dissonance des densités »

Autre facteur de surprise : la densité des planètes qui semble « assez aléatoire », selon Nathan Hara, également impliqué dans la publication scientifique : « une planète aussi dense que la Terre se situe non loin d’une planète cotonneuse caractérisée par une densité inférieure de moitié à celle de Neptune, suivie d’une planète de même densité que Neptune ». Or, « ce n’est pas ce à quoi nous sommes habitués ».

Si l’on prend encore notre Système solaire comme base de comparaison, nous pouvons le découper en deux : quatre planètes telluriques – Mercure, Vénus, Terre et Mars – pour commencer, suivies par quatre géantes – Jupiter, Saturne, Uranus et Neptune – mais ces quatre dernières ont toutes une densité entre trois et huit fois inférieure à celle de la Terre.

TOI-178 présente donc deux facettes presque antinomiques pour les astronomes : d’un côté une « harmonie rythmique du ballet orbital » (des planètes en résonnance et ordonnées), de l’autre des planètes qui ne sont pas « correctement rangées » par leur densité. Pour Adrien Leleu (auteur principal de l’étude), ce contraste soulève des questions sur « notre compréhension de la formation et de l’évolution des systèmes planétaires ».

Vers d’autres détections grâce à la chaîne de résonance ?

Pour le moment, aucune des six exoplanètes de ce système solaire ne se trouve dans la zone habitable de leur étoile, mais les chercheurs « imaginent qu’en suivant la chaîne de résonance, ils pourraient détecter d’autres planètes potentiellement situées à l’intérieur ou en périphérie de cette région ». D’une manière ou d’une autre, les chercheurs espèrent à l’avenir mieux connaître les systèmes solaires tels que TOI-178.

Cela pourrait être une mission pour le futur Extremely Large Telescope (ELT) de l’ESO (mise en service prévue en 2025), car il sera « en mesure d’imager directement les exoplanètes rocheuses situées dans la zone habitable d’une étoile et de caractériser leurs atmosphères », ajoute l’European Southern Observatory. L’ELT devra aussi se pencher sur la « mort » de la galaxie ID2299, dont les observations soulèvent aussi de nombreuses questions.

Avec Birdwatch, Twitter passe à la lutte communautaire contre la désinformation

26 janvier 2021 à 09:24

Birdwatch est le nom d’un nouveau programme dont les tests ont débuté hier aux États-Unis. Un millier de personnes environ seront embarquées pour un objectif clair : lutter contre la désinformation.

Le programme permet à ces personnes d’écrire des notes sur des tweets, via une interface spécifique. Ces notes peuvent contenir des renseignements issus de recherches. 

L’idée est donc qu’un tweet puisse être accompagné d’informations mettant en cause la véracité de l’information fournie. Pour l’instant, ces notes ne sont pas affichées sur Twitter, mais sur le site Birdwatch dédié, public mais disponible uniquement aux États-Unis.

Les participants pourront également noter les informations données par d’autres, pour évaluer leur pertinence. Lorsqu’un consensus semblera établi, les commentaires seront publiés sur Twitter, c’est du moins l’objectif à terme. Les notes intègreront directement le système de recommandation du réseau.

Twitter fait un coup double : ne pas s’occuper lui-même de cette vérification, et présenter l’idée comme démocratiquement efficace. Les premiers retours seraient en effet très positifs, vantant justement l’approche communautaire. 

Le réseau compte bien capitaliser sur cet aspect et annonce que tout sera transparent dans Birdwatch, en particulier l’ensemble des commentaires formulés, déjà disponibles sous forme de fichier TSV. Même chose pour les algorithmes du système de classement, dont les itérations seront publiées sur Birdwatch Guide. Une première version est déjà disponible.

L’espoir de Twitter est que cette fonction fournisse assez de contexte sur les tweets problématiques pour que le processus de réflexion sur la désinformation devienne plus commun et accessible. Pour l’entreprise, c’est la première étape pour rendre la communauté « résistante aux tentatives de manipulation ». Twitter veut s’assurer qu’elle ne sera « pas dominée par une majorité ou des préjugés ».

Le calendrier de Birdwatch est également une aubaine pour la société, prise dans les remous de sa décision de bannir le compte de Donald Trump : d’un côté les tenants du « pour » insistant sur la limite d’une liberté d’expression face aux nombreux avertissements, et de l’autre les « contre » dénonçant le pouvoir d’un acteur américain sur des questions relevant du débat public, de la démocratie et du rôle de l’État.

Retour sur deux piliers du Plan Quantique en France : l’ordinateur et les communications

26 janvier 2021 à 14:22

Avec l’informatique quantique, « nous sommes véritablement entrés dans une nouvelle ère ». C’est le cas des communications où la « révolution » est déjà là, mais aussi des ordinateurs où elle est en embuscade. Des chercheurs du CEA et CNRS font le point sur l’avancement des travaux et reviennent sur le Plan Quantique français.

La semaine dernière, Emmanuel Macron dévoilait le Plan Quantique de la France, avec un financement de 1,8 milliard d’euros sur cinq ans à la clé. Il se décompose en plusieurs tranches, notamment pour mettre au point des machines quantiques (en deux phases), développer les communications, les capteurs et la recherche fondamentale.

Afin d’aller au-delà du simple discours politique, le CEA et le CNRS avaient organisé une conférence de presse avec près d’une dizaine de chercheurs travaillant sur les différents aspects du quantique et de leurs applications au quotidien (ou presque).

Avant d’entrer dans les détails, Sébastien Tanzilli (chargé de mission technologies quantiques au CNRS) et Philippe Chomaz (directeur scientifique à la Direction de la recherche fondamentale du CEA) dressaient un panorama de l’implication du quantique dans notre monde actuel. 

Notre dossier sur le Plan Quantique en France : 

« Nous sommes véritablement entrés dans une nouvelle ère »

Ce dernier commence par rappeler que la mécanique quantique est une « théorie inventée au début du 20e siècle pour comprendre la matière, les atomes, les électrons, la lumière et leurs interactions ». Depuis, elle a permis de développer énormément de technologies sur de vastes domaines d’applications comme « l'information, les lasers, l'électronique, les transistors, les ordinateurs, les smartphones ». Si bien que, pour le chercheur, on est déjà « aujourd'hui une société entièrement quantique ».

La première question que l’on peut légitimement se poser est donc de se demander pourquoi lancer un Plan Quantique début 2021 alors que la mécanique et les technologies quantiques ont déjà plus d’une centaine d’années et des applications dans la vie courante. 

Prenant le relai, Sébastien Tanzilli explique que la réponse est… « à la fois complexe et simple », comme c’est finalement un peu toujours le cas dans le monde du quantique. Réponse courte : « nous sommes véritablement entrés dans une nouvelle ère […] après des années et des années de recherche et de développement », explique le chercheur du CNRS.

Les quatre piliers de la recherche en « quantique »

La « nouveauté », c’est qu’on est désormais capable de contrôler individuellement et collectivement – le second point est le plus important – des systèmes quantiques tels que des électrons, atomes ou photons. « Cette capacité nous permet d'accéder véritablement à des propriétés de la physique quantique, [qui] sont disruptives pour tout un ensemble de technologies, qui s'apparente au traitement et à la communication de l'information ».

Le sujet principal pour Sébastien Tanzilli est donc de savoir : « qu'est-ce qu'on pourra faire demain que nous ne pouvons pas faire aujourd'hui ou pas de manière optimale », aussi bien dans les domaines du calcul, des mesures et des communications. Sans oublier la recherche fondamentale, une part extrêmement importante de la physique mécanique, informatique ou quantique.

Philippe Chomaz détaille un peu les propos de son collègue et l’intrication des champs de recherches : « les capteurs quantiques vont créer et mesurer l’information, la communication quantique va la transférer et le calcul quantique va transformer cette information ». Le Plan Quantique présenté hier a justement « pour objectif de permettre à la France d'être un acteur fort » dans l’ensemble de ces domaines.

Sécuriser « de manière "ultime" » les communications

Sébastien Tanzilli commence par revenir sur les communications, où la physique quantique peut servir à échanger des clés secrètes pour les algorithmes de cryptographie. Elles peuvent ainsi « être utilisées dans des protocoles de communication ou de cryptographie pour sécuriser de manière "ultime" les échanges de données qui transitent au travers ou entre des systèmes d'information ». Les communications peuvent passer par des fibres optiques ou des satellites qui, selon les cas, peuvent être la source et/ou le récepteur du signal.

Avec le Plan Quantique, 325 millions d’euros sont consacrés aux communications, en faisant le second poste de dépense après la construction d’ordinateurs quantiques (en deux phases). L’objectif « réside véritablement dans la construction de réseaux de communication quantique sur les bases des réseaux télécoms existants », affirme Sébastien Tanzilli. Et ce ne sont pas les pistes de travail qui manquent. Voici deux exemples : quelles sources de photons utiliser et quels protocoles mettre en œuvre pour garantir la sécurité des liens ?

Eleni Diamanti (chercheuse du CNRS au laboratoire LIP6), rappelle que des technologies sont déjà disponibles dans le commerce pour la distribution quantique de clés, permettant « un niveau de sécurité de communication plus élevé et ce que l'on pourrait attendre avec les communications modernes traditionnelles ». Sur ce point, on est donc au-delà de la théorie depuis des années, mais l’usage est « plutôt limité » pour le moment. Le but de la recherche – aidée par les fonds supplémentaires – est de démocratiser cette technologie.

Nicolas Sangouard (chercheur à l’Institut de physique théorique de CEA-Paris-Saclay) rappelle tout de même que « ces systèmes commerciaux n'exploitent pas pleinement le potentiel de la quantique. Ils reposent par exemple sur un niveau de confiance des appareils utilisés ». Des améliorations sont donc possibles.

Une des thématiques abordées par les chercheurs est de savoir « comment justement rendre ces prototypes plus sûrs en reposant leur sécurité sur moins d'hypothèses ». Le but ultime – Nicolas Sangouard en parle comme d’un « rêve » – serait « par exemple des systèmes où même si on ne connait pas la provenance des appareils ni leur fonctionnement, on pourrait utiliser les communications quantiques pour sécuriser les communications ».

Le chercheur ajoute que les systèmes actuels ne fonctionnent que « sur des distances réduites », même si elles s’allongent régulièrement au fil du temps. Avec d’autres chercheurs, Nicolas Sangouard « rêve d'un Internet quantique, un Internet avec une sécurité ultime », mais cela « passe par de gros programmes de recherche nationaux et européens ».

L’annonce du Plan Quantique va dans le bon sens pour Nicolas Sangouard : « on a plein d'énergie et on est maintenant content d'avoir les moyens pour développer ces ambitions ».

Se préparer aujourd’hui à la révolution de demain

Pour le scientifique du CEA, il ne faut pas attendre pour sécuriser les communications : « malgré le fait que cette technologie [un ordinateur quantique, ndlr] n'existe pas encore, c'est déjà une menace pour la sécurité, puisque la plupart des communications actuelles sont effectivement codées avec des problèmes mathématiques qui pourront dans le futur être cassés avec des ordinateurs quantiques ». Google par exemple testait déjà mi-2016 des algorithmes post-quantiques, c’est-à-dire capables de résister à de telles machines.

L’avenir soulève ainsi des questions déjà concrètes : « indépendamment qu’il faille trois, cinq ou dix ans […] si on stocke l’information qui est échangée à l’heure actuelle ou pourra l’échanger dans trois, cinq ou dix ans ». Cela n’a rien de nouveau, des agences de renseignements (c’est le cas de la NSA par exemple) stockent depuis déjà des années des données chiffrées dans l’attente de récupérer un jour la clé, de disposer d’une faille ou d’un ordinateur assez puissant (une machine quantique par exemple) pour casser le chiffrement par la « force ».

Ce n’est d’ailleurs pas pour rien que, dans le Plan Quantique du gouvernement, 150 millions d’euros sont dédiés à la cryptographie post-quantique, dont le but est évidemment de « sécuriser les communications ». Eleni Diamanti, qui travaille sur ce sujet, affirme que « la France est très bien positionnée dans les systèmes cryptographiques post-quantiques ». Il faut donc garder ce leadership.

La chercheuse revient au passage sur l’état actuel de la recherche : « L’idée d’un système de cryptographie hybride qui combine de façon complémentaire et avantageuse les algorithmes de cryptographique quantique et post quantique, c’est la solution la plus poursuivie par les chercheurs […] ça promet une sécurité maximale dans tous les cas d’usages imaginables ».

La quête d’un vrai ordinateur quantique

Philippe Chomaz évoque ensuite le second pilier du Plan Quantique : le calcul et les machines quantiques, objets de tous les fantasmes ou presque. Le financement de près de 800 millions d’euros (quasiment 50 % du Plan) laisse à priori toutes les portes ouvertes. Les scientifiques peuvent travailler sur des concepts et dispositifs afin de réaliser « un ordinateur quantique qui permet de résoudre des problèmes inaccessibles à la puissance d'un calculateur classique ». Aucune piste n’est officiellement privilégiée pour le moment.

Dans le lot, il y a par exemple l’« ordinateur quantique à base de silicium ». Maud Vinet (responsable du programme matériel quantique au CEA-Leti) rappelle que, en 2016, une première mondiale a été annoncée : « on a utilisé une technologie quasi industrielle qui sert à fabriquer des transistors pour fabriquer un bit quantique ».

Interrogée par un de nos confrères pour savoir où en est cette technologie aujourd’hui, la scientifique explique : « une grande partie de notre travail est de comprendre tous les paramètres matériaux et technologiques qui vont avoir un impact sur la performance du qubit pour être capable d'en mettre plusieurs millions ». Un qubit en effet ne sert à rien pour les calculs, il en faut des dizaines, des centaines, des milliers…

Cette perspective est néanmoins encore lointaine : « à l'état de l'art dans le monde académique, il y a eu quatre qubits qui ont été démontrés dans les technologies semi-conducteurs ». Pas de quoi révolutionner le monde de l’ordinateur quantique, ou de fanfaronner vis-à-vis de Google et son système à 53 qubits.

Pour rappel, la société en avait profité pour revendiquer la suprématie quantique, démentie rapidement par d’autres acteurs et chercheurs. Comme nous l’avons récemment expliqué, savoir si la barrière mythique est franchie n’est pas le plus important. « On est à un point de bifurcation » et le prochain embranchement sera de « faire un calcul utile, c'est-à-dire battre un calculateur classique sur quelque chose d'utile ». 

Il faut tenter le « pari du silicium »… sera-t-il payant ?

Maud Vinet tient par contre à préciser que ce serait un peu réducteur de comparer ainsi l’ordinateur quantique à base de silicium à celui de Google, car « il y a tout un travail technologique qui est préparatoire à pouvoir mettre beaucoup de qubits ». 

Tristan Meunier (chercheur du CNRS à l’Institut Néel) donne de la perspective : « notre stratégie c’est de partir d'un système qui est directement intégrable en utilisant les technologies de la microélectronique. Mais ceci a un coût, ça veut dire qu'on est en retard à l'heure actuelle par rapport à la recherche académique. Mais sur le long terme, on peut penser que notre stratégie sera payante ».

Pour Philippe Chomaz, il est « essentiel » de tenter ce « pari du silicium », car cela « pourrait permettre d'atteindre, avec les technologies de la microélectronique, un ordinateur avec un très grand nombre de qubits dans un horizon de la décennie ». On se donne donc rendez-vous dans plusieurs années pour voir où en sera chacun et quelles technologies auront pris de l’avance et auront encore un avenir devant elles.

Dans le prochain et dernier article de notre série, nous reviendrons sur la révolution des capteurs quantiques, ainsi que sur l’importance de la recherche fondamentale et d’une politique commune en Europe.

Tweetbot 6 passe à l’abonnement et table sur l’API v2 de Twitter

27 janvier 2021 à 09:41

Nouvelle version majeure pour le client tiers Tweetbot, connu sur iOS pour sa légèreté et ses performances. Si les fonctions n’ont que peu progressé, on y trouvera quelques raffinements esthétiques, comme des thèmes supplémentaires et de nouvelles icônes pour l’écran d’accueil.

Le champ fonctionnel progresse en fait par l’adoption de la version 2 de l’API officielle fournie par Twitter. Cette fameuse API que le réseau social a volontairement limitée depuis des années pour étouffer les clients tiers

L’entreprise a cependant promis des efforts sur ce terrain, et la version 2 propose notamment, en plus de quelques améliorations d’ordre général, le support des sondages. 

Les utilisateurs seront cependant beaucoup à être frustrés du passage à l’abonnement, même si celui de Tweetbot reste raisonnable, surtout dans sa formule annuelle : 0,99 euro par mois ou 6,49 euros par an.

Point important, la nouvelle mouture provoque le retrait de l’ancienne dans l’App Store. Les possesseurs d’une licence Tweetbot 5 la garde bien sûr et pourront la récupérer. Mais les nouveaux venus ne pourront plus choisir entre licence perpétuelle et abonnement.

Trappist-1 : les sept exoplanètes pesées « avec une précision inédite »… mais comment fait-on ?

27 janvier 2021 à 11:05

Dans l’espace, il n’y a pas de balance pour « peser » les exoplanètes, encore moins celles se trouvant à des dizaines d’années-lumière. Tels des MacGyver de l’espace, les scientifiques ont simplement besoin d’un chronomètre et de la patience pour pouvoir estimer/déduire la masse des exoplanètes. Explications.

Cela fait maintenant presque quatre ans que le système solaire Trappist-1 a fait parler de lui. Autour de son étoile (Trappist-1a) orbitent sept exoplanètes (Trappist-1b à 1h) de taille et masse comparables à celles de la Terre. Une découverte importante sur le plan scientifique, d’autant que certaines peuvent en plus abriter de l’eau liquide, mais qui a (comme toujours en pareille situation) lancé la machine a spéculations et fantasmes.

Une précision de 3 à 5 % sur la masse des exoplanètes

Dans un article scientifique tout juste publié par Planetary Sciences Journal (mais qui était déjà disponible sur ArXiv depuis octobre 2020), une équipe de chercheurs emmenée par Éric Agol annonce avoir caractérisé avec une « précision inédite » les sept exoplanètes.

C’est notamment le cas de leur masse avec une « précision de 3 % à 5 % », de leur rayon et de divers paramètres orbitaux. Toutes les données brutes sont disponibles par ici, mais ne représentent pas un intérêt particulier pour le grand public.

Cette publication est néanmoins l’occasion d’expliquer comment les scientifiques ont réussi à estimer avec une telle précision la masse d’exoplanètes situées à près de 40 années-lumière de la Terre. Réponse courte : avec un chronomètre, de l’ingéniosité et beaucoup de calculs.

On sort le chronomètre pour mesurer le « Transit Timing Variations »

Depuis la Terre, on ne peut pas observer directement les exoplanètes, car elles sont bien trop petites et n’émettent pas de lumière contrairement aux étoiles. Les astronomes ont néanmoins une astuce à leur service : la méthode du transit.

Pour faire simple, il s’agit de mesurer la lumière envoyée par une étoile et de traquer les petites baisses de luminosités, signes du passage d‘une exoplanète dans le champ. En mesurant le temps entre deux transits, les chercheurs peuvent en déduire rapidement la période orbitale. 

L’astrophysicien Franck Selsis (CNRS, laboratoire d'astrophysique de Bordeaux) ayant participé aux travaux rappelle qu’une « planète orbitant seule ou suffisamment loin de ses autres compagnons planétaires gravite autour de son étoile sur une orbite strictement périodique, dite képlérienne, et son année a une durée fixe invariable ».

Les choses se compliquent lorsque d’autres exoplanètes sont présentes : dans ce cas, « l’orbite est perturbée ». Ce sont notamment de petits décalages dans l’orbite d’Uranus qui ont conduit Urbain Le Verrier à prédire l’existence de Neptune en 1846, uniquement par le calcul. 

Dans le cas de Trappist-1, les sept exoplanètes se tiennent dans un mouchoir de poche (ou presque), chacune modifiant donc plus ou moins les orbites de ses sœurs : « Les interactions gravitationnelles entre les planètes font que ces transits ne se produisent pas de façon strictement périodique, mais avec une avance ou un retard pouvant atteindre plusieurs dizaines de minutes. On appelle le chronométrage de ces retards et avances des TTV (Transit Timing Variations) ».

Trappist-1
Crédits : CNRS

447 transits opposés à des simulations

Les écarts de temps dépendent de plusieurs paramètres : « période orbitale, excentricité, inclinaison des orbites entre elles et bien entendu de la masse des planètes », détaille Franck Selsis. « Si nous connaissions parfaitement ces grandeurs, nous pourrions prédire tout aussi parfaitement le moment exact des transits. Mais le problème inverse consistant à caractériser les planètes et leurs orbites à partir du chronométrage des transits est autrement plus complexe… », explique-t-il.

Pour affiner leurs modèles, les chercheurs ont pu s’appuyer sur pas moins de 447 mesures de transits, dont une grosse partie vient de télescopes dans l’espace : 188 pour Spitzer et 122 pour K2. Plus une exoplanète est proche de son étoile, plus elle fait un tour rapidement et donc plus le nombre de transits mesurés sur une période est important. Trappist-1b a eu droit à 160 mesures, 1c à 107, et ainsi de suite jusqu’à 1h avec 14 transits.

Le principe de base est le suivant : les chercheurs lancent alors des simulations complexes « avec un modèle à huit corps [une étoile et sept exoplanètes, ndlr] en essayant à chaque simulation un jeu de masses et de paramètres orbitaux différent ». Ils ne conservent ensuite que les simulations « compatibles avec les observations, qui contraignent ainsi ces paramètres ».

Simple en théorie, mais en pratique « cela fait beaucoup de paramètres indépendants et cette méthode pourrait prendre un temps considérable même sur de puissants ordinateurs ; il a donc fallu imaginer des méthodes statistiques beaucoup plus malignes, et inédites, pour explorer cet espace des paramètres », explique Franck Selsis sans pour autant entrer dans les détails. Dans tous les cas, le principe de base est là. 

Trappist-1

Crédits : The Planetary Science Journal

La réalité colle parfaitement à la simulation (et vice-versa)

D’autres exoplanètes se trouvent-elles dans le système Trappist-1 ? Pour le chercheur du CNRS, « il n’y a pas de place entre les planètes, mais il pourrait y avoir des planètes au-delà de la planète h (la plus externe) ou entre l’étoile et la planète b (la plus interne) ». 

En théorie, de telles exoplanètes pourraient ne jamais passer devant leur étoile à cause d’une orbite plus inclinée, mais les mesures et les simulations semblent dire le contraire : « Dans ce cas, selon les masses et les orbites de ces planètes additionnelles, nous aurions pu nous trouver incapables de reproduire les variations de temps de transit du système. Mais ce n’est pas le cas. On pourrait également améliorer cet accord en ajoutant une planète, mais ce n’est pas non plus ce qui se passe ».

Pour autant, l’existence d’au moins une autre exoplanète n’est pas totalement à exclure, mais elle serait alors « trop peu massive ou trop loin pour perturber les planètes connues de façon détectable dans les données actuelles ».

Trappist-1Trappist-1

James Webb maintenant attendu de pied ferme

Améliorer significativement nos connaissances sur leurs masse et diamètre permet de faire de même sur les hypothèses concernant leur composition, notamment la teneur en eau : 

« On voit que la densité des planètes est compatible avec une composition à peu près terrestre, légèrement moins dense. Cette densité plus faible peut s’expliquer de différentes façons : soit par une plus grande teneur en eau que la Terre (qui vaut un peu moins que 0,1 % de sa masse), soit par une teneur moindre en fer.

Nous pouvons mettre des limites supérieures sur la quantité d’eau : pour les planètes externes, à partir de la planète e, la teneur en eau ne peut dépasser 5–10 % de la masse totale. Pour les planètes plus internes (b, c et d) où l’eau ne peut exister à l’état liquide et doit former une atmosphère, la contrainte est plus forte car le rayon apparent de la planète est très augmentée par une telle enveloppe de vapeur : ces planètes sont au moins 10 % plus sèches que la Terre ».

Maintenant que Trappist-1 est mieux connu, les astronomes peuvent faire le chemin inverse : utiliser les simulations pour prévoir les transits afin de « planifier et optimiser les observations avec le télescope spatial James Webb qui sera lancé » en octobre 2021, sauf s’il est de nouveau retardé.

Les chercheurs pourront alors poursuivre la caractérisation des sept exoplanètes et, pourquoi pas, essayer d’observer leur atmosphère , si elles en ont une. Une ligne à ajouter dans la déjà longue liste des choses à faire…

Roaming « comme à la maison » dans l’Union européenne : petits arrangements entre amis

28 janvier 2021 à 15:29

En France, trois opérateurs peuvent déroger au règlement européen sur la fin des frais l’itinérance dans l’Union européenne... et ne s’en privent pas. D’autres jouent avec les promotions et le « seuil de tolérance » de l’Arcep pour rester dans les clous.

Cela fera bientôt quatre ans que les opérateurs ne peuvent plus facturer des frais d’itinérance lors du déplacement d’un de leurs clients dans l’Union européenne. Parfois nommée roaming « comme à la maison », cette règle implique que l'abonné ait des « liens stables » avec le pays de souscription pour éviter les abus.

Toutes les offres contenant de l'itinérance sont concernées, bien qu'il existe certaines exceptions (nous y reviendrons). Dans le cadre des forfaits « illimités », avec un certain nombre de Go à plein débit – alias « fair use » – puis un débit réduit, les opérateurs doivent proposer une quantité minimum de data en itinérance. 

La formule définissant cette valeur est assez simple : 

2 * (prix HT du forfait / tarif de gros HT du prix du Go)

Roaming en Europe : séance de révision, avec la calculatrice

Le tarif de gros par Go est dégressif depuis mi-2017. Il a débuté à 7,7 euros HT, pour passer à 6 euros HT au 1er janvier 2018, puis 4,5 euros HT, 3,5 euros HT et 3 euros HT les années suivante. Il descendra enfin à 2,5 euros HT au 1er janvier 2022. Il n’est pas prévu de le faire à nouveau bouger passé cette échéance.

Prenons un exemple concret : un forfait « illimité » à 10 euros par mois avec 20 Go de fair use doit proposer à ses clients au moins 5,55 Go (2x 8,33 / 3) de roaming dans l’Union européenne, contre 11,11 Go pour le même forfait à 20 euros (2x 16,67 / 3) . L’année prochaine, cette limite grimpera à respectivement 6,66 et 13,33 Go. 

C’est la théorie et une grande majorité des opérateurs s’y tient. Mais certains peuvent être autorisés – sous conditions – par l’Arcep à « facturer des frais d’itinérance supplémentaires au détail ». Ils étaient onze mi-2017, puis seulement trois fin 2019. En 2021, on retrouve les mêmes : Afone, Euro-Information Telecom, Lebara France. 

Mais à y regarder de plus près, il se passe parfois des choses « étranges » et le récent rachat d’Euro-Information Telecom par Bouygues pourrait changer la donne. Explications.

autorisation Arcep dérogation roaming UEDécisions de l’Arcep pour « facturer des frais d’itinérance supplémentaires » encore valables aujourd’hui

Prixtel joue avec les promotions

Prenons l'exemple de Prixtel qui a récemment renouvelé ses forfaits ajustables, avec désormais trois formules. La gamme Le grand a attiré notre attention, notamment avec son palier le plus élevé à 29,99 euros par mois avec 15 Go de roaming dans l’UE. Selon la formule officielle, on devrait pourtant avoir droit à 16,66 Go au minimum.

Mais cette différence n’est problématique ni pour l’opérateur ni pour le régulateur. « Compte tenu de la structure de l'offre (avec un tarif plus bas pendant 12 mois) et de la date de lancement, aucun client Le Géant ne sera facturé 29,99 euros en 2021. Ce n'est qu'à partir de 2022 que ce tarif s'appliquera et avec le tarif de gros qui sera de 2,5 euros HT, l'enveloppe de data passera à 20 Go », nous explique Prixtel.

« En 2021, le tarif maximum est de 24,99 euros [grâce à une remise de 5 euros par mois pendant un an, ndlr] et le minimum imposé est donc de 13,8 Go », ajoute-t-il. Une explication qui laisse entendre que la promotion sur Le géant valable « jusqu’au 2 février » sera prolongée pendant un bon moment… Ce ne serait pas la première fois, Prixtel est, comme nombre de ses concurrents, un spécialiste des promotions permanentes.

Interrogé par nos soins, l’Arcep confirme : « Prixtel peut effectivement prendre le tarif de la promotion pour calculer l’enveloppement de la data en roaming. Une fois l’offre promotionnelle terminée, il doit re-calculer l’enveloppe data selon la règle ». Le régulateur des télécoms rappelle que ce cas de figure est bien prévu dans les lignes directrices du Berec (voir le 50.), c’est-à-dire l’Organe des régulateurs européens des communications électroniques.

Prixtel janvier 2021 roaming

Syma reste sous le « seuil de tolérance » de l’Arcep

Lors de nos recherches, nous avons relevé un léger décalage chez l’opérateur virtuel Syma : le forfait Dix-Neuf à 19,90 euros par mois propose 11 Go de data en roaming dans l’Union européenne, contre 11,055 selon la formule.

Jusqu’au 31 décembre 2020, la société disposait d’une autorisation de l’Arcep pour facturer des frais supplémentaires, mais aucune nouvelle décision n’a été publiée depuis. Interrogé par nos soins, l’Arcep nous confirme que Syma « n’a pas demandé son renouvellement pour 2021 ».

Il doit donc se plier au règlement européen. Mais, comme nous pouvions nous en douter, le gendarme des télécoms nous confirme que « les 0,055 Go font bien partie du seuil de tolérance de l’Arcep ».

Syma forfait Dix-Neuf11 Go de roaming dans l’UE, contre 11,055 Go avec la formule de la Commission

Euro-Information Telecom profite à fond de son autorisation…

Passons maintenant au cas d’Euro Information Telecom, qui regroupe pour rappel les marques Cdiscount, NRJ, Crédit Mutuel, CIC et Auchan. Comme nous l’indiquions précédemment, cet opérateur virtuel dispose d’une autorisation afin de facturer des frais supplémentaires à ses clients, jusqu’au 15 juin 2021.

Il ne se prive d’ailleurs pas de s’en servir : 8 Go de roaming avec son forfait Cdiscount 80 Go à 16,99 euros par mois, 5 Go avec le 60 Go à 14,99 euros, 10 Go avec NRJ Mobile 100 Go à 19,99 euros, etc. C’est dans tous les cas en-dessous de ce que demande la Commission, mais ce n’est pas un problème puisque l’Arcep l’y autorise.

 

Euro-Information Telecom roaming janvier 2021Chez EI Telecom, le roaming dans l’UE est parfois au-dessus, parfois en-dessous de la limite

… mais que se passe-t-il maintenant qu’il appartient à Bouygues ? 

Mais un chamboulement important a eu lieu en ce début d’année : Bouygues Telecom a finalisé le rachat d’Euro-Information Telecom. Ce, sans disposer d’autorisation pour facturer des frais supplémentaires. Nous avons demandé à l’Arcep si cette opération changeait la donne. Sa réponse est non puisque « Euro-Information Telecom est titulaire d’une autorisation d’exemption jusqu’au 15 juin 2021 », nous confirme le service presse.

La situation pourrait changer passé cette date : « Si Euro-Information Telecom demande le renouvellement de l’autorisation, il faudra examiner si le fait qu’il fasse désormais partie du groupe Bouygues Telecom a un impact sur la viabilité de son modèle tarifaire ». Cette condition est en effet au centre du processus de décision de l’Arcep.

Le régulateur rappelle l’article 10.2 du règlement européen : « Lorsque la marge nette générée par les services d'itinérance au détail de l'opérateur est égale, en valeur absolue, à 3 % au moins de la marge générée par ses services mobiles, l'autorité de régulation nationale refuse néanmoins d'autoriser la facturation de frais supplémentaires si elle peut établir que, du fait de l'existence de circonstances particulières, il est improbable que la viabilité du modèle tarifaire national de l'opérateur soit compromise ».

Une des « circonstances particulières » est justement que « l'opérateur introduisant la demande fait partie d'un groupe et il existe des éléments prouvant l'existence d'une tarification des transferts internes en faveur des autres filiales du groupe dans l'Union, notamment eu égard au déséquilibre significatif des tarifs en gros d'itinérance appliqués au sein du groupe ». Pas sûr dans ces conditions qu’une demande de renouvellement soit accordée.

Nous avons également interrogé Bouygues Telecom pour savoir si du changement était à prévoir dans les offres d’Euro-Information Telecom, sans réponse pour le moment.

Réglo se sert de l’autorisation d’Afone, Lebara en a une à son nom

Réglo est également un opérateur proposant des forfaits avec une quantité de data en roaming inférieure à celle trouvée avec la formule du règlement européen. Il ne dispose pas d‘autorisation de l’Arcep à son nom pour y déroger, mais appartient au « Groupe Afone » qui a une telle autorisation valable jusqu’au 15 juin 2021.

Notez que pendant un temps Afone proposait des forfaits mobiles sous sa marque, mais ce n’est plus le cas. Enfin, Lebara est le dernier opérateur à disposer d’une autorisation du régulateur, valable jusqu’au 30 septembre 2021, et il s’en sert d’ailleurs pour plusieurs de ses offres.

R2glo roaming janvier 2021Forfait Réglo (Groupe Afone) avec du roaming en quantités inférieures à ce que demande le règlement européen

Et les autres ? 

Sans surprise, les quatre opérateurs de réseau (Bouygues Telecom, Free Mobile, Orange et SFR) sont parfaitement dans les clous avec leurs forfaits, allant souvent bien au-delà de la limite imposée par l’Union européenne. 

Nous terminerons simplement avec une précision concernant Sensation 5Go (19,99 euros par mois) et Sensation avec Avantage Smartphones 10 Go (27,99 euros par mois) de Bouygues Telecom : ils proposent respectivement 5 et 10 Go en roaming alors que la formule donnerait 5,55 et 15,55 Go. Mais ce n’est pas un souci, car la totalité de la data est disponible en roaming, et le règlement n’impose évidemment pas d’aller au-delà.

Comme toujours, n’hésitez pas à nous faire part des offres « étranges » que vous pourriez trouver chez les opérateurs (virtuels), nous nous ferons un devoir de les vérifier.

Microsoft publie un paquet NuGet pour faciliter l'utilisation de DirectML par les développeurs

29 janvier 2021 à 09:12

Disponible depuis quelques temps maintenant, l'API est pour le moment assez peu exploitée, notamment dans les applications grand public. Elle permet pour rappel d'entraîner des réseaux de neurones et d'utiliser les modèles qui en sont issus (inférence), les calculs pouvant être traités par exemple par des GPU DirectX 12 en profitant d'éventuelles accélérations.

Pour tenter d'inverser la tendance, l'éditeur annonce sa distribution sous la forme d'un paquet NuGet, espérant que cela incitera les développeurs d'applications Win32, UWP et WSL à en tirer partie. Il livre quelques exemples, comme SuperResolution qui permet d'augmenter la définition d'une image en temps réel dans les jeux, à la manière du DLSS de NVIDIA.

Une solution notamment promise sur XBox et dont AMD parle depuis quelques années, sans jamais l'avoir mise en œuvre. Mais qui devrait enfin aboutir. D'autres exemples sont disponibles avec leur code source par ici.

Débris spatiaux : leur évolution sur deux ans, le Top 50 des plus dangereux

29 janvier 2021 à 10:53

Le bureau de l’Agence spatiale européenne en charge de surveiller les débris dans l’espace a récemment mis à jour ses chiffres, avec (sans surprise) des augmentations à tous les niveaux. De son côté, le CNES revient sur la « liste des 50 débris spatiaux les plus dangereux en orbite basse ».

Les débris dans l’espace sont une plaie pour les agences gouvernementales et les sociétés privées qui lancent des fusées, mais aussi pour celles qui doivent gérer des satellites en orbite. En effet, le plus petit débris lancé à plusieurs (dizaines) de milliers de km/h peut se transformer en une redoutable menace. Pour rappel, un fragment de quelques millièmes de millimètre de diamètre a causé un impact bien visible sur une des vitres de la Cupola coupole) de la Station spatiale internationale.

En trame de fond se dessine en fait la crainte du syndrome de Kessler, mis en images par le film Gravity. Il s’agit d’une limite virtuelle au-delà de laquelle la densité des débris en orbite basse est suffisamment importante pour lancer une réaction en chaîne : des collisions qui entrainent plus de débris et donc plus de collision, etc.

Nous en avions déjà parlé lors de la publication d’un long rapport sur « l‘état actuel de l’environnement spatial » par le Bureau des débris spatiaux de l’Agence spatiale européenne (ESA).

Premier évitement en 1991, une vingtaine pour la seule ESA en 2020

Ce problème n’est pas nouveau, loin de là : « Un curieux événement s’est produit pour la première fois en septembre 1991, lorsque la navette spatiale Discovery de la NASA doit allumer son propulseur pendant sept secondes pour éviter les débris du satellite abandonné Kosmos 955 ».

La situation ne s’améliore pas au fil des années : « en 2020, une seule agence spatiale – l'ESA – avec un nombre relativement petit de satellites en orbite terrestre, est obligée de mener environ 20 manœuvres d'évitement de collisions chaque année ».

Le sujet est d’autant plus d’actualité que le nombre de lancements est en forte augmentation ces dernières années, notamment poussé par le New Space, l’arrivée de nouveaux acteurs (Blue Origin, Rocket Lab, SpaceX, Virgin Orbit, etc.), la démocratisation des nanosatellites et les constellations de (dizaines) de milliers de satellites pour Starlink par exemple.

Bref, tout le monde ou presque veut lancer son petit module dans l’espace et profite des capacités des lanceurs à multiplier les charges utiles pour diviser les coûts. 

« L'intelligence artificielle devient indispensable » pour gérer les débris

Pour le 21e siècle, l’ESA affirme (à juste titre) que l’intelligence artificielle est au centre des vols spatiaux. Cette technologie occupe déjà une place importante dans les satellites en orbite (qui sont de plus en plus performants) et la gestion des vols spatiaux, y compris dans la gestion des trajectoires automatiques pour éviter les débris.

« L'intelligence artificielle devient indispensable pour gérer cette complexité, pour exploiter, mettre en réseau, coordonner et protéger nos infrastructures spatiales, et aussi tirer le meilleur parti des données acquises » lors des différentes missions, explique Thomas Reiter, coordinateurs interagence et conseiller du directeur général de l’ESA.

Pour renforcer leurs recherches, l’Agence spatiale européenne et le German Research Center for Artificial Intelligence lancent un laboratoire ESA_Lab@DFKI. Il planchera sur l’utilisation de l’IA dans les domaines spatiaux, que ce soient les lancements, l’exploration d’autres astres, le retour d’échantillon ou bien évidemment les risques de collisions.

Deux ans d’évolution des lancements et des débris

Quelques jours auparavant, le Space Debris Office du Centre européen des opérations spatiales (ESOC) avait mis à jour ses chiffres sur l’état de l’espace proche de la Terre. Nous les avons compilés dans le tableau ci-dessous en les comparant à ceux d’il y a un et deux ans (avec quelques semaines d’écart tout au plus) :

Débris espace

Comme on peut le voir, le nombre de lancements est en perpétuelle augmentation… et cela ne devrait pas se calmer de sitôt. La croissance sur la quantité de satellites en orbite est encore plus importante, portée par les lancements multiples. Plus de la moitié des satellites en orbite sont encore en fonctionnement, mais cela en fait tout de même un peu moins de 3 000 objets « morts » dans l’espace, et donc potentiellement dangereux.

Plus inquiétant, le nombre de débris surveillé de près par les agences spatiales est en hausse de 26,5 % sur un an, pour arriver à un catalogue de 28 210 entrées. Il s’agit des « débris suffisamment gros pour endommager ou détruire un satellite fonctionnel » explique l’ESA, ce nombre peut donc varier à la hausse ou à la baisse. La quantité d’incidents (casses, explosions, collisions…) répertoriés grimpe aussi pour arriver à 550 depuis le début de l’exploration spatiale par les humains (+10 % par rapport à début 2019).

Par contre, le Space Debris Office ne note aucun changement majeur dans le nombre de débris dont la taille est d’au moins 1 mm. Cela ne veut pas dire qu’il n’y en a pas de nouveaux, mais simplement qu’ils ne sont pas suffisamment significatifs pour changer la donne. On dénombre ainsi toujours plus de 34 000 objets de 10 cm ou plus, 900 000 de 1 à 10 cm et plus de 128 millions entre 1 et 10 mm.

Top 50 des débris : les fusées largement majoritaires

Selon le CNES, les débris en orbite basse (moins de 2 000 km d’altitude) les plus dangereux sont les étages de fusées. Ils occupent 39 places sur 50, les 11 autres étant des satellites hors service. C’est en tout cas la conclusion à laquelle est arrivée une équipe internationale avec des experts de Chine, des États-Unis et de Russie.

Afin d’établir ce Top 50, pas moins de 11 méthodes ont été agrégées (dont une du CNES). Elles prennent en compte « la masse de l’objet en orbite, sa probabilité de collision avec un autre débris ou un satellite opérationnel et la persistance des nouveaux débris générés ».

Top 50 Débris
Crédits : CNES

Christophe Bonnal, expert des débris spatiaux à la direction des lanceurs du Centre National des Études Spatiales, rappelle que « ce Top 50 ne veut pas dire qu’il n’y a que 50 débris dangereux, les n°51 et 52 sont tout autant menaçants que le débris n°50 ». « On dénombre plus de 5 000 objets entiers – et donc particulièrement problématiques – en orbite basse », ajoute-t-il.

Pas moins de quarante-trois sont d’origine soviétique ou russe, quatre sont japonais, deux européens, tandis que le dernier est chinois. Les Américains sont-ils les meilleurs élèves de la classe pour être absent de ce classement ? Pas forcément, explique le chercheur : « Ce Top 50 repose sur le catalogue public américain des débris spatiaux. Ce catalogue disponible sur space-track.org est par nature biaisé, car il ne contient pas les débris issus de la filière de défense américaine ». Pour s’affranchir de ce biais, un catalogue européen est en cours de réalisation, précise-t-il.

Quoi qu’il en soit, « les 20 premiers débris sont d’anciens étages de lanceurs soviétiques, notamment les énormes étages de fusées Zenit de 9 tonnes et 9 m de long. Chaque mois, 2 étages de Zenit passent à moins de 100 m l’un de l’autre ! S’ils se percutent de face, on double la population de débris en orbite », indique Christophe Bonnal

Rappelons que si nettoyer l’espace est une activité qui a le vent en poupe, cela reste pour le moment du domaine expérimental. Pour Christophe Bonnal, une des principales raisons est financière : « retirer un gros débris coûte entre 10 et 30 millions d’euros ».

Prix du dégroupage et 5G de Free Mobile : Stéphane Richard à l'attaque

2 février 2021 à 07:00

Rien ne va plus entre Orange et Free. Alors que les deux sociétés discutaient d’un partage de leurs réseaux 5G, ce n’est plus le cas. L‘épilogue d’une semaine chargée pour Stéphane Richard qui tirait tous azimuts sur le fixe et le mobile, aussi bien en direction de Xavier Niel que de Laure de La Raudière.

En octobre dernier, quelques semaines après la phase finale des enchères sur la 5G, Stéphane Richard lâchait une petite phrase sur un éventuel partenariat avec Iliad : « La voie est libre pour la mutualisation de la 5G entre Orange et Free ». Aucune précision n’était donnée, mais cela a (re)lancé la machine à spéculations.

Pour rappel, les deux opérateurs se sont déjà entendus sur la 2G/3G. Le second dispose d’un accord d’itinérance payant sur le réseau du premier depuis 2011 (afin de lui permettre de se lancer dans de bonnes conditions). Plusieurs fois amendé, ce contrat a été prolongé jusqu’au 31 décembre 2022, avec un débit limité à 384 kb/s.

Début janvier, Xavier Niel indiquait que « l'idée c’est d’avoir un réseau unique sur la totalité de [certaines] zones pour l’ensemble de nos abonnés, ce qui ne nous empêche pas d’utiliser nos fréquences et de chacun continuer à déployer ce qu’on souhaite, et avoir notre indépendance suffisante pour être capable de se différencier ».

Cet accord n’était donc pas sans rappeler celui entre Bouygues et SFR concernant la 4G. L’Arcep avait déjà fait savoir ne pas y être opposée, si certaines conditions étaient respectées évidemment.

5G : fin des discussions entre Orange et Free Mobile

Les discussions n’auront pas eu le temps d’avancer qu’elles sont déjà enterrées. Xavier Niel était le premier à avoir des mots relativement forts, comme le rapporte Les Échos : « On a arrêté ces discussions avec Orange […] On a découvert que le rythme d'une entreprise entrepreneuriale comme Iliad n'est pas celui d'Orange. On a bossé, mais nous n'y arrivions pas […] En face de nous, on avait une société qui n'avançait pas, qui ne tranchait pas ».

Il en profitait pour ajouter que sa société a « accéléré sur le déploiement de [son] réseau 5G ». En termes de couverture, l’opérateur revendique plus de 40 % de la population et donc la première place, grâce à une massive réutilisation de la bande des 700 MHz (nous y reviendrons). La confirmation est rapidement arrivée chez Orange, avec un communiqué expéditif : « Constatant une divergence de stratégie de déploiement, Orange a décidé de mettre fin aux discussions ». Bref, un arrêt des discussions des deux côtés.

Orange mettait alors en avant ses points fort disant avoir « fait de la qualité de ses réseaux une priorité ; le réseau mobile Orange est d’ailleurs classé meilleur réseau mobile de France pour la 10e année consécutive par l’Arcep. Le groupe est également très engagé dans le déploiement de la fibre en France, assurant deux tiers des 24 millions de logements déjà raccordables ».

5G sur les 700 MHz : « C'est de la 4G améliorée »

Puis Stéphane Richard est intervenu plus directement pour attaquer Free Mobile sur un autre pan de la 5G : les fréquences. Le PDG d’Orange reprend des arguments déjà avancés par Altice/SFR : « Pour nous la 5G, c’est celle qui utilise la bande de fréquences de 3,5 GHz. Le reste, ce n’est pas de la 5G, même si cela peut porter son nom. C'est de la 4G améliorée ». Le patron d’Orange se garde bien de parler de « fausse 5G », contrairement à Gregory Rabuel (directeur général de SFR Telecom) qui n’avait pas hésité à employer ce terme.

Cette déclaration – comme celle de Xavier Niel sur la 5G à 700 MHz – mérite par contre qu’on rappelle plusieurs points importants. Tout d’abord, la 5G actuelle est dite Non Standalone (NSA), se basant sur un cœur de réseau 4G, pour tous les opérateurs. Ce dernier passera à son tour à la 5G dans de prochaines itérations.

Ensuite, cette technologie ne dépend pas d’une fréquence en particulier, les opérateurs peuvent la proposer sur les 700, 800, 900, 1800, 2100, 2600, 3 500, 26 000 MHz… Le patron d’Iliad résumait ainsi la situation : « Si vous avez 10 MHz de spectre, quelle que soit la fréquence vous avez le même débit ».

Cette réalit�� ne doit pas en cacher une autre tout aussi importante : les opérateurs ont entre 70 et 90 MHz dans les 3,5 GHz, contre 20 MHz maximum sur toutes les autres bandes de fréquences, impossible donc de proposer des débits équivalents. C’est pour cela que les 3,5 GHz sont considérés comme étant au cœur de la 5G, car on peut y obtenir des débits théoriques beaucoup plus élevés, mais en couvrant moins de territoire par antenne déployée.

Dans son guide « Introduction à la 5G : les usages et les fréquences », l’Arcep propose deux images représentant bien la situation et les différences entre les bandes de fréquences. On peut d’ailleurs remarquer que les 700 MHz sont considérées comme des « fréquences "pionnières" de la 5G ».

Arcep 5G Introduction à la 5G : les usages et les fréquences

Une guerre marketing, pas technique

Ce n’est pas le seul grief de Stéphane Richard : « Tant pis si cela permet à d'autres de revendiquer des taux de couverture trompeurs », ajoute-t-il. On touche très certainement au fond du problème, qui est non pas technologique mais marketing : Free Mobile clame haut et fort couvrir plus de 40 % de la population en 5G.

Il revendique aussi avoir « le plus grand réseau 5G de France » à travers de vastes campagnes publicitaires placardées dans les rues… ce qui semble passablement énerver Orange.

Avant le lancement de la 5G, le régulateur des télécoms avait pourtant bien pris les devants : « on n’est pas du tout dans une position de dire qu’il y aurait de la bonne ou de la mauvaise 5G, parce que c’est plus compliqué, ce n’est pas binaire, ce n’est pas noir ou blanc, ça va dépendre de nombreux paramètres ».

Dans un entretien, Sébastien Soriano nous expliquait vouloir « éviter que les opérateurs fassent une carte qui mélangerait toutes ses expériences différentes » : « Idéalement on souhaiterait qu’un opérateur qui utilise plusieurs bandes de fréquences pour faire de la 5G – par exemple 700 MHz et 3,5 GHz – propose une carte des 700 MHz et une carte des 3,5 GHz ». C’est le cas chez Free Mobile, mais on regrette qu’aucune indication sur les débits en 700 MHz et en 3,5 GHz ne soit donnée aux clients. 

On voit certes une différence de couleur entre les fréquences, mais l’utilisateur devra se débrouiller seul pour comprendre quelles sont les différences dans la pratique. Or, elles peuvent être importantes en termes de débits même si cela n’en reste pas moins de la 5G.

Sur ce point, Orange est bien plus précis. En plus d’afficher des couleurs différentes pour les fréquences de la 5G, il donne des indications sur les débits maximums théoriques en 5G (au-dessus de sa carte) : « jusqu’à 2,1 Gbit/s en zones couvertes en 3,5 GHz [ou] 615 Mbit/s en zones couvertes par la bande 2100 MHz ». On voit donc bien que ce n’est pas du tout la même chose.

Dans son « combat », l’opérateur historique compte parmi ses alliés Familles Rurales. L’association a récemment assigné Free Mobile « sur le fondement des pratiques commerciales déloyales » : « la communication portée par cet opérateur pose problème en ce qu’elle laisse croire aux consommateurs un gain de performance que toutes les fréquences "5G" ne sont pas en mesure d’offrir à l’heure actuelle ». 

« On a un vrai problème avec le prix du dégroupage »

Autre sujet amené par Stéphane Richard : le réseau cuivre, notamment utilisé par les opérateurs afin de proposer des abonnements xDSL. Orange en a la charge et doit l’entretenir, mais avec une participation financière de l’ensemble des opérateurs qui payent pour chaque ligne dégroupée de leurs clients une dime mensuelle.

Une situation qui ne satisfait pas grand monde : des opérateurs et clients se plaignent de la qualité de service du service universel, quand Orange explique que cela lui coûte trop cher et demande une hausse des redevances. Un sujet qui n’est pas nouveau, loin de là même. Le régulateur était déjà monté au créneau en mettant en demeure Orange fin 2018, mais il avait déjà par le passé pointé du doigt la qualité de service jugée insuffisante.

D’autres, comme l’Association des opérateurs télécoms alternatifs (AOTA) soulevait la question d’une scission d’Orange afin « de séparer fonctionnellement et structurellement les branches de détail et d’infrastructure d’Orange ». L’Autorité de la Concurrence (ADLC) avait été saisie pour donner son avis, mais elle a répondu à l’AOTA « ne pas juger utile de donner une suite favorable à l’étude de cette saisine ».

« Il ne faut pas que des situations locales masquent le fait que sur un plan général un réseau cuivre fait l'objet d'allocation de moyens considérables », expliquait Stéphane Richard, comme le rapporte Le Figaro. Dans son viseur : Laure de La Raudière, nouvelle présidente de l’Arcep. « C'est un message que j'envoie à la nouvelle présidente de l'Arcep. On a un vrai problème avec le prix du dégroupage. Ce débat doit être ouvert sérieusement. »

Durant son audition à l’Assemblée nationale, la principale intéressée avait rappelé que « le réseau cuivré est vieillissant et pourtant, il assure encore la grande majorité des raccordements au téléphone ou à l'Internet de nos concitoyens, notamment dans les zones rurales ». « La qualité de service sur le réseau cuivre est préoccupante à certains endroits et doit faire l'objet d'une attention particulière de l’Arcep », ajoutait-elle.

Pour rappel, le réseau cuivre doit disparaitre à moyen terme. Le décommissionnement a débuté, mais ne devrait aboutir qu’à l’horizon 2030. En attendant, Orange milite pour une hausse notable des tarifs du dégroupage total.

Au cours des dernières années, il est passé de 9,31 euros en 2018 à 9,41 euros en 2019 et 9,51 euros en 2020. Suite à une décision de l’Arcep de mi-décembre, il est passé à 9,65 euros en 2021, 2022 et 2023. Un autre changement est de la partie pour les trois prochaines années : « l’augmentation du plafond tarifaire applicable aux frais d’accès au service par rapport au précédent encadrement tarifaire, passant de 50 euros à 70 euros ». 

« Plusieurs centaines de millions d'euros supplémentaires »

C’est visiblement insuffisant pour Stéphane Richard, qui souhaiterait que la rente mensuelle augmente de 2/3 euros, au lieu des 14 centimes accordés. « Si vous considérez que le réseau cuivre doit être opérationnel partout, à 100 %, avec des délais de réparation très courts sur l'ensemble du territoire, il faut probablement plusieurs centaines de millions d'euros supplémentaires », ajoute le patron d’Orange.

Ce dossier sera certainement un baptême du feu pour Laure de La Raudière, d’autant qu’il sera scruté de très près par la multitude d’opérateurs sur le territoire. Une autre raison tient à la carrière de la nouvelle présidente du régulateur : il y a vingt ans, elle était employée par France Télécom où elle est restée une quinzaine d’années. Cette expérience professionnelle avait d’ailleurs fait bondir Xavier Niel lorsque son nom avait été proposé. 

Laure de La Raudière s‘était défendu lors de ses auditions, en affichant évidemment sa volonté d’être neutre, à l’image de l’Arcep qui est le régulateur des télécoms. Sa décision sur les doléances d’Orange sera donc d’autant plus analysée, bien qu'elle ne soit pas seule, l’Arcep prenant des décisions collégiales. 

Quoi qu’il en soit, elle pourra s’appuyer sur « une mission flash sur le service universel » demandé par la Commission des affaires économiques de l’Assemblée nationale à la députée Célia de Lavergne. Des « propositions concrètes » sont attendues dès la mi-février.

Redevance Copie privée sur les biens reconditionnés : le secteur dénonce l’incohérence gouvernementale

2 février 2021 à 08:43

« Le Gouvernement prévoit de taxer les téléphones reconditionnés en leur appliquant une redevance copie privée qui ferait augmenter le prix de vente des téléphones reconditionnés de plus de 10 % et entrainerait la disparition de plusieurs entreprises actives sur ce secteur ». 

Le Syndicat Interprofessionnel du Reconditionnement et de la Régénération des Matériels Informatiques, Electroniques et Télécoms (SIRRMIET) ne décolère pas à l’idée de voir les biens reconditionnés frappés par la redevance pour Copie privée. 

Il se souvient qu’« en octobre dernier, Cédric O, Secrétaire d’État au Numérique, vantait les actions du gouvernement dans le cadre de la Loi Anti-Gaspillage pour une Économie circulaire et dévoilait, aux côtés de la ministre de la Transition Écologique, Barbara Pompili, sa feuille de route pour une sobriété numérique ». 

Le syndicat ne comprend du coup pas la cohérence, surtout quand il se souvient que « le Premier Ministre Jean CASTEX, visiblement peu avare de paradoxes, faisait la part belle en septembre dernier à la transition écologique en y consacrant 30 % de son plan de relance de 100 milliards d’euros ».

Si l’extension est votée au sein de la commission rattachée au ministère de la Culture, où les ayants droit bénéficiaires de cette ponction sont en force, « ces produits de seconde main dont l’objectif est d’apporter aux consommateurs un choix écologique plus vertueux se verraient taxer comme des produits neufs ».

Pour le syndicat, pas de doute, l’application d’une telle ponction sur ces produits « viendrait frapper durement » un secteur gorgé de PME en plein essor. 

« Sans compter un phénomène connu mais visiblement ignoré des pouvoirs publics : cette taxe sera obligatoirement payée par les entreprises françaises mais qu’en sera-t-il des acteurs étrangers vendant en masse sur les plateformes en ligne déjà peu soucieuses du paiement de la TVA ? » 

« Une belle filière vertueuse et pourvoyeuse d’emploi en France s’est constituée en quelques années, cette nouvelle taxe est sur le point de la détruire en contradiction totale avec la volonté affichée du gouvernement ».

Le CNES détaille le plan de relance spatial de 500 millions d’euros

2 février 2021 à 15:23

Le CNES, « opérateur unique du plan de relance spatial », vient de dévoiler sa feuille de route pour l’attribution des 500 millions d’euros annoncés par le président de la République. Elle comprend quatre volets survolant tous les domaines (lanceurs, applications, équipements…) et types de sociétés (des start-ups aux grands groupes).

En septembre dernier, le gouvernement annonçait son plan de relance de 100 milliards d‘euros pour « redresser durablement l’économie française et créer de nouveaux emplois », suite à la crise sanitaire. L’objectif est de « transformer l’économie en investissant prioritairement dans les domaines les plus porteurs et faire en sorte que la France puisse retrouver son niveau économique d’avant crise dans deux ans ».

Emmanuel Macron avait déjà expliqué que « 500 millions d'euros [sur les deux années qui viennent, ndlr] du plan France Relance seront consacrés à l'accélération du développement de propulsions à hydrogène et projets spatiaux ». Le Centre national des études spatiales (CNES) donne enfin des détails supplémentaires. Les premiers appels à projets sont déjà en ligne.

Sur les 500 millions, « 365 millions d'euros de nouveaux crédits »

Ce financement s’inscrit dans le volet compétitivité, un des trois principaux avec l’écologie et la cohésion : « un dispositif de plus de 500 millions d’euros, dont 365 millions d‘euros de nouveaux crédits, a été prévu par les pouvoirs publics pour venir en soutien au secteur spatial ». Il s’adresse « à toutes les entreprises du secteur ».

Le CNES en profite pour rappeler quelques chiffres : « le secteur spatial français totalise 4,2 milliards d’euros de chiffre d’affaires consolidé, dont plus de la moitié sur le marché commercial, et représente 16 000 emplois directs de haut niveau sur l’ensemble de la chaîne manufacturière. Il réalise plus de 50 % des ventes de l’industrie spatiale européenne ».

Il précise ensuite être « l’opérateur unique du plan de relance spatial », mais ajoute que sa mise en œuvre est suivie par un comité de pilotage comprenant notamment des instances du ministère de l’Économie, de celui des Armées et de l’Enseignement supérieur. 

Des projets collaboratifs, de 5 millions d’euros minimums

On trouve tout d’abord des appels à projets collaboratifs, qui se destinent donc principalement à des consortiums. « D’une assiette minimum de 5 millions d’euros avec cofinancement industriel », ils devront être « ambitieux et structurants pour la filière et irriguer l’ensemble de l’écosystème ».

Une première vague a d’ores et déjà été lancée sur les domaines suivants : 

  • Communications optiques : « fournir les futurs équipements et technologies destinés aux liens optiques bidirectionnels très haut débit pour les missions de télécommunications par satellite en orbite géostationnaire (GEO) […]

  • Satellites de télécommunication flexibles : tirer profit des innovations technologiques dans le domaine de la microélectronique et de l’électronique de puissance pour proposer des charges utiles de télécommunications de nouvelle génération à la fois flexibles et très capacitives […]

  • Virtualisation du segment sol : soutenir la R&D sur les produits et technologies permettant d’améliorer la compétitivité de l’industrie française dans le domaine des segments sols, élément clé dans l’exploitation des systèmes spatiaux […]. Il s’agit également de répondre à des enjeux de souveraineté et de confiance liés à la conception, à la qualification et à l’exploitation des systèmes spatiaux et des données issues de ces systèmes […]
  • Terminaux pour les télécommunications par satellite : soutenir les meilleurs projets pour la conception et la production de terminaux grand public et professionnel pour satellites géostationnaires et constellations haut débit (HTS : High Throughput Satellite), très haut débit (VHTS : Very High Throughput Satellite) et Internet des Objets (IoT : Internet of Things) […].

  • Économie de la donnée : développement de plateforme innovante et l’intégration d’un ou plusieurs cas d’usage représentatifs permettant de valider les fonctionnalités de plateforme et le rapprochement des utilisateurs et des fournisseurs en intégrant les spécificités des données spatiales. L’objectif est de garantir la création de valeur en France ».

Un plan dédié aux nanosatellites

Un autre volet veut « renforcer et structurer l’écosystème français des nanosatellites », c’est-à-dire ceux avec une taille pouvant atteindre 16U. Ils ont pour rappel le vent en poupe ces dernières années. Grâce à la miniaturisation, il est possible de faire beaucoup de choses avec de petites boites, qui coutent donc bien moins cher à envoyer en orbite. Les lanceurs s’adaptent d’ailleurs à ce nouveau marché en devenant plus flexibles sur l’agencement interne des charges utiles.

Ce plan dédié aux nanosatellites se divise en deux parties. La première baptisée « accélération» vise à accompagner la validation en vol d’équipements et de charges utiles. La seconde, « structuration de l’écosystème nanosatellites », comprend un appel à manifestation d’intérêt (AMI) afin de « mettre en place un Forum d’utilisateurs (opérateurs de services, utilisateurs potentiels commerciaux, institutionnels et scientifiques…) pouvant tirer parti de solutions de satellites nanosatellites ».

Ce « Forum Nanosatellites » est animé par le CNES et réunira donc « les opérateurs de services à valeur ajoutée et les utilisateurs potentiels commerciaux, institutionnels (DGA, CDE, …) et scientifiques (INSU, CNRS, CSU…) pouvant tirer parti de solutions de satellites nano ». Il est destiné à recueillir les besoins de l’ensemble des acteurs du marché, sur les « objectifs applicatifs, de contraintes marché, de capacité de démonstration en vol, d’enjeux de souveraineté et d’enjeux sociétaux ».

Appels d’offres sur des technologies « duales » et pitch days

Le CNES annonce aussi l’arrivée d’appels d’offres ou de contrats de gré à gré « thématisés », qui concernent « en priorité les PME et ETI du secteur spatial ». Le but est « d’acquérir des technologies d’avenir duales, c’est-à-dire avec des applications civiles et militaires, présentant des risques techniques importants ». Cette fois-ci le projet doit avoir un porteur unique et le financement peut atteindre 100 %.

Pour les PME et les start-ups, il y aura des « pitch days ». Cette action du plan de relance doit son nom à la manière dont elle est organisée : les lauréats seront sélectionnés lors d’auditions – ou « pitch days » – mises en place dans des régions partenaires du CNES. Les projets devront proposer « des services innovants valorisant des données, produits ou infrastructures spatiales existantes », et il devront « apporter des solutions concrètes à un défi sociétal ou une thématique ».

Jeff Bezos va quitter son poste de CEO d’Amazon et passera le flambeau à Andy Jassy (AWS)

3 février 2021 à 06:19

Au troisième trimestre de cette année, Andy Jassy sera à la tête du géant de l'eCommerce Amazon. Jeff Bezos gardera tout de même un pied dans la société, mais consacrera désormais bien plus de temps à ses autres projets, qui vont de la philanthropie à l’espace en passant par la presse.

Jeff Bezos est le fondateur d’Amazon, plateforme de vente en ligne créée en 1994. À l’époque, ce « n'était qu'une idée, et elle n'avait pas de nom », explique le patron dans un email aux employés.

La situation a bien changé depuis : « Aujourd'hui, nous employons 1,3 million de personnes […] servons des centaines de millions de clients et d'entreprises et sommes largement reconnus comme l'une des entreprises les plus prospères au monde ». Il ajoute qu’« être le CEO d'Amazon est une responsabilité importante et usante. Lorsque vous avez une responsabilité comme celle-là, il est difficile d’avoir de l’attention sur autre chose ».

Jeff Bezos se consacre à d'autres projets

Or l’homme d’affaires a bien d'autres projets en cours. C’est d’ailleurs la raison invoquée pour expliquer qu’il va quitter son poste de CEO d’Amazon. La transition aura lieu au cours du troisième trimestre de l’année, après quoi il restera toujours présent comme président exécutif du conseil d'administration.

« Je disposerai du temps et de l'énergie dont j'ai besoin pour me concentrer sur Day One Fund, le Bezos Earth Fund, Blue Origin, Washington Post et mes autres passions ». « Je n’ai jamais eu autant d’énergie et il ne s’agit pas de prendre ma retraite », prévient Jeff Bezos (57 ans) dans sa lettre.

Ce ne sont pas les fonds qui lui manquent puisqu’il est au coude à coude avec Elon Musk pour le titre de l’homme le plus riche du monde avec ses 185 milliards de dollars.

Andy Jessy aux commandes

Son remplaçant était tout désigné : Andy Jassy, employé depuis 1997, trois ans après sa création seulement. Il est surtout, l’homme derrière Amazon Web Services (AWS), ayant créé cette division en 2003, son patron depuis 2016. Pour rappel, les revenus d’AWS sont en perpétuelle augmentation, pour arriver à 12,742 milliards de dollars sur le dernier trimestre de 2020, sur un total de 125,555 milliards de dollars.

C’est donc encore loin des ventes d’Amazon – 75,346 milliards de dollars en Amérique du Nord et 37,467 milliards dans le reste du monde –, mais le bénéfice opérationnel est le plus important : 3,567 milliards de dollars contre « à peine » plus de 3 milliards de dollars pour le reste. Nommer au poste de CEO d’Amazon le patron d’AWS laisse présager que cette branche devrait encore prendre de l’importance au sein de la société.

Une chose est sûre : « le départ de Bezos comme directeur général va provoquer une onde de choc dans le monde de la tech. C’est un titan du secteur. Il va laisser une marque indélébile ; il a changé le monde », explique un analyste à l’AFP. Même si d'autres ont déjà fait ce choix avant lui, comme Bill Gates chez Microsoft.

Au CSPLA, une mission sur les métadonnées des images fixes

3 février 2021 à 07:57

L’instance consultative du ministère de la Culture, où une majorité d’ayants droit siègent, lance une mission sur les « métadonnées » liées aux images fixes. Le document date du 16 décembre dernier.

« La directive européenne 2001/29 du 22 mai 2001 a expressément consacré les métadonnées en tant qu’enjeu pour le développement des licences et la gestion facilitée des droits en ligne » rappelle Olivier Japiot, président du Conseil supérieur de la propriété littéraire et artistique. 

« Afin d’encourager les titulaires de droits à recourir à des procédés techniques pour identifier leurs œuvres et le régime y afférent, la directive impose aux États membres l’adoption de sanctions contre les activités illicites visant à supprimer ou à modifier les informations sous forme électronique sur les œuvres et objets protégés ».

Dans la mission confiée au professeur Tristan Azzi, celui-ci devra notamment « dresser un point de situation et (…) identifier les éventuelles nouvelles questions qui se posent, compte tenu notamment de la plus grande diversité des acteurs qui diffusent des images en ligne et dont certains concentrent certains usages culturels ». 

Le rapport est attendu en juin 2021.

Recherche fondamentale, algorithmique, capteurs : les autres piliers du Plan Quantique

4 février 2021 à 07:30

Dans le monde du quantique, la recherche fondamentale et l’algorithmique occupent une place très importante. Il en est de même pour les capteurs quantiques qui, pour certains, sont déjà passé au stade de produits commerciaux. Autant d’aspects sur lesquels la France investit pour les prochaines années.

Après l’annonce du Plan Quantique de 1,8 milliard d’euros, plusieurs scientifiques du CEA et du CNRS se sont regroupés pour détailler les tenants et les aboutissants de ce projet impliquant plusieurs laboratoires de recherche.

Sébastien Tanzilli (chargé de mission technologies quantiques au CNRS) rappelle à ce titre que « la partie programme prioritaire de recherche est effectivement conjointement gérée par le CNRS et le CEA, mais également INRIA et, bien sûr, toujours en association avec les partenaires universitaires ».

Après la course à la conception d’un ordinateur et l’important bouleversement du quantique dans les communications, étudions les implications et ambitions de ce Plan sur d’autres piliers de l’informatique quantique, notamment deux points essentiels : la recherche fondamentale et sur l’algorithmique, fortement intriquées. 

Notre dossier sur le Plan Quantique en France : 

Des capteurs toujours plus précis, avec une sensibilité « ultime » ?

Le troisième champ d’action du plan présenté par Emmanuel Macron concerne les « capteurs quantiques », qui sont selon le président « impératifs pour notre souveraineté ». Ils bénéficient d’un financement de 250 millions d’euros.

Sébastien Tanzilli commence par rappeler de quoi il est question : « ils sont utiles à la métrologie, une branche de la science qui permet de qualifier un certain nombre de paramètres physiques. Les sensibilités et les précisions des mesures peuvent être grandement améliorées, voire même être exceptionnelles ».

Un exemple dans l’actualité récente concerne l’interférométrie, où des capteurs quantiques sont désormais utilisés. Virgo par exemple est un célèbre interféromètre situé à Pise (en Italie) qui a participé aux premières détections d’ondes gravitationnelles, une révolution dans le monde de la physique.

Il existe aussi d’autres domaines plus « concrets » pour le grand public :

« Ces capteurs quantiques adressent de nombreuses applications telles que la médecine (typiquement l'imagerie cellulaire) […] la cartographie des champs magnétiques, le génie civil parce qu'ils permettent de découvrir par exemple des cavités souterraines qui pourraient être dangereuses, ils adressent également les télécommunications optiques standards avec notamment la codification de matériaux, la gestion des ressources naturelles typiquement la découverte de nappes phréatiques ou pétrolifères… ».

Arnaud Landragin (chercheur du CNRS au laboratoire Syrte) explique que, comme pour l’échange de clés quantiques dans le domaine des communications, « quelques applications commencent déjà à avoir des appareils commerciaux ». Il donne quelques exemples d’usages commerciaux (qui restent tout de même assez spécialisés) : « des capteurs inertiels pour les gravimètres pour la géophysique et également en magnétométrie ».

Bref, « il y a un certain nombre de systèmes […] qui commencent à être commercialisés ou utilisés à des buts de recherche, mais avec des appareils qui peuvent être utilisés par des non-spécialistes » de la physique quantique. Dans tous les cas, les capteurs quantiques sont encore « en phase de développement, avec des potentiels d'amélioration qui sont encore très très inexploités ». 

Peut-on parler de sensibilité « ultime » avec les capteurs quantiques ? Non répond sans détour Arnaud Landragin : c'est finalement « toujours une étape avant qu’un autre ait une meilleure idée ». Cela permet dans tous les cas de profiter de « sensibilités inatteignables par des systèmes classiques dans un certain nombre d'activités ».

Ne surtout pas négliger la recherche fondamentale

Philippe Chomaz (directeur scientifique à la Direction de la recherche fondamentale du CEA) revient ensuite sur le quatrième (et pas des moindres) point clé du Plan Quantique, la recherche fondamentale, qui touche l’ensemble des domaines d’applications que nous avons précédemment évoqué :

« Une partie des concepts est déjà disponible, mais fait l'objet d'une recherche fondamentale qui va permettre de résoudre certains problèmes, de lever certains verrous, d'inventer de nouveaux concepts, par exemple de calcul et de correction d'erreur pour les qubits que l'on peut créer et qui sont imparfaits ».

Le Plan Quantique va évidemment soutenir cette recherche fondamentale (qui est indispensable), d’autant que c’est « justement un des domaines où la France et l'Europe sont vraiment fortes ». Ces recherches se déroulent évidemment en parallèle de développements « pratiques » de produits basés sur les connaissances actuelles. Les responsables de recherche du CEA et du CNRS veulent faire passer un message important :

« la recherche fondamentale – qu'elle soit conceptuelle ou expérimentale pour faire des preuves de concept ou de principes – irrigue et irriguera encore longtemps les piliers des technologies quantiques que sont la communication, les capteurs et le calcul.

C'est vraiment important de bien matérialiser le fait que cette recherche fondamentale revêt un caractère extrêmement important pour la poursuite des recherches en technologies quantiques, et notamment au travers de ce Plan Quantique ».

Les deux champs du quantique – recherche fondamentale et applications pratiques – doivent ainsi être explorés en même temps, d’autant qu’elles sont très complémentaires : « la recherche fondamentale irrigue les applications, aussi bien que les applications irriguent la recherche fondamentale ».

« Bien sûr les applications et les cas d'usages sont importants, mais la recherche fondamentale on ne pourra malheureusement pas faire grand-chose sans y consacrer une bonne part d'argent et de temps », lâche Sébastien Tanzilli. Si les chercheurs ont déjà des concepts près à être transposés, d’autres restent encore à découvrir, et certains pourraient être une révolution ; il ne faut pas passer à côté.

Les enjeux autour des algorithmes quantiques

En parallèle des ordinateurs quantique, il faut préparer le terrain à la partie logicielle et travailler sur des algorithmes capables de tirer partie des futures machines. C’est aussi « un domaine de la recherche fondamentale très important » affirme le chargé de mission au CNRS.

« En fait, il y a peu d'algorithmes encore connus et chaque décennie nous permet d'en découvrir quelques-uns », explique-t-il. Le premier et certainement le plus connu nous le devons à Peter Shor qui « a inventé le premier algorithme quantique permettant d’accélérer de façon spectaculaire la factorisation d’un nombre », se souvient Bernard Ourghanlian (CTO et CSO de Microsoft France) dans un billet de 2017 encore d’actualité.

Il « permet à un ordinateur quantique de factoriser un nombre de n chiffres en un temps évoluant comme n² (donc en un temps polynomial), là, où le temps de calcul du meilleur ordinateur classique progresse exponentiellement ». IBM l’a utilisé en 2001 pour factoriser 15 (3 x 5) avec un calculateur quantique à 7 qubits. On était alors à des années-lumière de la suprématie quantique, mais une étape était incontestablement franchie.

Microsoft donne un exemple chiffré du potentiel de l’algorithme de Shor avec la factorisation RSA-2048 (un nombre avec 617 chiffres décimaux, ou 2048 chiffres binaires) : « Il faudrait littéralement un milliard d’années pour résoudre un tel problème sur un ordinateur classique… Si nous avions un ordinateur quantique, il nous faudrait seulement environ 100 secondes en utilisant l’algorithme de Shor ».

La faible disponibilité d’algorithmes quantique contraste complètement avec les enjeux qu’ils soulèvent. Ils promettent en effet d’être « disruptifs sur plusieurs problématiques et domaines d'application : la cryptographie, la chimie moléculaire, la conception de matériaux et de médicaments, l'hydrodynamique par exemple pour l'aéronautique, les prévisions financières, l'intelligence artificielle, l’optimisation en général (logistiques)… En fait, c’est qu’un ensemble de domaines d'applications qui sont en plein développement ».

Les algorithmiciens en embuscade/attente

Tristan Meunier (chercheur du CNRS à l’Institut Néel) explique pourquoi cette branche est – pour le moment – le parent pauvre de la recherche fondamentale en quantique : « c’est lié au fait que pas beaucoup de gens s’y soient intéressés parce que les algorithmiciens en général travaillent directement sur les machines […] et on n’a pas de machines ou des machines trop petites pour le moment ». 

Par exemple, simuler 50 qubits sur des systèmes classiques représente de trop gros problèmes, car « la complexité est trop importante ». Pas facile donc d’avancer dans de telles situations puisque les chercheurs ne peuvent pas confronter leurs travaux à la réalité. Tristan Meunier se montre néanmoins optimiste : « Les algorithmiciens, à partir du moment où il va y avoir un hardware plus performant, vont s’intéresser à ces problèmes ».

Cela ne se fera pas d’un claquement de doigts prévient Maud Vinet (responsable du programme matériel quantique au CEA-Leti). Pour développer des algorithmes de ce genre, « il faut penser quantique »… et ce n’est pas si simple de devoir totalement revoir sa manière de penser et d’appréhender les mathématiques… ceux qui s’y sont déjà essayés savent certainement de quoi il s’agit.

Pour y arriver, « Il faut mettre en place des systèmes de formations dédiées », ajoute-t-elle. De son côté, Nicolas Sangouard (chercheur à l’Institut de physique théorique de CEA-Paris-Saclay) rappelle à toutes fins utiles qu’il « y a une grosse demande de la part des industries pour embaucher des ingénieurs qui ont cette expertise ».

Dans la dernière partie de notre dossier, nous aurons l’occasion de voir comment le Plan Quantique compte essayer de garder/attirer des chercheurs, ainsi que comment il s’articule au niveau européen et face aux autres nations. Nous évoquerons aussi la question environnementale de l’informatique quantique.

Pollusols  : « à Nantes, une étude inédite sur la pollution des sols »

4 février 2021 à 09:19

Dans son journal, le CNRS revient sur les résultats de cette étude, où des scientifiques « ont travaillé durant cinq années sur les pollutions diffuses causées par les métaux (cuivre, plomb...), les radioéléments (uranium, tritium) ou encore les pesticides – des polluants que l’on retrouve pour certains jusque dans l’estuaire de la Loire ».

La région nantaise est passée à la loupe, avec un bilan inquiétant. Le Centre national pour la recherche scientifique précise qu’il s’agit d’un « enjeu majeur » car « les grandes métropoles lorgnent les friches industrielles et agricoles pour s’agrandir ». 

« Même si elles sont peu élevées, ces concentrations peuvent être problématiques pour l’environnement comme pour la santé humaine. On est sur de la toxicité chronique, avec un effet cumulatif dans le temps et une possible combinaison de polluants », explique le CNRS.

Ce dernier avance une solution pour les jardins partagés : « l’utilisation de plantes accumulatrices de plomb pour progressivement assainir les parcelles. C’est la méthode dite de phytoextraction. Certains végétaux, comme la moutarde brune, sont en effet de véritables “aspirateurs” à métaux ».

« On a cette pollution et on va devoir vivre avec », affirme Thierry Lebeau (spécialiste de la pollution des sols au Laboratoire de planétologie et géodynamique) en guise de conclusion. Il préconise d’adopter une approche adaptée à chaque situation : « Il s’agit de trouver des usages compatibles avec la qualité de chaque sol ».

 

Benoit Loutrel (ex-Arcep, ex-Google) : ses ambitions et espoirs comme membre du CSA

5 février 2021 à 09:45

Benoit Loutrel va devenir membre du CSA. Lors d’une audition à l'Assemblée nationale, cet ancien de l’Arcep et Google a détaillé sa vision des choses sur de vastes sujets : les réseaux sociaux, l’espace « informationnel », la TNT, la neutralité des objets connectés ou encore la Hadopi.

Mardi 2 février, des auditions avaient lieu afin de valider (ou non) l’arrivée de deux nouveaux membres au sein du Conseil Supérieur de l’Audiovisuel (CSA). La première concernait la proposition de nomination de Benoit Loutrel par le président de l’Assemblée nationale (Richard Ferrand) et la seconde celle de Juliette Théry-Schultz par le président du Sénat (Gérard Larcher).

Benoit Loutrel et Juliette Théry-Schultz validés pour rejoindre le CSA

Comme pour Laure de La Raudière, il n’y avait pas grand suspense quant aux résultats du vote (ils doivent obtenir au moins 3/5 des voix) : Benoit Loutrel est ainsi conforté avec 31 pour et 2 contre, tandis que Juliette Théry-Schultz a obtenu l’unanimité. Leurs nominations seront officialisées au Journal officiel.

Juliette Théry-Schultz a passé plus de 11 ans à l’Autorité de la concurrence, avec un break de deux ans comme rapporteure sur le secteur bancaire et financier pour le compte de la Commission européenne. Le parcours de Benoit Loutrel est différent, avec un passage notable de quelques mois chez Google France et une expérience autour de la régulation de Facebook.

En 1993, il commence sa carrière à l’Insee, puis passe par la finance (dont la Banque mondiale à Washington), devient directeur de la régulation des marchés fixe et mobile. Il est ensuite directeur général adjoint de l’Arcep entre 2004 et 2007. Pendant trois ans il est responsable du programme Économie numérique au Commissariat général à l’Investissement, avant de revenir au régulateur des télécoms comme directeur général pendant trois autres années. 

En mars 2017, changement de cap avec un passage éclair de neuf mois comme directeur des politiques publiques et relations gouvernementales chez Google France. Une annonce qui avait fait couler beaucoup d’encre, notamment lorsque la sénatrice Catherine Morin-Desailly s'est alarmée de possibles conflits d’intérêts. De son côté, le Canard enchainé épinglait « ses diners parisiens avec des responsables de ministères, dont celui de la Culture »,

En décembre 2017, retour aux premières amours comme inspecteur général à l’Insee. Dans le même temps, il anime une « expérience française pour réguler Facebook » en termes de lutte contre les contenus haineux au Secrétariat d'Etat au numérique.

« Un proche des GAFAM nommé au CSA »

Il va désormais entrer au CSA. Un parcours riche en expériences, mais qui soulève aussi des inquiétudes. C’est notamment le cas de Tariq Krim (entrepreneur et ancien vice-président du Conseil national du numérique) qui lâche sur Twitter : « Un proche des GAFAM nommé au CSA ». 

Son audition à l’Assemblée nationale permet d’avoir son point de vue sur certains sujets, notamment autour de la régulation des réseaux sociaux, des objets connectés, de la collaboration avec l’Arcep, etc. On notera tout de même un oubli cinglant : pas un mot sur Hadopi durant son discours introductif. Il se rattrape ensuite lors de la session des questions/réponses.

Voici notre compte rendu de son audition de près d‘une heure et demie.

« Par opportunité j’ai rejoint Google France »

Bien évidemment, Benoit Loutrel est revenu sur son passage chez le géant américain du Net : « par opportunité j’ai rejoint Google France comme directeur des affaires publiques et des relations institutionnelles […] La discussion était très simple entre eux et moi à l'époque : j'avais la conviction qu'ils devaient être régulés et qu'ils devaient s'y préparer et qu'il y avait un rôle à jouer pour un acteur comme Google d'être proactif dans son rapport aux pouvoirs publics. C'est sur cette base qu'ils m’ont recruté [et] que j'ai candidaté ».

L’idylle fut de courte durée : « J'y suis resté neuf mois ce qui est court, parce qu'il est apparu assez vite qu’ils n'avaient pas en fait la volonté d'être des acteurs proactifs de la mise en place de cette régulation », une position qui ne devrait finalement pas surprendre grand monde de la part d’une société commerciale…

« J'ai découvert aussi que leur modèle à l'époque d'autorégulation manquait de crédibilité et qu'ils ne voulaient pas le voir […] et donc ils ont mis fin à l'expérience au bout de neuf mois », explique-t-il à l’Assemblée nationale. Il ajoute néanmoins : « je n'ai jamais autant appris qu'en neuf mois dans cette entreprise  ». Cette expérience serait donc une force qu’il pourrait mettre au service du CSA, même si on l’imagine mal affirmer le contraire. 

« Jouer au régulateur » avec Facebook

Il revient ensuite sur « l’expérience de régulation avec Facebook » de 2019. Avec l’accord et la participation du réseau social, « on a mis en place une équipe, un vrai-faux régulateur pour jouer au régulateur pendant quelques mois ». Il était épaulé par une dizaine de spécialistes (juriste de la plateforme Pharos, gendarme, juge, etc.) sur des sujets allant de la cybersécurité à l’intelligence artificielle.

Un rapport « très court » en a découlé, mais avec un élément important : « nous avons réalisé à quel point la puissance que cette entreprise déteint sur nos écosystèmes informationnels […] n'est pas seulement liée dans la fonction de modération […] mais qu’elle est beaucoup plus vaste ».

Selon Benoit Loutrel, il a plusieurs autres fonctions « stratégiques » dont disposent ces plateformes. Rien de nouveau ici, mais cela montre certainement le chemin qu’essayera de suivre le futur membre du CSA :

« Vous souscrivez à toute une série de comptes, que ce soit sur Twitter, sur Facebook, sur YouTube. Le soir, vous avez des centaines et des centaines de contenus que vous pouvez regarder, mais ces contenus ont été ordonnés. Et vous ne lirez que les premiers, vous ne lirez quasiment jamais les derniers. Et ce sont leurs algorithmes qui ont choisi, qui ont organisé l'ordonnancement de ses contenus. Donc cette première fonction est stratégique, vous pouvez enterrer des idées ou au contraire les mettre en valeur […]

La seconde fonction est celle de ciblage : il y a des choses que vous n’avez pas demandées, mais qu’on pousse en avant […] que ce soit pour le compte des plateformes ou de tiers avec la publicité ciblée. Vous voyez que ce pouvoir est puissant surtout qu’il est individualisé […]

La troisième fonction est qu’on vous suggère votre sociabilité : "vous devriez rejoindre tel groupe". Et donc bien évidemment la capacité à influencer notre dynamique sociale est phénoménale. Ces trois fonctions sont d’abord toutes aussi importantes, mais qui plus est, elles ne sont pas observables ».

Un « régulateur de la transparence des réseaux sociaux »

Des propos qui font évidemment en écho au futur de la régulation des plateformes, le Digital Services Act préparé à l'échelle européenne. « Tout ce que nous savions, nous ne le savions que parce que Facebook nous l’avait dit. Nous ne pouvons pas observer la réalité du comportement de Facebook […] car il a été individualisé en fonction de votre usage et vos caractéristiques, par des traitements de masse ». En clair, « mon » Facebook ne ressemble à celui de personne d’autre, on ne peut donc l’observer dans son ensemble et en tirer des conclusions.

« Ces gens détiennent une puissance phénoménale sur nos démocraties, mais nous ne sommes pas en mesure de les observer, au-delà des déclarations unilatérales qu’ils nous font. Aujourd’hui nous vivons dans un système d’autorégulation qui vit sur une transparence autoproclamée qui n’est soumise à aucun contrôle ». Benoit Loutrel en profite pour rappeler quelques pistes données dans le rapport.

« S’il n’y avait qu’une seule chose à faire, ça serait de les enfermer dans le carcan d’une obligation de transparence juridiquement opposable », explique-t-il. Pour cela, il ne faudrait pas forcément « un régulateur des réseaux sociaux, mais un régulateur de la transparence des réseaux sociaux », qui serait capable de vérifier et/ou sanctionner les plateformes si besoin. Là encore, les références au DSA sont évidentes, puisque c'est exactement ce qui est en train d'être préparé... 

« L’enjeu est d’amener ces entreprises à devenir des partenaires de notre société et à ne pas rester des passagers clandestins qui réussissent économiquement […] d’obtenir qu’elles s’engagent au profit d’objectifs d’intérêt général ». Son passage chez Google lui aura certainement montré que ce ne sera pas fait d’un coup de baguette magique, d’autant qu’il faudra réussir à coordonner l’ensemble des régulateurs européens sur ce sujet.

Pour le candidat au poste de membre du CSA, les conclusions de ce rapport sont – au moins – une partie de la réponse à la question : « pourquoi je suis candidat aujourd'hui à cette fonction ? ».

Le cas Donald Trump

Durant la session de questions-réponses, le bannissement de Donald Trump des réseaux sociaux est revenu sur le tapis. Cette décision de suspendre le compte « a interpellé le monde entier » indique-t-il : « Je pense que, comme tout le monde, on a été interloqué de se dire : "mais comment est-ce qu'on se trouve dans une situation où les acteurs privés sans cadre juridique sont amenés à décider eux-mêmes qu’un président des États-Unis ne peut plus intervenir sur les réseaux sociaux !" ». Inversement pourrions-nous souligner : pourquoi un chef de l’État n’aurait pas à respecter les conditions générales d’utilisation d’un réseau social, qu’il a acceptées ? 

« Ça a électrisé tout le monde et achevé – je pense – de convaincre les derniers réticents qu'il était urgent d'avoir un cadre juridique dans lequel s'inscrit le pouvoir que les réseaux sociaux peuvent détenir pour pouvoir le cas échéant le rendre contestable, objectif, transparent… ».

Et il enchaine :

« je rajouterais quand même que c'est la partie émergée de l'iceberg. Les réseaux sociaux hier, aujourd'hui et demain, encore une fois, peuvent choisir simplement d'influencer l'ordre des contenus ; d'enterrer la parole d'un homme politique, ou au contraire de la mettre en exergue […] 

Vous me direz, les médias traditionnels aussi ont ce même pouvoir. Oui, mais vous le voyez. Encore une fois sur les réseaux sociaux, vous ne le voyez pas aujourd'hui. Si tout le monde a réagi, c'est que là on a vu, ils ont pris le pouvoir extrême qui était de dire je coupe l'accès de Donald Trump, mais ils peuvent toujours avoir toute cette palette d'interventions tout aussi puissante quasiment, mais invisible. Et donc là aussi, j'en conclus qu'il y a urgence à avancer ».

CSA et Arcep : coopération nécessaire, « dimension politique »

Benoit Loutrel est ensuite revenu sur la « nécessaire et naturelle » coopération du CSA avec l’Arcep, un sujet qu’il connait bien au regard de son parcours. Alors qu’il est questionné sur la possibilité d’avoir un membre commun entre les deux régulateurs, il se dit « dubitatif » et balaye poliment l’idée : « À ma connaissance, dans les deux collèges c'est un travail à plein temps, il faudra donc trouver le surhomme ou la surfemme capable de participer activement dans les deux collèges ».

Il rappelle néanmoins que les deux institutions ont déjà « des mécanismes qui existent depuis toujours », notamment avec les saisines croisées ou bien des demandes d’avis quand le CSA intervient sur un secteur très lié aux télécommunications, et réciproquement. 

Ce n’est pas tout : « Depuis un an maintenant, vous avez une unité commune et un programme de travail commun parce qu'on voit bien que les deux sont amenés à s'interroger sur le rôle joué par les terminaux, soit dans les services de médias audiovisuels, soit évidemment sur les réseaux de communications électroniques ». Un rapport commun sur les « usages numériques des Français » vient d’ailleurs tout juste d’être mis en ligne.

Il n’est pas non plus pour des rapprochements entre régulateurs à outrance, car on pourrait finir par « rassembler tous les régulateurs […] ça pose un problème démocratique. Je connais le nom de ce [futur] régulateur : on l’appellera Commission européenne à la Française, mais je ne pense pas que ça soit totalement pertinent ».

Enfin, il donne une différence fondamentale, selon lui, entre les deux régulateurs : « Il y a une dimension politique dans ce que fait le CSA, qui n’est pas présente dans ce que fait l’Arcep ». Ce n’est pas la seule.

« Il y a un seul espace informationnel »

Pour Benoit Loutrel, le CSA « est le garant de l’intégrité, de la confiance dans l’écosystème informationnel, dans les conditions dans lesquelles se font le débat public, c’est la seule institution qui peut intervenir pour veiller à ce que les gens comprennent comment l’information circule, se fait et comment il faut juger sa qualité ». Bref, « ça n’a rien à voir avec les missions de l’Arcep qui est un régulateur d’infrastructure ».

Revenant sur les nouvelles compétences que le CSA est en train de récupérer sur le secteur des plateformes numériques et des réseaux sociaux, il explique qu’au final « il y a un seul espace informationnel. Quand on veut mettre en place des politiques pour essayer de lutter contre les désinformations, il faut agir sur l'ensemble du spectre et donc à la fois sur les médias audiovisuels et sur les réseaux sociaux », sans oublier la presse traditionnelle.

La régulation « devra prendre de nouvelles formes parce qu’ils n'ont pas de fonction éditoriale, ils ont cette fonction algorithmique qui est nouvelle et qui va demander de définir sur mesure un nouveau mode pour les responsabiliser, comme le CSA a su le mettre en œuvre sur les médias audiovisuels ». Il n’en dira pas plus.

La question des fréquences : TNT vs téléphone mobile

Il revient ensuite sur un sujet sensible : les fréquences hertziennes. Alors que l’Arcep milite pour en avoir toujours plus à attribuer aux opérateurs de téléphonie mobile, le CSA veut au contraire en garder pour la TNT. Dans le dernier volet de cette bataille, la TNT avait dû se réorganiser pour laisser de la place dans les 700 MHz aux opérateurs pour la 4G.

« Il y a des désaccords parfois entre régulateurs, il y a des choix politiques à faire entre les télécommunications et l'audiovisuel », explique-t-il. Comment se positionne cet ancien de l’Arcep ? « Moi, j'ai trouvé à l'époque extrêmement sain que chaque régulateur instruise le sujet vu de son industrie ». C’est ensuite au tour du pouvoir de « prendre les décisions qui étaient de nature politique » : « j'aurais trouvé surprenant qu'on laisse ça dans les mains d'un régulateur, qui n'a pas là légitimité suffisante pour le faire ».

Il reconnait ensuite que passer de l’Arcep au CSA oblige un peu à retourner sa veste sur certains sujets : « Sur la TNT, je crois qu'en cherchant bien, vous pouvez retrouver des déclarations de ma part, dont j'étais l'auteur en tant que directeur général de l'Arcep : c’est de bonne guerre quand vous êtes le régulateur des télécoms, d'expliquer que vous avez un meilleur usage de ces fréquences ».

« Réciproquement, je pense que si quelqu'un en doutait, la crise que nous traversons actuellement à montré à quel point il n'est pas imaginable de ne pas avoir des médias nationaux avec diffusion hertzienne qui sont accessibles à tout le monde »… il s’agit évidemment du discours d’un futur membre du CSA, mais on pourrait très probablement le mettre dans la bouche d’un arcepien en remplaçant simplement « hertzienne » par « mobile ».

Déjà dans son rôle de membre du CSA, il ajoute : « Aujourd'hui, vous avez 20 % de la population qui n'accède pas à la télévision autrement que par la TNT. Un jour, je n'en doute pas, la TNT devra être éteinte […] mais ce jour n'est pas arrivé et n'arrivera pas dans les six ans à venir », la période durant laquelle il sera membre du CSA.

Cachez cette Hadopi que je ne saurais voir…

Durant le discours introductif de Benoit Loutrel, une institution brillait par son absence : Hadopi, qui n’a pas eu droit au moindre petit mot. Interrogé sur la fusion de cette instance avec le CSA au sein de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), il répond : « je m'excuse, je n'ai pas mentionné dans mon propos, mais j'ai bien en tête » ce projet, retardé pour cause de crise sanitaire.

« Cette commission [parlementaire, ndlr] notamment a exprimé de manière répétée son soutien au projet de fusion avec Hadopi. Moi, ça me paraît évident, au sens où Hadopi et CSA travaillent sur le même écosystème : le système de l'audiovisuel, de la création des contenus ».

Cette complémentarité serait même évidente selon lui :

« Les outils et aussi le savoir-faire des équipes de la Hadopi complèteraient extrêmement bien le savoir-faire et les outils du CSA […] Le CSA intervient sur le financement de la production et de la création, Hadopi sur la lutte contre le piratage. Dans les deux cas, on travaille sur le modèle économique de nos industries culturelles. On voit qu’il y a un gain énorme à rassembler les deux ensembles ».

Neutralité des objets connectés, le « joker » sur la publicité

Un autre sujet abordé durant la session des questions-réponses concerne la régulation des télévisions, enceintes et autres objets connectés : cette problématique, « tous les pays européens se la posent, et donc il va falloir aller chercher à l'échelle européenne. C'est là que, éventuellement, on pourra imaginer agir effectivement pour avoir de nouveaux standards sur ces équipements sur l’ensemble du marché européen ».

Le but étant de mettre en place « des standards d'ouverture et des garanties d'ouverture et de neutralité de ces équipements pour que, là aussi, l'obligation et le besoin de pluralisme de l'expression des opinions puissent se concrétiser ».

Enfin, un dernier point concernait la publicité et plus particulièrement « le décalage du commencement des programmes », sur lequel le CSA a déjà annoncé qu’il serait « très attentif au respect » des engagements des chaînes. De son côté, Benoit Loutrel bottait en touche : « Est-ce que vous m'autorisez à un joker ? ». Il rappelle que le CSA prend des décisions collégiales et qu’il va avoir « besoin de l'expertise de [ses] collègues ».

Il ajoute néanmoins une précision : « On marche sur des œufs parce que la publicité est aussi le nerf de la guerre dans cette industrie, qui est sous tension actuellement notamment compte tenu de la crise sanitaire ».

Bandes-annonces au Super Bowl LV :  Fast & Furious 9, Falcon et le Soldat de l'Hiver, Clarice…

8 février 2021 à 08:57

Ce week-end, se tenait la grande finale du championnat de football américain organisé par la National Football League (NFL). Elle a vu s’imposer les Buccaneers de Tampa Bay face aux Chiefs de Kansas City (31 à 9).

Comme toujours avec cet événement sportif et hautement médiatique, de nombreuses publicités ont été diffusées (certaines avec une bonne dose d’humour, parmi lesquelles on retrouve Shift4 dont le patron vient de se payer les quatre places à bord d’une capsule Crew Dragon de SpaceX.

2021 ne déroge pas à la tradition des bandes-annonces et autres trailers pour des films et séries à venir, même si les dates de sorties sont toujours incertaines compte tenu de la crise sanitaire. On peut citer Fast & Furious 9 (déjà présent l’année dernière), Raya et le Dernier Dragon, Falcon et le Soldat de l'Hiver, ainsi que Clarice (série basée sur Le Silence des agneaux). Entertainment Weekly les a regroupés par ici et vous pouvez aussi les voir dans cette liste de lecture sur YouTube.

Rapport d’évaluation du CEA : entre « excellence de la recherche » et « difficulté de construire une identité »

9 février 2021 à 16:00

Au-delà des missions du CEA (dont la Défense nationale sur le nucléaire), un rapport du Hcéres fait le point sur différents aspects du Commissariat, allant des employés aux bâtiments, en passant par les partenariats et les brevets. Il dresse aussi la liste des forces et faiblesses, formulant au passage des recommandations.

Le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (Hcéres) a été créé par la loi du 22 juillet 2013 relative à l’enseignement supérieur et à la recherche. Il a officiellement remplacé l’Aeres en novembre 2014 et bénéficie du statut d’autorité administrative indépendante. Parmi ses missions, il « rend accessible au public, en toute transparence, tous ses rapports d’évaluation ainsi que ses méthodes et procédures ».

Il y a quelques jours, il publiait le rapport sur le Commissariat à l'énergie atomique et aux énergies alternatives (CEA), avec quatre recommandations à la clé. Soit l’occasion de voir en profondeur le fonctionnement de ce fameux CEA, lequel vient de fêter ses 75 ans non sans revendiquer être « le numéro un français des brevets en Europe ».

Si son expertise scientifique et la qualité des recherches ne sont pas remises en question, son « manque de transversalité » et son « mode de fonctionnement peu agile » sont pointés du doigt. Il faudrait aussi peut-être qu’il pense à revoir son nom.

Des chiffres et des lettres, version CEA

Le rapport débute par une présentation générale du centre de recherche : « Pour mener ses activités civiles et liées à la défense nationale, le CEA compte à la fin 2018, 19 925 salariés dont 1 180 doctorants et 170 post-doctorants ». 16 096 d'entre-eux « sont des salariés permanents dont 2,44 % sont de nationalité étrangère ». Il n’y avait par contre que 5 388 femmes au moment de la rédaction du rapport, soit 33,4 % de l’effectif.

Bien évidemment, impossible de parler des hommes et des femmes qui constituent le CEA sans revenir sur la question des conditions de travail et du salaire : « les enjeux du CEA en matière de ressources humaines sont relativement représentatifs du secteur public de la recherche […] Plus globalement, le CEA pourra difficilement éviter à moyen terme une analyse critique de son système de rémunération et de ses mélismes de fonctionnement datant des années 2000 ».

Dans le rapport, ce passage sur le dialogue social : « le comité recommande de revoir la grille de salaires et les mécanismes qui la régissent, afin de mieux prendre en compte, toutes choses égales par ailleurs, la situation des personnels clés de soutien technique ». 

En interne, le Commissariat est dirigé par un administrateur général, nommé par décret pour une période de quatre ans. Il est épaulé par un adjoint et un Haut-commissaire (HC) à l’Énergie atomique, nommé également pour quatre ans par décret, qui fait office de conseiller d’orientation scientifique et technique. Le CEA est organisé en quatre directions opérationnelles, sous-divisées en neuf directions fonctionnelles.

En 2018, son budget était de 5,3 milliards d’euros : 2,2 milliards vont aux activités civiles, 1,8 milliard à celles de la défense et 1,3 milliard aux opérations d’assainissement et démantèlement du nucléaire. Le système informatique représente un coût annuel de 150 millions d’euros, comprenant trois grands ensembles : l’informatique de support (40 %), le calcul haute performance (20 %), et les équipements d’informatique industrielle et de laboratoires (40 %).

Comme tout système, il faut l’entretenir et le mettre à jour : « Depuis cinq ans, de nouvelles plates-formes ont été ou sont en cours de déploiement : communication synchrone depuis le poste de travail, activité collaborative et internet (Sharepoint), reporting tableaux de bord dynamiques (DigDash). Le poste de travail est aligné sur le dernier standard Windows10 ». La rénovation complète du système informatique est fixée à l’horizon 2025. Enfin, le Hcéres « encourage le CEA à analyser les approches fondées sur des environnements open source ».

Patrimoine immobilier et intellectuel, rayonnement international

Le patrimoine immobilier est tout aussi important puisqu’il est « réparti sur près de 6 200 hectares et composé de 2 300 bâtiments, dont 80 % d’installations techniques ». Le CEA a renforcé la gestion des bâtiments en 2018, un point accueilli favorablement par le Hcéres, car « 70 % du bâti a plus de 50 ans ».

La branche civile du CEA « produit en moyenne 5 000 publications par an référencé dans les bases de données bibliométriques internationales représentant 6,39 % des publications nationales ». Elle peut aussi se vanter d’avoir 2 à 3 % de « Highly Cited Papers », soit largement plus que la moyenne mondiale qui est de 1 %.

CEA
Les centres CEA

Au niveau mondial, la production scientifique du « CEA pèse pour 0,93 % des publications européennes et 0,29 % des publications mondiales […] Avec un portefeuille de plus de 6 600 brevets actifs (2018), dont 3 737 déposés entre 2014-2018, le CEA a un positionnement fort ». 

Le rapport rappelle que le Commissariat « s’inscrit dans le paysage national de la recherche avec 42 unités mixtes de recherche (UMR) en cotutelle avec des partenaires académiques ». C’est notamment le cas avec le CNRS et Inria avec qui il partage respectivement 28 et 6 unités.

Le rapport préconise d’autres rapprochements : « C’est le cas par exemple des sujets relevant de la médecine du futur, où la dimension médicale gagnerait à être abordée avec l’Inserm en amont d’une application industrielle ».

« Une possible complexité dans la stratégie »… et son nom

Dans le même document, on apprend notamment que « la délibération et le suivi des grandes orientations par cinq instances stratégiques (Conseil de politique nucléaire, Conseil de défense et de sécurité nationale, Comité de l’énergie atomique et le CA avec son comité des engagements) illustrent une possible complexité dans la stratégie et dans la prise de décision ».

« L’articulation de ces instances avec les ministères n’est pas toujours très claire, notamment en ce qui concerne l’arbitrage en cas de désaccord », ajoute le Hcéres. Ce dernier recommande donc au « CEA de discuter avec ses tutelles d’une définition plus claire du rôle et des pouvoirs décisionnels des instances stratégiques ».

Si le CEA est reconnu dans le « cercle des connaisseurs » son secteur d’activité est plus difficile à appréhender pour des personnes extérieures : « la marque CEA est complexe à porter pour l’organisme, le logo "CEA" ne correspondant pas au nom de l’organisme (Commissariat à l’énergie atomique et aux énergies alternatives), qui lui-même ne rend pas compte de l’ensemble des missions ».

En interne aussi cela pose des problèmes : « La difficulté de construire une identité au CEA a également pour conséquence de rendre très difficile le sentiment d’appartenance pour les collaborateurs ayant des activités non liées à l’atome », ce que des chercheurs nous ont déjà confié par le passé. 

Si l’administrateur général du CEA, François Jacq, partage une partie de ces constats (pages 36 à 39 du document) , il n’a « pas la même lecture que le rapport concernant la difficulté à décliner "la nouvelle identité" et les " nouvelles missions" » : « on ne saurait parler de nouvelles missions, mais plutôt d’orientation scientifiques et technologiques clarifiées et rendues plus lisibles ».

Quatre pôles d’expertise, dont l’arsenal nucléaire

Passons maintenant aux activités du Commissariat à l'énergie atomique et aux énergies alternatives, qui se répartissent dans quatre grands domaines :

  • La mission Défense nationale : (exclue du champ du rapport du Hcéres). Comme son nom l’indique cette fois-ci sans ambiguïté, « le CEA conçoit, fabrique, maintient en conditions opérationnelles, puis démantèle les têtes nucléaires qui équipent les forces (composantes océanique et aéroportée). Il est aussi chargé de la conception, de la réalisation et du soutien à la maintenance des réacteurs équipant les bâtiments de la Marine nationale. Le CEA est également responsable de l'approvisionnement des matières nucléaires stratégiques pour les besoins de la dissuasion ».

  • La mission sur les énergies bas carbone : « le CEA mobilise ses compétences pour proposer des solutions technologiques innovantes aux défis de la transition énergétique et du développement d’énergies bas carbone […] Il développe également une stratégie de recherche sur la production d’électricité (nucléaire et renouvelable), les systèmes de stockage, l’amélioration de l’efficacité énergétique et l’insertion des énergies renouvelables dans les réseaux énergétiques. Enfin, le CEA est investi dans les recherches de plus long terme sur la production d’énergie par fusion nucléaire ».

  • La mission technologique pour l'industrie : « Le CEA s’efforce de contribuer au redressement industriel du pays à travers la valorisation et le transfert des connaissances, de compétences et de technologies diffusant vers l'industrie ». Dans le rapport un bémol tout de même : « une diminution récente importante du nombre de start-ups créées par an, qui sont passées de 10 en 2017 à 7 en 2018, ce qui pourrait conduire le CEA à réfléchir à sa stratégie en la matière, en particulier sur l’envie et la disponibilité des chercheurs à se lancer dans l’aventure entrepreneuriale ».

  • La mission recherche fondamentale, qualifiée d’« excellence nationale » : « le CEA contribue au rayonnement scientifique du pays, au progrès de la connaissance, à la conception et à l’exploitation des grandes infrastructures de recherche au bénéfice de la communauté scientifique. Ce socle a vocation à alimenter les trois autres missions en innovations de rupture, mais plus largement à assurer la pérennité des compétences nécessaires à leur réalisation avec pour champs d’intervention : biologie, génomique, astrophysique, physique nucléaire et des particules, sciences des matériaux, sciences du climat et de l’environnement, nanotechnologies, physique théorique, numérique et modélisation ».

Dans son rapport, Hcéres décrit le Commissariat comme étant le « "bras armé" de la filière électronucléaire », qui permet « à la France de bénéficier d’une électricité à coût modéré et décarboné ». Néanmoins, le Haut Conseil note que « la compétitivité future de la filière est remise en cause par la baisse des coûts de solutions énergétiques alternatives, par le coût du démantèlement et par la hausse des coûts des installations nucléaires nouvelles et notamment des EPR comme à Flamanville ».

Sur certains projets, le CEA se positionne « en soutien des industriels, tout en jouant un rôle de conseil auprès des pouvoirs publics ». C’est notamment le cas du consortium auquel il participe avec EDF, TechnicAtome et Naval Group pour le développement industriel d’un réacteur à fission de petite puissance (SMR).

« En 2017, les acteurs de la filière ont engagé, un projet de SMR électrogène à terre d’une puissance de 300 à 700 MW. Ce projet avec une participation de l’État par une subvention de 10 millions d’euros […] est actuellement au stade des études exploratoires ». Notez que le CEA est également membre du Groupement des industriels français de l’énergie nucléaire (Gifen) créé en juin 2018 avec les principaux industriels de la filière nucléaire.

CEA

Points forts, points faibles et recommandations

L’heure du bilan a sonné. Du côté des forces du CEA, le Hcéres note plusieurs éléments : une « excellence de la recherche fondamentale et technologique reconnue à l’international », un « centre mondialement reconnu » sur l’énergie nucléaire, un « acteur incontournable de l’écosystème national de l’enseignement supérieur et de la recherche » et une « capacité de pilotage de très grands projets ».

Passons enfin du côté obscur de la Force : « manque de transversalité », « mode de fonctionnement peu agile », « politique de gestion des talents et de promotion des mobilités au sein de l’établissement » et « difficulté à décliner sa nouvelle identité et ses nouvelles missions », figurent parmi les critiques. 

En réaction, le Haut Conseil suggère plusieurs pistes : 

  • « Développer la transversalité au sein de l’organisme et la pluridisciplinarité afin de relever avec succès les transitions énergétique et numérique ainsi que le défi de la médecine du futur.
  • Consolider le plan à moyen et long termes et le positionner comme un outil central de priorisation des moyens, de pilotage des activités, et de dialogue de gestion avec les ministères de tutelle.
  • En matière de gestion des moyens, s’appuyer sur quelques chantiers spécifiques et prioritaires consolidant l’animation fonctionnelle au sein des directions opérationnelles et entre elles, ainsi que la remontée d’informations au niveau des directions fonctionnelles dans le but de faciliter le pilotage centralisé au niveau de l’établissement.
  • Renforcer la coordination avec ses partenaires nationaux, européens et internationaux autour de trajectoires stratégiques. »

❌
❌