Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Roaming « comme à la maison » dans l’Union européenne : petits arrangements entre amis

28 janvier 2021 à 15:29

En France, trois opérateurs peuvent déroger au règlement européen sur la fin des frais l’itinérance dans l’Union européenne... et ne s’en privent pas. D’autres jouent avec les promotions et le « seuil de tolérance » de l’Arcep pour rester dans les clous.

Cela fera bientôt quatre ans que les opérateurs ne peuvent plus facturer des frais d’itinérance lors du déplacement d’un de leurs clients dans l’Union européenne. Parfois nommée roaming « comme à la maison », cette règle implique que l'abonné ait des « liens stables » avec le pays de souscription pour éviter les abus.

Toutes les offres contenant de l'itinérance sont concernées, bien qu'il existe certaines exceptions (nous y reviendrons). Dans le cadre des forfaits « illimités », avec un certain nombre de Go à plein débit – alias « fair use » – puis un débit réduit, les opérateurs doivent proposer une quantité minimum de data en itinérance. 

La formule définissant cette valeur est assez simple : 

2 * (prix HT du forfait / tarif de gros HT du prix du Go)

Roaming en Europe : séance de révision, avec la calculatrice

Le tarif de gros par Go est dégressif depuis mi-2017. Il a débuté à 7,7 euros HT, pour passer à 6 euros HT au 1er janvier 2018, puis 4,5 euros HT, 3,5 euros HT et 3 euros HT les années suivante. Il descendra enfin à 2,5 euros HT au 1er janvier 2022. Il n’est pas prévu de le faire à nouveau bouger passé cette échéance.

Prenons un exemple concret : un forfait « illimité » à 10 euros par mois avec 20 Go de fair use doit proposer à ses clients au moins 5,55 Go (2x 8,33 / 3) de roaming dans l’Union européenne, contre 11,11 Go pour le même forfait à 20 euros (2x 16,67 / 3) . L’année prochaine, cette limite grimpera à respectivement 6,66 et 13,33 Go. 

C’est la théorie et une grande majorité des opérateurs s’y tient. Mais certains peuvent être autorisés – sous conditions – par l’Arcep à « facturer des frais d’itinérance supplémentaires au détail ». Ils étaient onze mi-2017, puis seulement trois fin 2019. En 2021, on retrouve les mêmes : Afone, Euro-Information Telecom, Lebara France. 

Mais à y regarder de plus près, il se passe parfois des choses « étranges » et le récent rachat d’Euro-Information Telecom par Bouygues pourrait changer la donne. Explications.

autorisation Arcep dérogation roaming UEDécisions de l’Arcep pour « facturer des frais d’itinérance supplémentaires » encore valables aujourd’hui

Prixtel joue avec les promotions

Prenons l'exemple de Prixtel qui a récemment renouvelé ses forfaits ajustables, avec désormais trois formules. La gamme Le grand a attiré notre attention, notamment avec son palier le plus élevé à 29,99 euros par mois avec 15 Go de roaming dans l’UE. Selon la formule officielle, on devrait pourtant avoir droit à 16,66 Go au minimum.

Mais cette différence n’est problématique ni pour l’opérateur ni pour le régulateur. « Compte tenu de la structure de l'offre (avec un tarif plus bas pendant 12 mois) et de la date de lancement, aucun client Le Géant ne sera facturé 29,99 euros en 2021. Ce n'est qu'à partir de 2022 que ce tarif s'appliquera et avec le tarif de gros qui sera de 2,5 euros HT, l'enveloppe de data passera à 20 Go », nous explique Prixtel.

« En 2021, le tarif maximum est de 24,99 euros [grâce à une remise de 5 euros par mois pendant un an, ndlr] et le minimum imposé est donc de 13,8 Go », ajoute-t-il. Une explication qui laisse entendre que la promotion sur Le géant valable « jusqu’au 2 février » sera prolongée pendant un bon moment… Ce ne serait pas la première fois, Prixtel est, comme nombre de ses concurrents, un spécialiste des promotions permanentes.

Interrogé par nos soins, l’Arcep confirme : « Prixtel peut effectivement prendre le tarif de la promotion pour calculer l’enveloppement de la data en roaming. Une fois l’offre promotionnelle terminée, il doit re-calculer l’enveloppe data selon la règle ». Le régulateur des télécoms rappelle que ce cas de figure est bien prévu dans les lignes directrices du Berec (voir le 50.), c’est-à-dire l’Organe des régulateurs européens des communications électroniques.

Prixtel janvier 2021 roaming

Syma reste sous le « seuil de tolérance » de l’Arcep

Lors de nos recherches, nous avons relevé un léger décalage chez l’opérateur virtuel Syma : le forfait Dix-Neuf à 19,90 euros par mois propose 11 Go de data en roaming dans l’Union européenne, contre 11,055 selon la formule.

Jusqu’au 31 décembre 2020, la société disposait d’une autorisation de l’Arcep pour facturer des frais supplémentaires, mais aucune nouvelle décision n’a été publiée depuis. Interrogé par nos soins, l’Arcep nous confirme que Syma « n’a pas demandé son renouvellement pour 2021 ».

Il doit donc se plier au règlement européen. Mais, comme nous pouvions nous en douter, le gendarme des télécoms nous confirme que « les 0,055 Go font bien partie du seuil de tolérance de l’Arcep ».

Syma forfait Dix-Neuf11 Go de roaming dans l’UE, contre 11,055 Go avec la formule de la Commission

Euro-Information Telecom profite à fond de son autorisation…

Passons maintenant au cas d’Euro Information Telecom, qui regroupe pour rappel les marques Cdiscount, NRJ, Crédit Mutuel, CIC et Auchan. Comme nous l’indiquions précédemment, cet opérateur virtuel dispose d’une autorisation afin de facturer des frais supplémentaires à ses clients, jusqu’au 15 juin 2021.

Il ne se prive d’ailleurs pas de s’en servir : 8 Go de roaming avec son forfait Cdiscount 80 Go à 16,99 euros par mois, 5 Go avec le 60 Go à 14,99 euros, 10 Go avec NRJ Mobile 100 Go à 19,99 euros, etc. C’est dans tous les cas en-dessous de ce que demande la Commission, mais ce n’est pas un problème puisque l’Arcep l’y autorise.

 

Euro-Information Telecom roaming janvier 2021Chez EI Telecom, le roaming dans l’UE est parfois au-dessus, parfois en-dessous de la limite

… mais que se passe-t-il maintenant qu’il appartient à Bouygues ? 

Mais un chamboulement important a eu lieu en ce début d’année : Bouygues Telecom a finalisé le rachat d’Euro-Information Telecom. Ce, sans disposer d’autorisation pour facturer des frais supplémentaires. Nous avons demandé à l’Arcep si cette opération changeait la donne. Sa réponse est non puisque « Euro-Information Telecom est titulaire d’une autorisation d’exemption jusqu’au 15 juin 2021 », nous confirme le service presse.

La situation pourrait changer passé cette date : « Si Euro-Information Telecom demande le renouvellement de l’autorisation, il faudra examiner si le fait qu’il fasse désormais partie du groupe Bouygues Telecom a un impact sur la viabilité de son modèle tarifaire ». Cette condition est en effet au centre du processus de décision de l’Arcep.

Le régulateur rappelle l’article 10.2 du règlement européen : « Lorsque la marge nette générée par les services d'itinérance au détail de l'opérateur est égale, en valeur absolue, à 3 % au moins de la marge générée par ses services mobiles, l'autorité de régulation nationale refuse néanmoins d'autoriser la facturation de frais supplémentaires si elle peut établir que, du fait de l'existence de circonstances particulières, il est improbable que la viabilité du modèle tarifaire national de l'opérateur soit compromise ».

Une des « circonstances particulières » est justement que « l'opérateur introduisant la demande fait partie d'un groupe et il existe des éléments prouvant l'existence d'une tarification des transferts internes en faveur des autres filiales du groupe dans l'Union, notamment eu égard au déséquilibre significatif des tarifs en gros d'itinérance appliqués au sein du groupe ». Pas sûr dans ces conditions qu’une demande de renouvellement soit accordée.

Nous avons également interrogé Bouygues Telecom pour savoir si du changement était à prévoir dans les offres d’Euro-Information Telecom, sans réponse pour le moment.

Réglo se sert de l’autorisation d’Afone, Lebara en a une à son nom

Réglo est également un opérateur proposant des forfaits avec une quantité de data en roaming inférieure à celle trouvée avec la formule du règlement européen. Il ne dispose pas d‘autorisation de l’Arcep à son nom pour y déroger, mais appartient au « Groupe Afone » qui a une telle autorisation valable jusqu’au 15 juin 2021.

Notez que pendant un temps Afone proposait des forfaits mobiles sous sa marque, mais ce n’est plus le cas. Enfin, Lebara est le dernier opérateur à disposer d’une autorisation du régulateur, valable jusqu’au 30 septembre 2021, et il s’en sert d’ailleurs pour plusieurs de ses offres.

R2glo roaming janvier 2021Forfait Réglo (Groupe Afone) avec du roaming en quantités inférieures à ce que demande le règlement européen

Et les autres ? 

Sans surprise, les quatre opérateurs de réseau (Bouygues Telecom, Free Mobile, Orange et SFR) sont parfaitement dans les clous avec leurs forfaits, allant souvent bien au-delà de la limite imposée par l’Union européenne. 

Nous terminerons simplement avec une précision concernant Sensation 5Go (19,99 euros par mois) et Sensation avec Avantage Smartphones 10 Go (27,99 euros par mois) de Bouygues Telecom : ils proposent respectivement 5 et 10 Go en roaming alors que la formule donnerait 5,55 et 15,55 Go. Mais ce n’est pas un souci, car la totalité de la data est disponible en roaming, et le règlement n’impose évidemment pas d’aller au-delà.

Comme toujours, n’hésitez pas à nous faire part des offres « étranges » que vous pourriez trouver chez les opérateurs (virtuels), nous nous ferons un devoir de les vérifier.

Microsoft publie un paquet NuGet pour faciliter l'utilisation de DirectML par les développeurs

29 janvier 2021 à 09:12

Disponible depuis quelques temps maintenant, l'API est pour le moment assez peu exploitée, notamment dans les applications grand public. Elle permet pour rappel d'entraîner des réseaux de neurones et d'utiliser les modèles qui en sont issus (inférence), les calculs pouvant être traités par exemple par des GPU DirectX 12 en profitant d'éventuelles accélérations.

Pour tenter d'inverser la tendance, l'éditeur annonce sa distribution sous la forme d'un paquet NuGet, espérant que cela incitera les développeurs d'applications Win32, UWP et WSL à en tirer partie. Il livre quelques exemples, comme SuperResolution qui permet d'augmenter la définition d'une image en temps réel dans les jeux, à la manière du DLSS de NVIDIA.

Une solution notamment promise sur XBox et dont AMD parle depuis quelques années, sans jamais l'avoir mise en œuvre. Mais qui devrait enfin aboutir. D'autres exemples sont disponibles avec leur code source par ici.

Débris spatiaux : leur évolution sur deux ans, le Top 50 des plus dangereux

29 janvier 2021 à 10:53

Le bureau de l’Agence spatiale européenne en charge de surveiller les débris dans l’espace a récemment mis à jour ses chiffres, avec (sans surprise) des augmentations à tous les niveaux. De son côté, le CNES revient sur la « liste des 50 débris spatiaux les plus dangereux en orbite basse ».

Les débris dans l’espace sont une plaie pour les agences gouvernementales et les sociétés privées qui lancent des fusées, mais aussi pour celles qui doivent gérer des satellites en orbite. En effet, le plus petit débris lancé à plusieurs (dizaines) de milliers de km/h peut se transformer en une redoutable menace. Pour rappel, un fragment de quelques millièmes de millimètre de diamètre a causé un impact bien visible sur une des vitres de la Cupola coupole) de la Station spatiale internationale.

En trame de fond se dessine en fait la crainte du syndrome de Kessler, mis en images par le film Gravity. Il s’agit d’une limite virtuelle au-delà de laquelle la densité des débris en orbite basse est suffisamment importante pour lancer une réaction en chaîne : des collisions qui entrainent plus de débris et donc plus de collision, etc.

Nous en avions déjà parlé lors de la publication d’un long rapport sur « l‘état actuel de l’environnement spatial » par le Bureau des débris spatiaux de l’Agence spatiale européenne (ESA).

Premier évitement en 1991, une vingtaine pour la seule ESA en 2020

Ce problème n’est pas nouveau, loin de là : « Un curieux événement s’est produit pour la première fois en septembre 1991, lorsque la navette spatiale Discovery de la NASA doit allumer son propulseur pendant sept secondes pour éviter les débris du satellite abandonné Kosmos 955 ».

La situation ne s’améliore pas au fil des années : « en 2020, une seule agence spatiale – l'ESA – avec un nombre relativement petit de satellites en orbite terrestre, est obligée de mener environ 20 manœuvres d'évitement de collisions chaque année ».

Le sujet est d’autant plus d’actualité que le nombre de lancements est en forte augmentation ces dernières années, notamment poussé par le New Space, l’arrivée de nouveaux acteurs (Blue Origin, Rocket Lab, SpaceX, Virgin Orbit, etc.), la démocratisation des nanosatellites et les constellations de (dizaines) de milliers de satellites pour Starlink par exemple.

Bref, tout le monde ou presque veut lancer son petit module dans l’espace et profite des capacités des lanceurs à multiplier les charges utiles pour diviser les coûts. 

« L'intelligence artificielle devient indispensable » pour gérer les débris

Pour le 21e siècle, l’ESA affirme (à juste titre) que l’intelligence artificielle est au centre des vols spatiaux. Cette technologie occupe déjà une place importante dans les satellites en orbite (qui sont de plus en plus performants) et la gestion des vols spatiaux, y compris dans la gestion des trajectoires automatiques pour éviter les débris.

« L'intelligence artificielle devient indispensable pour gérer cette complexité, pour exploiter, mettre en réseau, coordonner et protéger nos infrastructures spatiales, et aussi tirer le meilleur parti des données acquises » lors des différentes missions, explique Thomas Reiter, coordinateurs interagence et conseiller du directeur général de l’ESA.

Pour renforcer leurs recherches, l’Agence spatiale européenne et le German Research Center for Artificial Intelligence lancent un laboratoire ESA_Lab@DFKI. Il planchera sur l’utilisation de l’IA dans les domaines spatiaux, que ce soient les lancements, l’exploration d’autres astres, le retour d’échantillon ou bien évidemment les risques de collisions.

Deux ans d’évolution des lancements et des débris

Quelques jours auparavant, le Space Debris Office du Centre européen des opérations spatiales (ESOC) avait mis à jour ses chiffres sur l’état de l’espace proche de la Terre. Nous les avons compilés dans le tableau ci-dessous en les comparant à ceux d’il y a un et deux ans (avec quelques semaines d’écart tout au plus) :

Débris espace

Comme on peut le voir, le nombre de lancements est en perpétuelle augmentation… et cela ne devrait pas se calmer de sitôt. La croissance sur la quantité de satellites en orbite est encore plus importante, portée par les lancements multiples. Plus de la moitié des satellites en orbite sont encore en fonctionnement, mais cela en fait tout de même un peu moins de 3 000 objets « morts » dans l’espace, et donc potentiellement dangereux.

Plus inquiétant, le nombre de débris surveillé de près par les agences spatiales est en hausse de 26,5 % sur un an, pour arriver à un catalogue de 28 210 entrées. Il s’agit des « débris suffisamment gros pour endommager ou détruire un satellite fonctionnel » explique l’ESA, ce nombre peut donc varier à la hausse ou à la baisse. La quantité d’incidents (casses, explosions, collisions…) répertoriés grimpe aussi pour arriver à 550 depuis le début de l’exploration spatiale par les humains (+10 % par rapport à début 2019).

Par contre, le Space Debris Office ne note aucun changement majeur dans le nombre de débris dont la taille est d’au moins 1 mm. Cela ne veut pas dire qu’il n’y en a pas de nouveaux, mais simplement qu’ils ne sont pas suffisamment significatifs pour changer la donne. On dénombre ainsi toujours plus de 34 000 objets de 10 cm ou plus, 900 000 de 1 à 10 cm et plus de 128 millions entre 1 et 10 mm.

Top 50 des débris : les fusées largement majoritaires

Selon le CNES, les débris en orbite basse (moins de 2 000 km d’altitude) les plus dangereux sont les étages de fusées. Ils occupent 39 places sur 50, les 11 autres étant des satellites hors service. C’est en tout cas la conclusion à laquelle est arrivée une équipe internationale avec des experts de Chine, des États-Unis et de Russie.

Afin d’établir ce Top 50, pas moins de 11 méthodes ont été agrégées (dont une du CNES). Elles prennent en compte « la masse de l’objet en orbite, sa probabilité de collision avec un autre débris ou un satellite opérationnel et la persistance des nouveaux débris générés ».

Top 50 Débris
Crédits : CNES

Christophe Bonnal, expert des débris spatiaux à la direction des lanceurs du Centre National des Études Spatiales, rappelle que « ce Top 50 ne veut pas dire qu’il n’y a que 50 débris dangereux, les n°51 et 52 sont tout autant menaçants que le débris n°50 ». « On dénombre plus de 5 000 objets entiers – et donc particulièrement problématiques – en orbite basse », ajoute-t-il.

Pas moins de quarante-trois sont d’origine soviétique ou russe, quatre sont japonais, deux européens, tandis que le dernier est chinois. Les Américains sont-ils les meilleurs élèves de la classe pour être absent de ce classement ? Pas forcément, explique le chercheur : « Ce Top 50 repose sur le catalogue public américain des débris spatiaux. Ce catalogue disponible sur space-track.org est par nature biaisé, car il ne contient pas les débris issus de la filière de défense américaine ». Pour s’affranchir de ce biais, un catalogue européen est en cours de réalisation, précise-t-il.

Quoi qu’il en soit, « les 20 premiers débris sont d’anciens étages de lanceurs soviétiques, notamment les énormes étages de fusées Zenit de 9 tonnes et 9 m de long. Chaque mois, 2 étages de Zenit passent à moins de 100 m l’un de l’autre ! S’ils se percutent de face, on double la population de débris en orbite », indique Christophe Bonnal

Rappelons que si nettoyer l’espace est une activité qui a le vent en poupe, cela reste pour le moment du domaine expérimental. Pour Christophe Bonnal, une des principales raisons est financière : « retirer un gros débris coûte entre 10 et 30 millions d’euros ».

Prix du dégroupage et 5G de Free Mobile : Stéphane Richard à l'attaque

2 février 2021 à 07:00

Rien ne va plus entre Orange et Free. Alors que les deux sociétés discutaient d’un partage de leurs réseaux 5G, ce n’est plus le cas. L‘épilogue d’une semaine chargée pour Stéphane Richard qui tirait tous azimuts sur le fixe et le mobile, aussi bien en direction de Xavier Niel que de Laure de La Raudière.

En octobre dernier, quelques semaines après la phase finale des enchères sur la 5G, Stéphane Richard lâchait une petite phrase sur un éventuel partenariat avec Iliad : « La voie est libre pour la mutualisation de la 5G entre Orange et Free ». Aucune précision n’était donnée, mais cela a (re)lancé la machine à spéculations.

Pour rappel, les deux opérateurs se sont déjà entendus sur la 2G/3G. Le second dispose d’un accord d’itinérance payant sur le réseau du premier depuis 2011 (afin de lui permettre de se lancer dans de bonnes conditions). Plusieurs fois amendé, ce contrat a été prolongé jusqu’au 31 décembre 2022, avec un débit limité à 384 kb/s.

Début janvier, Xavier Niel indiquait que « l'idée c’est d’avoir un réseau unique sur la totalité de [certaines] zones pour l’ensemble de nos abonnés, ce qui ne nous empêche pas d’utiliser nos fréquences et de chacun continuer à déployer ce qu’on souhaite, et avoir notre indépendance suffisante pour être capable de se différencier ».

Cet accord n’était donc pas sans rappeler celui entre Bouygues et SFR concernant la 4G. L’Arcep avait déjà fait savoir ne pas y être opposée, si certaines conditions étaient respectées évidemment.

5G : fin des discussions entre Orange et Free Mobile

Les discussions n’auront pas eu le temps d’avancer qu’elles sont déjà enterrées. Xavier Niel était le premier à avoir des mots relativement forts, comme le rapporte Les Échos : « On a arrêté ces discussions avec Orange […] On a découvert que le rythme d'une entreprise entrepreneuriale comme Iliad n'est pas celui d'Orange. On a bossé, mais nous n'y arrivions pas […] En face de nous, on avait une société qui n'avançait pas, qui ne tranchait pas ».

Il en profitait pour ajouter que sa société a « accéléré sur le déploiement de [son] réseau 5G ». En termes de couverture, l’opérateur revendique plus de 40 % de la population et donc la première place, grâce à une massive réutilisation de la bande des 700 MHz (nous y reviendrons). La confirmation est rapidement arrivée chez Orange, avec un communiqué expéditif : « Constatant une divergence de stratégie de déploiement, Orange a décidé de mettre fin aux discussions ». Bref, un arrêt des discussions des deux côtés.

Orange mettait alors en avant ses points fort disant avoir « fait de la qualité de ses réseaux une priorité ; le réseau mobile Orange est d’ailleurs classé meilleur réseau mobile de France pour la 10e année consécutive par l’Arcep. Le groupe est également très engagé dans le déploiement de la fibre en France, assurant deux tiers des 24 millions de logements déjà raccordables ».

5G sur les 700 MHz : « C'est de la 4G améliorée »

Puis Stéphane Richard est intervenu plus directement pour attaquer Free Mobile sur un autre pan de la 5G : les fréquences. Le PDG d’Orange reprend des arguments déjà avancés par Altice/SFR : « Pour nous la 5G, c’est celle qui utilise la bande de fréquences de 3,5 GHz. Le reste, ce n’est pas de la 5G, même si cela peut porter son nom. C'est de la 4G améliorée ». Le patron d’Orange se garde bien de parler de « fausse 5G », contrairement à Gregory Rabuel (directeur général de SFR Telecom) qui n’avait pas hésité à employer ce terme.

Cette déclaration – comme celle de Xavier Niel sur la 5G à 700 MHz – mérite par contre qu’on rappelle plusieurs points importants. Tout d’abord, la 5G actuelle est dite Non Standalone (NSA), se basant sur un cœur de réseau 4G, pour tous les opérateurs. Ce dernier passera à son tour à la 5G dans de prochaines itérations.

Ensuite, cette technologie ne dépend pas d’une fréquence en particulier, les opérateurs peuvent la proposer sur les 700, 800, 900, 1800, 2100, 2600, 3 500, 26 000 MHz… Le patron d’Iliad résumait ainsi la situation : « Si vous avez 10 MHz de spectre, quelle que soit la fréquence vous avez le même débit ».

Cette réalit�� ne doit pas en cacher une autre tout aussi importante : les opérateurs ont entre 70 et 90 MHz dans les 3,5 GHz, contre 20 MHz maximum sur toutes les autres bandes de fréquences, impossible donc de proposer des débits équivalents. C’est pour cela que les 3,5 GHz sont considérés comme étant au cœur de la 5G, car on peut y obtenir des débits théoriques beaucoup plus élevés, mais en couvrant moins de territoire par antenne déployée.

Dans son guide « Introduction à la 5G : les usages et les fréquences », l’Arcep propose deux images représentant bien la situation et les différences entre les bandes de fréquences. On peut d’ailleurs remarquer que les 700 MHz sont considérées comme des « fréquences "pionnières" de la 5G ».

Arcep 5G Introduction à la 5G : les usages et les fréquences

Une guerre marketing, pas technique

Ce n’est pas le seul grief de Stéphane Richard : « Tant pis si cela permet à d'autres de revendiquer des taux de couverture trompeurs », ajoute-t-il. On touche très certainement au fond du problème, qui est non pas technologique mais marketing : Free Mobile clame haut et fort couvrir plus de 40 % de la population en 5G.

Il revendique aussi avoir « le plus grand réseau 5G de France » à travers de vastes campagnes publicitaires placardées dans les rues… ce qui semble passablement énerver Orange.

Avant le lancement de la 5G, le régulateur des télécoms avait pourtant bien pris les devants : « on n’est pas du tout dans une position de dire qu’il y aurait de la bonne ou de la mauvaise 5G, parce que c’est plus compliqué, ce n’est pas binaire, ce n’est pas noir ou blanc, ça va dépendre de nombreux paramètres ».

Dans un entretien, Sébastien Soriano nous expliquait vouloir « éviter que les opérateurs fassent une carte qui mélangerait toutes ses expériences différentes » : « Idéalement on souhaiterait qu’un opérateur qui utilise plusieurs bandes de fréquences pour faire de la 5G – par exemple 700 MHz et 3,5 GHz – propose une carte des 700 MHz et une carte des 3,5 GHz ». C’est le cas chez Free Mobile, mais on regrette qu’aucune indication sur les débits en 700 MHz et en 3,5 GHz ne soit donnée aux clients. 

On voit certes une différence de couleur entre les fréquences, mais l’utilisateur devra se débrouiller seul pour comprendre quelles sont les différences dans la pratique. Or, elles peuvent être importantes en termes de débits même si cela n’en reste pas moins de la 5G.

Sur ce point, Orange est bien plus précis. En plus d’afficher des couleurs différentes pour les fréquences de la 5G, il donne des indications sur les débits maximums théoriques en 5G (au-dessus de sa carte) : « jusqu’à 2,1 Gbit/s en zones couvertes en 3,5 GHz [ou] 615 Mbit/s en zones couvertes par la bande 2100 MHz ». On voit donc bien que ce n’est pas du tout la même chose.

Dans son « combat », l’opérateur historique compte parmi ses alliés Familles Rurales. L’association a récemment assigné Free Mobile « sur le fondement des pratiques commerciales déloyales » : « la communication portée par cet opérateur pose problème en ce qu’elle laisse croire aux consommateurs un gain de performance que toutes les fréquences "5G" ne sont pas en mesure d’offrir à l’heure actuelle ». 

« On a un vrai problème avec le prix du dégroupage »

Autre sujet amené par Stéphane Richard : le réseau cuivre, notamment utilisé par les opérateurs afin de proposer des abonnements xDSL. Orange en a la charge et doit l’entretenir, mais avec une participation financière de l’ensemble des opérateurs qui payent pour chaque ligne dégroupée de leurs clients une dime mensuelle.

Une situation qui ne satisfait pas grand monde : des opérateurs et clients se plaignent de la qualité de service du service universel, quand Orange explique que cela lui coûte trop cher et demande une hausse des redevances. Un sujet qui n’est pas nouveau, loin de là même. Le régulateur était déjà monté au créneau en mettant en demeure Orange fin 2018, mais il avait déjà par le passé pointé du doigt la qualité de service jugée insuffisante.

D’autres, comme l’Association des opérateurs télécoms alternatifs (AOTA) soulevait la question d’une scission d’Orange afin « de séparer fonctionnellement et structurellement les branches de détail et d’infrastructure d’Orange ». L’Autorité de la Concurrence (ADLC) avait été saisie pour donner son avis, mais elle a répondu à l’AOTA « ne pas juger utile de donner une suite favorable à l’étude de cette saisine ».

« Il ne faut pas que des situations locales masquent le fait que sur un plan général un réseau cuivre fait l'objet d'allocation de moyens considérables », expliquait Stéphane Richard, comme le rapporte Le Figaro. Dans son viseur : Laure de La Raudière, nouvelle présidente de l’Arcep. « C'est un message que j'envoie à la nouvelle présidente de l'Arcep. On a un vrai problème avec le prix du dégroupage. Ce débat doit être ouvert sérieusement. »

Durant son audition à l’Assemblée nationale, la principale intéressée avait rappelé que « le réseau cuivré est vieillissant et pourtant, il assure encore la grande majorité des raccordements au téléphone ou à l'Internet de nos concitoyens, notamment dans les zones rurales ». « La qualité de service sur le réseau cuivre est préoccupante à certains endroits et doit faire l'objet d'une attention particulière de l’Arcep », ajoutait-elle.

Pour rappel, le réseau cuivre doit disparaitre à moyen terme. Le décommissionnement a débuté, mais ne devrait aboutir qu’à l’horizon 2030. En attendant, Orange milite pour une hausse notable des tarifs du dégroupage total.

Au cours des dernières années, il est passé de 9,31 euros en 2018 à 9,41 euros en 2019 et 9,51 euros en 2020. Suite à une décision de l’Arcep de mi-décembre, il est passé à 9,65 euros en 2021, 2022 et 2023. Un autre changement est de la partie pour les trois prochaines années : « l’augmentation du plafond tarifaire applicable aux frais d’accès au service par rapport au précédent encadrement tarifaire, passant de 50 euros à 70 euros ». 

« Plusieurs centaines de millions d'euros supplémentaires »

C’est visiblement insuffisant pour Stéphane Richard, qui souhaiterait que la rente mensuelle augmente de 2/3 euros, au lieu des 14 centimes accordés. « Si vous considérez que le réseau cuivre doit être opérationnel partout, à 100 %, avec des délais de réparation très courts sur l'ensemble du territoire, il faut probablement plusieurs centaines de millions d'euros supplémentaires », ajoute le patron d’Orange.

Ce dossier sera certainement un baptême du feu pour Laure de La Raudière, d’autant qu’il sera scruté de très près par la multitude d’opérateurs sur le territoire. Une autre raison tient à la carrière de la nouvelle présidente du régulateur : il y a vingt ans, elle était employée par France Télécom où elle est restée une quinzaine d’années. Cette expérience professionnelle avait d’ailleurs fait bondir Xavier Niel lorsque son nom avait été proposé. 

Laure de La Raudière s‘était défendu lors de ses auditions, en affichant évidemment sa volonté d’être neutre, à l’image de l’Arcep qui est le régulateur des télécoms. Sa décision sur les doléances d’Orange sera donc d’autant plus analysée, bien qu'elle ne soit pas seule, l’Arcep prenant des décisions collégiales. 

Quoi qu’il en soit, elle pourra s’appuyer sur « une mission flash sur le service universel » demandé par la Commission des affaires économiques de l’Assemblée nationale à la députée Célia de Lavergne. Des « propositions concrètes » sont attendues dès la mi-février.

Redevance Copie privée sur les biens reconditionnés : le secteur dénonce l’incohérence gouvernementale

2 février 2021 à 08:43

« Le Gouvernement prévoit de taxer les téléphones reconditionnés en leur appliquant une redevance copie privée qui ferait augmenter le prix de vente des téléphones reconditionnés de plus de 10 % et entrainerait la disparition de plusieurs entreprises actives sur ce secteur ». 

Le Syndicat Interprofessionnel du Reconditionnement et de la Régénération des Matériels Informatiques, Electroniques et Télécoms (SIRRMIET) ne décolère pas à l’idée de voir les biens reconditionnés frappés par la redevance pour Copie privée. 

Il se souvient qu’« en octobre dernier, Cédric O, Secrétaire d’État au Numérique, vantait les actions du gouvernement dans le cadre de la Loi Anti-Gaspillage pour une Économie circulaire et dévoilait, aux côtés de la ministre de la Transition Écologique, Barbara Pompili, sa feuille de route pour une sobriété numérique ». 

Le syndicat ne comprend du coup pas la cohérence, surtout quand il se souvient que « le Premier Ministre Jean CASTEX, visiblement peu avare de paradoxes, faisait la part belle en septembre dernier à la transition écologique en y consacrant 30 % de son plan de relance de 100 milliards d’euros ».

Si l’extension est votée au sein de la commission rattachée au ministère de la Culture, où les ayants droit bénéficiaires de cette ponction sont en force, « ces produits de seconde main dont l’objectif est d’apporter aux consommateurs un choix écologique plus vertueux se verraient taxer comme des produits neufs ».

Pour le syndicat, pas de doute, l’application d’une telle ponction sur ces produits « viendrait frapper durement » un secteur gorgé de PME en plein essor. 

« Sans compter un phénomène connu mais visiblement ignoré des pouvoirs publics : cette taxe sera obligatoirement payée par les entreprises françaises mais qu’en sera-t-il des acteurs étrangers vendant en masse sur les plateformes en ligne déjà peu soucieuses du paiement de la TVA ? » 

« Une belle filière vertueuse et pourvoyeuse d’emploi en France s’est constituée en quelques années, cette nouvelle taxe est sur le point de la détruire en contradiction totale avec la volonté affichée du gouvernement ».

Le CNES détaille le plan de relance spatial de 500 millions d’euros

2 février 2021 à 15:23

Le CNES, « opérateur unique du plan de relance spatial », vient de dévoiler sa feuille de route pour l’attribution des 500 millions d’euros annoncés par le président de la République. Elle comprend quatre volets survolant tous les domaines (lanceurs, applications, équipements…) et types de sociétés (des start-ups aux grands groupes).

En septembre dernier, le gouvernement annonçait son plan de relance de 100 milliards d‘euros pour « redresser durablement l’économie française et créer de nouveaux emplois », suite à la crise sanitaire. L’objectif est de « transformer l’économie en investissant prioritairement dans les domaines les plus porteurs et faire en sorte que la France puisse retrouver son niveau économique d’avant crise dans deux ans ».

Emmanuel Macron avait déjà expliqué que « 500 millions d'euros [sur les deux années qui viennent, ndlr] du plan France Relance seront consacrés à l'accélération du développement de propulsions à hydrogène et projets spatiaux ». Le Centre national des études spatiales (CNES) donne enfin des détails supplémentaires. Les premiers appels à projets sont déjà en ligne.

Sur les 500 millions, « 365 millions d'euros de nouveaux crédits »

Ce financement s’inscrit dans le volet compétitivité, un des trois principaux avec l’écologie et la cohésion : « un dispositif de plus de 500 millions d’euros, dont 365 millions d‘euros de nouveaux crédits, a été prévu par les pouvoirs publics pour venir en soutien au secteur spatial ». Il s’adresse « à toutes les entreprises du secteur ».

Le CNES en profite pour rappeler quelques chiffres : « le secteur spatial français totalise 4,2 milliards d’euros de chiffre d’affaires consolidé, dont plus de la moitié sur le marché commercial, et représente 16 000 emplois directs de haut niveau sur l’ensemble de la chaîne manufacturière. Il réalise plus de 50 % des ventes de l’industrie spatiale européenne ».

Il précise ensuite être « l’opérateur unique du plan de relance spatial », mais ajoute que sa mise en œuvre est suivie par un comité de pilotage comprenant notamment des instances du ministère de l’Économie, de celui des Armées et de l’Enseignement supérieur. 

Des projets collaboratifs, de 5 millions d’euros minimums

On trouve tout d’abord des appels à projets collaboratifs, qui se destinent donc principalement à des consortiums. « D’une assiette minimum de 5 millions d’euros avec cofinancement industriel », ils devront être « ambitieux et structurants pour la filière et irriguer l’ensemble de l’écosystème ».

Une première vague a d’ores et déjà été lancée sur les domaines suivants : 

  • Communications optiques : « fournir les futurs équipements et technologies destinés aux liens optiques bidirectionnels très haut débit pour les missions de télécommunications par satellite en orbite géostationnaire (GEO) […]

  • Satellites de télécommunication flexibles : tirer profit des innovations technologiques dans le domaine de la microélectronique et de l’électronique de puissance pour proposer des charges utiles de télécommunications de nouvelle génération à la fois flexibles et très capacitives […]

  • Virtualisation du segment sol : soutenir la R&D sur les produits et technologies permettant d’améliorer la compétitivité de l’industrie française dans le domaine des segments sols, élément clé dans l’exploitation des systèmes spatiaux […]. Il s’agit également de répondre à des enjeux de souveraineté et de confiance liés à la conception, à la qualification et à l’exploitation des systèmes spatiaux et des données issues de ces systèmes […]
  • Terminaux pour les télécommunications par satellite : soutenir les meilleurs projets pour la conception et la production de terminaux grand public et professionnel pour satellites géostationnaires et constellations haut débit (HTS : High Throughput Satellite), très haut débit (VHTS : Very High Throughput Satellite) et Internet des Objets (IoT : Internet of Things) […].

  • Économie de la donnée : développement de plateforme innovante et l’intégration d’un ou plusieurs cas d’usage représentatifs permettant de valider les fonctionnalités de plateforme et le rapprochement des utilisateurs et des fournisseurs en intégrant les spécificités des données spatiales. L’objectif est de garantir la création de valeur en France ».

Un plan dédié aux nanosatellites

Un autre volet veut « renforcer et structurer l’écosystème français des nanosatellites », c’est-à-dire ceux avec une taille pouvant atteindre 16U. Ils ont pour rappel le vent en poupe ces dernières années. Grâce à la miniaturisation, il est possible de faire beaucoup de choses avec de petites boites, qui coutent donc bien moins cher à envoyer en orbite. Les lanceurs s’adaptent d’ailleurs à ce nouveau marché en devenant plus flexibles sur l’agencement interne des charges utiles.

Ce plan dédié aux nanosatellites se divise en deux parties. La première baptisée « accélération» vise à accompagner la validation en vol d’équipements et de charges utiles. La seconde, « structuration de l’écosystème nanosatellites », comprend un appel à manifestation d’intérêt (AMI) afin de « mettre en place un Forum d’utilisateurs (opérateurs de services, utilisateurs potentiels commerciaux, institutionnels et scientifiques…) pouvant tirer parti de solutions de satellites nanosatellites ».

Ce « Forum Nanosatellites » est animé par le CNES et réunira donc « les opérateurs de services à valeur ajoutée et les utilisateurs potentiels commerciaux, institutionnels (DGA, CDE, …) et scientifiques (INSU, CNRS, CSU…) pouvant tirer parti de solutions de satellites nano ». Il est destiné à recueillir les besoins de l’ensemble des acteurs du marché, sur les « objectifs applicatifs, de contraintes marché, de capacité de démonstration en vol, d’enjeux de souveraineté et d’enjeux sociétaux ».

Appels d’offres sur des technologies « duales » et pitch days

Le CNES annonce aussi l’arrivée d’appels d’offres ou de contrats de gré à gré « thématisés », qui concernent « en priorité les PME et ETI du secteur spatial ». Le but est « d’acquérir des technologies d’avenir duales, c’est-à-dire avec des applications civiles et militaires, présentant des risques techniques importants ». Cette fois-ci le projet doit avoir un porteur unique et le financement peut atteindre 100 %.

Pour les PME et les start-ups, il y aura des « pitch days ». Cette action du plan de relance doit son nom à la manière dont elle est organisée : les lauréats seront sélectionnés lors d’auditions – ou « pitch days » – mises en place dans des régions partenaires du CNES. Les projets devront proposer « des services innovants valorisant des données, produits ou infrastructures spatiales existantes », et il devront « apporter des solutions concrètes à un défi sociétal ou une thématique ».

Jeff Bezos va quitter son poste de CEO d’Amazon et passera le flambeau à Andy Jassy (AWS)

3 février 2021 à 06:19

Au troisième trimestre de cette année, Andy Jassy sera à la tête du géant de l'eCommerce Amazon. Jeff Bezos gardera tout de même un pied dans la société, mais consacrera désormais bien plus de temps à ses autres projets, qui vont de la philanthropie à l’espace en passant par la presse.

Jeff Bezos est le fondateur d’Amazon, plateforme de vente en ligne créée en 1994. À l’époque, ce « n'était qu'une idée, et elle n'avait pas de nom », explique le patron dans un email aux employés.

La situation a bien changé depuis : « Aujourd'hui, nous employons 1,3 million de personnes […] servons des centaines de millions de clients et d'entreprises et sommes largement reconnus comme l'une des entreprises les plus prospères au monde ». Il ajoute qu’« être le CEO d'Amazon est une responsabilité importante et usante. Lorsque vous avez une responsabilité comme celle-là, il est difficile d’avoir de l’attention sur autre chose ».

Jeff Bezos se consacre à d'autres projets

Or l’homme d’affaires a bien d'autres projets en cours. C’est d’ailleurs la raison invoquée pour expliquer qu’il va quitter son poste de CEO d’Amazon. La transition aura lieu au cours du troisième trimestre de l’année, après quoi il restera toujours présent comme président exécutif du conseil d'administration.

« Je disposerai du temps et de l'énergie dont j'ai besoin pour me concentrer sur Day One Fund, le Bezos Earth Fund, Blue Origin, Washington Post et mes autres passions ». « Je n’ai jamais eu autant d’énergie et il ne s’agit pas de prendre ma retraite », prévient Jeff Bezos (57 ans) dans sa lettre.

Ce ne sont pas les fonds qui lui manquent puisqu’il est au coude à coude avec Elon Musk pour le titre de l’homme le plus riche du monde avec ses 185 milliards de dollars.

Andy Jessy aux commandes

Son remplaçant était tout désigné : Andy Jassy, employé depuis 1997, trois ans après sa création seulement. Il est surtout, l’homme derrière Amazon Web Services (AWS), ayant créé cette division en 2003, son patron depuis 2016. Pour rappel, les revenus d’AWS sont en perpétuelle augmentation, pour arriver à 12,742 milliards de dollars sur le dernier trimestre de 2020, sur un total de 125,555 milliards de dollars.

C’est donc encore loin des ventes d’Amazon – 75,346 milliards de dollars en Amérique du Nord et 37,467 milliards dans le reste du monde –, mais le bénéfice opérationnel est le plus important : 3,567 milliards de dollars contre « à peine » plus de 3 milliards de dollars pour le reste. Nommer au poste de CEO d’Amazon le patron d’AWS laisse présager que cette branche devrait encore prendre de l’importance au sein de la société.

Une chose est sûre : « le départ de Bezos comme directeur général va provoquer une onde de choc dans le monde de la tech. C’est un titan du secteur. Il va laisser une marque indélébile ; il a changé le monde », explique un analyste à l’AFP. Même si d'autres ont déjà fait ce choix avant lui, comme Bill Gates chez Microsoft.

Au CSPLA, une mission sur les métadonnées des images fixes

3 février 2021 à 07:57

L’instance consultative du ministère de la Culture, où une majorité d’ayants droit siègent, lance une mission sur les « métadonnées » liées aux images fixes. Le document date du 16 décembre dernier.

« La directive européenne 2001/29 du 22 mai 2001 a expressément consacré les métadonnées en tant qu’enjeu pour le développement des licences et la gestion facilitée des droits en ligne » rappelle Olivier Japiot, président du Conseil supérieur de la propriété littéraire et artistique. 

« Afin d’encourager les titulaires de droits à recourir à des procédés techniques pour identifier leurs œuvres et le régime y afférent, la directive impose aux États membres l’adoption de sanctions contre les activités illicites visant à supprimer ou à modifier les informations sous forme électronique sur les œuvres et objets protégés ».

Dans la mission confiée au professeur Tristan Azzi, celui-ci devra notamment « dresser un point de situation et (…) identifier les éventuelles nouvelles questions qui se posent, compte tenu notamment de la plus grande diversité des acteurs qui diffusent des images en ligne et dont certains concentrent certains usages culturels ». 

Le rapport est attendu en juin 2021.

Recherche fondamentale, algorithmique, capteurs : les autres piliers du Plan Quantique

4 février 2021 à 07:30

Dans le monde du quantique, la recherche fondamentale et l’algorithmique occupent une place très importante. Il en est de même pour les capteurs quantiques qui, pour certains, sont déjà passé au stade de produits commerciaux. Autant d’aspects sur lesquels la France investit pour les prochaines années.

Après l’annonce du Plan Quantique de 1,8 milliard d’euros, plusieurs scientifiques du CEA et du CNRS se sont regroupés pour détailler les tenants et les aboutissants de ce projet impliquant plusieurs laboratoires de recherche.

Sébastien Tanzilli (chargé de mission technologies quantiques au CNRS) rappelle à ce titre que « la partie programme prioritaire de recherche est effectivement conjointement gérée par le CNRS et le CEA, mais également INRIA et, bien sûr, toujours en association avec les partenaires universitaires ».

Après la course à la conception d’un ordinateur et l’important bouleversement du quantique dans les communications, étudions les implications et ambitions de ce Plan sur d’autres piliers de l’informatique quantique, notamment deux points essentiels : la recherche fondamentale et sur l’algorithmique, fortement intriquées. 

Notre dossier sur le Plan Quantique en France : 

Des capteurs toujours plus précis, avec une sensibilité « ultime » ?

Le troisième champ d’action du plan présenté par Emmanuel Macron concerne les « capteurs quantiques », qui sont selon le président « impératifs pour notre souveraineté ». Ils bénéficient d’un financement de 250 millions d’euros.

Sébastien Tanzilli commence par rappeler de quoi il est question : « ils sont utiles à la métrologie, une branche de la science qui permet de qualifier un certain nombre de paramètres physiques. Les sensibilités et les précisions des mesures peuvent être grandement améliorées, voire même être exceptionnelles ».

Un exemple dans l’actualité récente concerne l’interférométrie, où des capteurs quantiques sont désormais utilisés. Virgo par exemple est un célèbre interféromètre situé à Pise (en Italie) qui a participé aux premières détections d’ondes gravitationnelles, une révolution dans le monde de la physique.

Il existe aussi d’autres domaines plus « concrets » pour le grand public :

« Ces capteurs quantiques adressent de nombreuses applications telles que la médecine (typiquement l'imagerie cellulaire) […] la cartographie des champs magnétiques, le génie civil parce qu'ils permettent de découvrir par exemple des cavités souterraines qui pourraient être dangereuses, ils adressent également les télécommunications optiques standards avec notamment la codification de matériaux, la gestion des ressources naturelles typiquement la découverte de nappes phréatiques ou pétrolifères… ».

Arnaud Landragin (chercheur du CNRS au laboratoire Syrte) explique que, comme pour l’échange de clés quantiques dans le domaine des communications, « quelques applications commencent déjà à avoir des appareils commerciaux ». Il donne quelques exemples d’usages commerciaux (qui restent tout de même assez spécialisés) : « des capteurs inertiels pour les gravimètres pour la géophysique et également en magnétométrie ».

Bref, « il y a un certain nombre de systèmes […] qui commencent à être commercialisés ou utilisés à des buts de recherche, mais avec des appareils qui peuvent être utilisés par des non-spécialistes » de la physique quantique. Dans tous les cas, les capteurs quantiques sont encore « en phase de développement, avec des potentiels d'amélioration qui sont encore très très inexploités ». 

Peut-on parler de sensibilité « ultime » avec les capteurs quantiques ? Non répond sans détour Arnaud Landragin : c'est finalement « toujours une étape avant qu’un autre ait une meilleure idée ». Cela permet dans tous les cas de profiter de « sensibilités inatteignables par des systèmes classiques dans un certain nombre d'activités ».

Ne surtout pas négliger la recherche fondamentale

Philippe Chomaz (directeur scientifique à la Direction de la recherche fondamentale du CEA) revient ensuite sur le quatrième (et pas des moindres) point clé du Plan Quantique, la recherche fondamentale, qui touche l’ensemble des domaines d’applications que nous avons précédemment évoqué :

« Une partie des concepts est déjà disponible, mais fait l'objet d'une recherche fondamentale qui va permettre de résoudre certains problèmes, de lever certains verrous, d'inventer de nouveaux concepts, par exemple de calcul et de correction d'erreur pour les qubits que l'on peut créer et qui sont imparfaits ».

Le Plan Quantique va évidemment soutenir cette recherche fondamentale (qui est indispensable), d’autant que c’est « justement un des domaines où la France et l'Europe sont vraiment fortes ». Ces recherches se déroulent évidemment en parallèle de développements « pratiques » de produits basés sur les connaissances actuelles. Les responsables de recherche du CEA et du CNRS veulent faire passer un message important :

« la recherche fondamentale – qu'elle soit conceptuelle ou expérimentale pour faire des preuves de concept ou de principes – irrigue et irriguera encore longtemps les piliers des technologies quantiques que sont la communication, les capteurs et le calcul.

C'est vraiment important de bien matérialiser le fait que cette recherche fondamentale revêt un caractère extrêmement important pour la poursuite des recherches en technologies quantiques, et notamment au travers de ce Plan Quantique ».

Les deux champs du quantique – recherche fondamentale et applications pratiques – doivent ainsi être explorés en même temps, d’autant qu’elles sont très complémentaires : « la recherche fondamentale irrigue les applications, aussi bien que les applications irriguent la recherche fondamentale ».

« Bien sûr les applications et les cas d'usages sont importants, mais la recherche fondamentale on ne pourra malheureusement pas faire grand-chose sans y consacrer une bonne part d'argent et de temps », lâche Sébastien Tanzilli. Si les chercheurs ont déjà des concepts près à être transposés, d’autres restent encore à découvrir, et certains pourraient être une révolution ; il ne faut pas passer à côté.

Les enjeux autour des algorithmes quantiques

En parallèle des ordinateurs quantique, il faut préparer le terrain à la partie logicielle et travailler sur des algorithmes capables de tirer partie des futures machines. C’est aussi « un domaine de la recherche fondamentale très important » affirme le chargé de mission au CNRS.

« En fait, il y a peu d'algorithmes encore connus et chaque décennie nous permet d'en découvrir quelques-uns », explique-t-il. Le premier et certainement le plus connu nous le devons à Peter Shor qui « a inventé le premier algorithme quantique permettant d’accélérer de façon spectaculaire la factorisation d’un nombre », se souvient Bernard Ourghanlian (CTO et CSO de Microsoft France) dans un billet de 2017 encore d’actualité.

Il « permet à un ordinateur quantique de factoriser un nombre de n chiffres en un temps évoluant comme n² (donc en un temps polynomial), là, où le temps de calcul du meilleur ordinateur classique progresse exponentiellement ». IBM l’a utilisé en 2001 pour factoriser 15 (3 x 5) avec un calculateur quantique à 7 qubits. On était alors à des années-lumière de la suprématie quantique, mais une étape était incontestablement franchie.

Microsoft donne un exemple chiffré du potentiel de l’algorithme de Shor avec la factorisation RSA-2048 (un nombre avec 617 chiffres décimaux, ou 2048 chiffres binaires) : « Il faudrait littéralement un milliard d’années pour résoudre un tel problème sur un ordinateur classique… Si nous avions un ordinateur quantique, il nous faudrait seulement environ 100 secondes en utilisant l’algorithme de Shor ».

La faible disponibilité d’algorithmes quantique contraste complètement avec les enjeux qu’ils soulèvent. Ils promettent en effet d’être « disruptifs sur plusieurs problématiques et domaines d'application : la cryptographie, la chimie moléculaire, la conception de matériaux et de médicaments, l'hydrodynamique par exemple pour l'aéronautique, les prévisions financières, l'intelligence artificielle, l’optimisation en général (logistiques)… En fait, c’est qu’un ensemble de domaines d'applications qui sont en plein développement ».

Les algorithmiciens en embuscade/attente

Tristan Meunier (chercheur du CNRS à l’Institut Néel) explique pourquoi cette branche est – pour le moment – le parent pauvre de la recherche fondamentale en quantique : « c’est lié au fait que pas beaucoup de gens s’y soient intéressés parce que les algorithmiciens en général travaillent directement sur les machines […] et on n’a pas de machines ou des machines trop petites pour le moment ». 

Par exemple, simuler 50 qubits sur des systèmes classiques représente de trop gros problèmes, car « la complexité est trop importante ». Pas facile donc d’avancer dans de telles situations puisque les chercheurs ne peuvent pas confronter leurs travaux à la réalité. Tristan Meunier se montre néanmoins optimiste : « Les algorithmiciens, à partir du moment où il va y avoir un hardware plus performant, vont s’intéresser à ces problèmes ».

Cela ne se fera pas d’un claquement de doigts prévient Maud Vinet (responsable du programme matériel quantique au CEA-Leti). Pour développer des algorithmes de ce genre, « il faut penser quantique »… et ce n’est pas si simple de devoir totalement revoir sa manière de penser et d’appréhender les mathématiques… ceux qui s’y sont déjà essayés savent certainement de quoi il s’agit.

Pour y arriver, « Il faut mettre en place des systèmes de formations dédiées », ajoute-t-elle. De son côté, Nicolas Sangouard (chercheur à l’Institut de physique théorique de CEA-Paris-Saclay) rappelle à toutes fins utiles qu’il « y a une grosse demande de la part des industries pour embaucher des ingénieurs qui ont cette expertise ».

Dans la dernière partie de notre dossier, nous aurons l’occasion de voir comment le Plan Quantique compte essayer de garder/attirer des chercheurs, ainsi que comment il s’articule au niveau européen et face aux autres nations. Nous évoquerons aussi la question environnementale de l’informatique quantique.

Pollusols  : « à Nantes, une étude inédite sur la pollution des sols »

4 février 2021 à 09:19

Dans son journal, le CNRS revient sur les résultats de cette étude, où des scientifiques « ont travaillé durant cinq années sur les pollutions diffuses causées par les métaux (cuivre, plomb...), les radioéléments (uranium, tritium) ou encore les pesticides – des polluants que l’on retrouve pour certains jusque dans l’estuaire de la Loire ».

La région nantaise est passée à la loupe, avec un bilan inquiétant. Le Centre national pour la recherche scientifique précise qu’il s’agit d’un « enjeu majeur » car « les grandes métropoles lorgnent les friches industrielles et agricoles pour s’agrandir ». 

« Même si elles sont peu élevées, ces concentrations peuvent être problématiques pour l’environnement comme pour la santé humaine. On est sur de la toxicité chronique, avec un effet cumulatif dans le temps et une possible combinaison de polluants », explique le CNRS.

Ce dernier avance une solution pour les jardins partagés : « l’utilisation de plantes accumulatrices de plomb pour progressivement assainir les parcelles. C’est la méthode dite de phytoextraction. Certains végétaux, comme la moutarde brune, sont en effet de véritables “aspirateurs” à métaux ».

« On a cette pollution et on va devoir vivre avec », affirme Thierry Lebeau (spécialiste de la pollution des sols au Laboratoire de planétologie et géodynamique) en guise de conclusion. Il préconise d’adopter une approche adaptée à chaque situation : « Il s’agit de trouver des usages compatibles avec la qualité de chaque sol ».

 

Benoit Loutrel (ex-Arcep, ex-Google) : ses ambitions et espoirs comme membre du CSA

5 février 2021 à 09:45

Benoit Loutrel va devenir membre du CSA. Lors d’une audition à l'Assemblée nationale, cet ancien de l’Arcep et Google a détaillé sa vision des choses sur de vastes sujets : les réseaux sociaux, l’espace « informationnel », la TNT, la neutralité des objets connectés ou encore la Hadopi.

Mardi 2 février, des auditions avaient lieu afin de valider (ou non) l’arrivée de deux nouveaux membres au sein du Conseil Supérieur de l’Audiovisuel (CSA). La première concernait la proposition de nomination de Benoit Loutrel par le président de l’Assemblée nationale (Richard Ferrand) et la seconde celle de Juliette Théry-Schultz par le président du Sénat (Gérard Larcher).

Benoit Loutrel et Juliette Théry-Schultz validés pour rejoindre le CSA

Comme pour Laure de La Raudière, il n’y avait pas grand suspense quant aux résultats du vote (ils doivent obtenir au moins 3/5 des voix) : Benoit Loutrel est ainsi conforté avec 31 pour et 2 contre, tandis que Juliette Théry-Schultz a obtenu l’unanimité. Leurs nominations seront officialisées au Journal officiel.

Juliette Théry-Schultz a passé plus de 11 ans à l’Autorité de la concurrence, avec un break de deux ans comme rapporteure sur le secteur bancaire et financier pour le compte de la Commission européenne. Le parcours de Benoit Loutrel est différent, avec un passage notable de quelques mois chez Google France et une expérience autour de la régulation de Facebook.

En 1993, il commence sa carrière à l’Insee, puis passe par la finance (dont la Banque mondiale à Washington), devient directeur de la régulation des marchés fixe et mobile. Il est ensuite directeur général adjoint de l’Arcep entre 2004 et 2007. Pendant trois ans il est responsable du programme Économie numérique au Commissariat général à l’Investissement, avant de revenir au régulateur des télécoms comme directeur général pendant trois autres années. 

En mars 2017, changement de cap avec un passage éclair de neuf mois comme directeur des politiques publiques et relations gouvernementales chez Google France. Une annonce qui avait fait couler beaucoup d’encre, notamment lorsque la sénatrice Catherine Morin-Desailly s'est alarmée de possibles conflits d’intérêts. De son côté, le Canard enchainé épinglait « ses diners parisiens avec des responsables de ministères, dont celui de la Culture »,

En décembre 2017, retour aux premières amours comme inspecteur général à l’Insee. Dans le même temps, il anime une « expérience française pour réguler Facebook » en termes de lutte contre les contenus haineux au Secrétariat d'Etat au numérique.

« Un proche des GAFAM nommé au CSA »

Il va désormais entrer au CSA. Un parcours riche en expériences, mais qui soulève aussi des inquiétudes. C’est notamment le cas de Tariq Krim (entrepreneur et ancien vice-président du Conseil national du numérique) qui lâche sur Twitter : « Un proche des GAFAM nommé au CSA ». 

Son audition à l’Assemblée nationale permet d’avoir son point de vue sur certains sujets, notamment autour de la régulation des réseaux sociaux, des objets connectés, de la collaboration avec l’Arcep, etc. On notera tout de même un oubli cinglant : pas un mot sur Hadopi durant son discours introductif. Il se rattrape ensuite lors de la session des questions/réponses.

Voici notre compte rendu de son audition de près d‘une heure et demie.

« Par opportunité j’ai rejoint Google France »

Bien évidemment, Benoit Loutrel est revenu sur son passage chez le géant américain du Net : « par opportunité j’ai rejoint Google France comme directeur des affaires publiques et des relations institutionnelles […] La discussion était très simple entre eux et moi à l'époque : j'avais la conviction qu'ils devaient être régulés et qu'ils devaient s'y préparer et qu'il y avait un rôle à jouer pour un acteur comme Google d'être proactif dans son rapport aux pouvoirs publics. C'est sur cette base qu'ils m’ont recruté [et] que j'ai candidaté ».

L’idylle fut de courte durée : « J'y suis resté neuf mois ce qui est court, parce qu'il est apparu assez vite qu’ils n'avaient pas en fait la volonté d'être des acteurs proactifs de la mise en place de cette régulation », une position qui ne devrait finalement pas surprendre grand monde de la part d’une société commerciale…

« J'ai découvert aussi que leur modèle à l'époque d'autorégulation manquait de crédibilité et qu'ils ne voulaient pas le voir […] et donc ils ont mis fin à l'expérience au bout de neuf mois », explique-t-il à l’Assemblée nationale. Il ajoute néanmoins : « je n'ai jamais autant appris qu'en neuf mois dans cette entreprise  ». Cette expérience serait donc une force qu’il pourrait mettre au service du CSA, même si on l’imagine mal affirmer le contraire. 

« Jouer au régulateur » avec Facebook

Il revient ensuite sur « l’expérience de régulation avec Facebook » de 2019. Avec l’accord et la participation du réseau social, « on a mis en place une équipe, un vrai-faux régulateur pour jouer au régulateur pendant quelques mois ». Il était épaulé par une dizaine de spécialistes (juriste de la plateforme Pharos, gendarme, juge, etc.) sur des sujets allant de la cybersécurité à l’intelligence artificielle.

Un rapport « très court » en a découlé, mais avec un élément important : « nous avons réalisé à quel point la puissance que cette entreprise déteint sur nos écosystèmes informationnels […] n'est pas seulement liée dans la fonction de modération […] mais qu’elle est beaucoup plus vaste ».

Selon Benoit Loutrel, il a plusieurs autres fonctions « stratégiques » dont disposent ces plateformes. Rien de nouveau ici, mais cela montre certainement le chemin qu’essayera de suivre le futur membre du CSA :

« Vous souscrivez à toute une série de comptes, que ce soit sur Twitter, sur Facebook, sur YouTube. Le soir, vous avez des centaines et des centaines de contenus que vous pouvez regarder, mais ces contenus ont été ordonnés. Et vous ne lirez que les premiers, vous ne lirez quasiment jamais les derniers. Et ce sont leurs algorithmes qui ont choisi, qui ont organisé l'ordonnancement de ses contenus. Donc cette première fonction est stratégique, vous pouvez enterrer des idées ou au contraire les mettre en valeur […]

La seconde fonction est celle de ciblage : il y a des choses que vous n’avez pas demandées, mais qu’on pousse en avant […] que ce soit pour le compte des plateformes ou de tiers avec la publicité ciblée. Vous voyez que ce pouvoir est puissant surtout qu’il est individualisé […]

La troisième fonction est qu’on vous suggère votre sociabilité : "vous devriez rejoindre tel groupe". Et donc bien évidemment la capacité à influencer notre dynamique sociale est phénoménale. Ces trois fonctions sont d’abord toutes aussi importantes, mais qui plus est, elles ne sont pas observables ».

Un « régulateur de la transparence des réseaux sociaux »

Des propos qui font évidemment en écho au futur de la régulation des plateformes, le Digital Services Act préparé à l'échelle européenne. « Tout ce que nous savions, nous ne le savions que parce que Facebook nous l’avait dit. Nous ne pouvons pas observer la réalité du comportement de Facebook […] car il a été individualisé en fonction de votre usage et vos caractéristiques, par des traitements de masse ». En clair, « mon » Facebook ne ressemble à celui de personne d’autre, on ne peut donc l’observer dans son ensemble et en tirer des conclusions.

« Ces gens détiennent une puissance phénoménale sur nos démocraties, mais nous ne sommes pas en mesure de les observer, au-delà des déclarations unilatérales qu’ils nous font. Aujourd’hui nous vivons dans un système d’autorégulation qui vit sur une transparence autoproclamée qui n’est soumise à aucun contrôle ». Benoit Loutrel en profite pour rappeler quelques pistes données dans le rapport.

« S’il n’y avait qu’une seule chose à faire, ça serait de les enfermer dans le carcan d’une obligation de transparence juridiquement opposable », explique-t-il. Pour cela, il ne faudrait pas forcément « un régulateur des réseaux sociaux, mais un régulateur de la transparence des réseaux sociaux », qui serait capable de vérifier et/ou sanctionner les plateformes si besoin. Là encore, les références au DSA sont évidentes, puisque c'est exactement ce qui est en train d'être préparé... 

« L’enjeu est d’amener ces entreprises à devenir des partenaires de notre société et à ne pas rester des passagers clandestins qui réussissent économiquement […] d’obtenir qu’elles s’engagent au profit d’objectifs d’intérêt général ». Son passage chez Google lui aura certainement montré que ce ne sera pas fait d’un coup de baguette magique, d’autant qu’il faudra réussir à coordonner l’ensemble des régulateurs européens sur ce sujet.

Pour le candidat au poste de membre du CSA, les conclusions de ce rapport sont – au moins – une partie de la réponse à la question : « pourquoi je suis candidat aujourd'hui à cette fonction ? ».

Le cas Donald Trump

Durant la session de questions-réponses, le bannissement de Donald Trump des réseaux sociaux est revenu sur le tapis. Cette décision de suspendre le compte « a interpellé le monde entier » indique-t-il : « Je pense que, comme tout le monde, on a été interloqué de se dire : "mais comment est-ce qu'on se trouve dans une situation où les acteurs privés sans cadre juridique sont amenés à décider eux-mêmes qu’un président des États-Unis ne peut plus intervenir sur les réseaux sociaux !" ». Inversement pourrions-nous souligner : pourquoi un chef de l’État n’aurait pas à respecter les conditions générales d’utilisation d’un réseau social, qu’il a acceptées ? 

« Ça a électrisé tout le monde et achevé – je pense – de convaincre les derniers réticents qu'il était urgent d'avoir un cadre juridique dans lequel s'inscrit le pouvoir que les réseaux sociaux peuvent détenir pour pouvoir le cas échéant le rendre contestable, objectif, transparent… ».

Et il enchaine :

« je rajouterais quand même que c'est la partie émergée de l'iceberg. Les réseaux sociaux hier, aujourd'hui et demain, encore une fois, peuvent choisir simplement d'influencer l'ordre des contenus ; d'enterrer la parole d'un homme politique, ou au contraire de la mettre en exergue […] 

Vous me direz, les médias traditionnels aussi ont ce même pouvoir. Oui, mais vous le voyez. Encore une fois sur les réseaux sociaux, vous ne le voyez pas aujourd'hui. Si tout le monde a réagi, c'est que là on a vu, ils ont pris le pouvoir extrême qui était de dire je coupe l'accès de Donald Trump, mais ils peuvent toujours avoir toute cette palette d'interventions tout aussi puissante quasiment, mais invisible. Et donc là aussi, j'en conclus qu'il y a urgence à avancer ».

CSA et Arcep : coopération nécessaire, « dimension politique »

Benoit Loutrel est ensuite revenu sur la « nécessaire et naturelle » coopération du CSA avec l’Arcep, un sujet qu’il connait bien au regard de son parcours. Alors qu’il est questionné sur la possibilité d’avoir un membre commun entre les deux régulateurs, il se dit « dubitatif » et balaye poliment l’idée : « À ma connaissance, dans les deux collèges c'est un travail à plein temps, il faudra donc trouver le surhomme ou la surfemme capable de participer activement dans les deux collèges ».

Il rappelle néanmoins que les deux institutions ont déjà « des mécanismes qui existent depuis toujours », notamment avec les saisines croisées ou bien des demandes d’avis quand le CSA intervient sur un secteur très lié aux télécommunications, et réciproquement. 

Ce n’est pas tout : « Depuis un an maintenant, vous avez une unité commune et un programme de travail commun parce qu'on voit bien que les deux sont amenés à s'interroger sur le rôle joué par les terminaux, soit dans les services de médias audiovisuels, soit évidemment sur les réseaux de communications électroniques ». Un rapport commun sur les « usages numériques des Français » vient d’ailleurs tout juste d’être mis en ligne.

Il n’est pas non plus pour des rapprochements entre régulateurs à outrance, car on pourrait finir par « rassembler tous les régulateurs […] ça pose un problème démocratique. Je connais le nom de ce [futur] régulateur : on l’appellera Commission européenne à la Française, mais je ne pense pas que ça soit totalement pertinent ».

Enfin, il donne une différence fondamentale, selon lui, entre les deux régulateurs : « Il y a une dimension politique dans ce que fait le CSA, qui n’est pas présente dans ce que fait l’Arcep ». Ce n’est pas la seule.

« Il y a un seul espace informationnel »

Pour Benoit Loutrel, le CSA « est le garant de l’intégrité, de la confiance dans l’écosystème informationnel, dans les conditions dans lesquelles se font le débat public, c’est la seule institution qui peut intervenir pour veiller à ce que les gens comprennent comment l’information circule, se fait et comment il faut juger sa qualité ». Bref, « ça n’a rien à voir avec les missions de l’Arcep qui est un régulateur d’infrastructure ».

Revenant sur les nouvelles compétences que le CSA est en train de récupérer sur le secteur des plateformes numériques et des réseaux sociaux, il explique qu’au final « il y a un seul espace informationnel. Quand on veut mettre en place des politiques pour essayer de lutter contre les désinformations, il faut agir sur l'ensemble du spectre et donc à la fois sur les médias audiovisuels et sur les réseaux sociaux », sans oublier la presse traditionnelle.

La régulation « devra prendre de nouvelles formes parce qu’ils n'ont pas de fonction éditoriale, ils ont cette fonction algorithmique qui est nouvelle et qui va demander de définir sur mesure un nouveau mode pour les responsabiliser, comme le CSA a su le mettre en œuvre sur les médias audiovisuels ». Il n’en dira pas plus.

La question des fréquences : TNT vs téléphone mobile

Il revient ensuite sur un sujet sensible : les fréquences hertziennes. Alors que l’Arcep milite pour en avoir toujours plus à attribuer aux opérateurs de téléphonie mobile, le CSA veut au contraire en garder pour la TNT. Dans le dernier volet de cette bataille, la TNT avait dû se réorganiser pour laisser de la place dans les 700 MHz aux opérateurs pour la 4G.

« Il y a des désaccords parfois entre régulateurs, il y a des choix politiques à faire entre les télécommunications et l'audiovisuel », explique-t-il. Comment se positionne cet ancien de l’Arcep ? « Moi, j'ai trouvé à l'époque extrêmement sain que chaque régulateur instruise le sujet vu de son industrie ». C’est ensuite au tour du pouvoir de « prendre les décisions qui étaient de nature politique » : « j'aurais trouvé surprenant qu'on laisse ça dans les mains d'un régulateur, qui n'a pas là légitimité suffisante pour le faire ».

Il reconnait ensuite que passer de l’Arcep au CSA oblige un peu à retourner sa veste sur certains sujets : « Sur la TNT, je crois qu'en cherchant bien, vous pouvez retrouver des déclarations de ma part, dont j'étais l'auteur en tant que directeur général de l'Arcep : c’est de bonne guerre quand vous êtes le régulateur des télécoms, d'expliquer que vous avez un meilleur usage de ces fréquences ».

« Réciproquement, je pense que si quelqu'un en doutait, la crise que nous traversons actuellement à montré à quel point il n'est pas imaginable de ne pas avoir des médias nationaux avec diffusion hertzienne qui sont accessibles à tout le monde »… il s’agit évidemment du discours d’un futur membre du CSA, mais on pourrait très probablement le mettre dans la bouche d’un arcepien en remplaçant simplement « hertzienne » par « mobile ».

Déjà dans son rôle de membre du CSA, il ajoute : « Aujourd'hui, vous avez 20 % de la population qui n'accède pas à la télévision autrement que par la TNT. Un jour, je n'en doute pas, la TNT devra être éteinte […] mais ce jour n'est pas arrivé et n'arrivera pas dans les six ans à venir », la période durant laquelle il sera membre du CSA.

Cachez cette Hadopi que je ne saurais voir…

Durant le discours introductif de Benoit Loutrel, une institution brillait par son absence : Hadopi, qui n’a pas eu droit au moindre petit mot. Interrogé sur la fusion de cette instance avec le CSA au sein de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), il répond : « je m'excuse, je n'ai pas mentionné dans mon propos, mais j'ai bien en tête » ce projet, retardé pour cause de crise sanitaire.

« Cette commission [parlementaire, ndlr] notamment a exprimé de manière répétée son soutien au projet de fusion avec Hadopi. Moi, ça me paraît évident, au sens où Hadopi et CSA travaillent sur le même écosystème : le système de l'audiovisuel, de la création des contenus ».

Cette complémentarité serait même évidente selon lui :

« Les outils et aussi le savoir-faire des équipes de la Hadopi complèteraient extrêmement bien le savoir-faire et les outils du CSA […] Le CSA intervient sur le financement de la production et de la création, Hadopi sur la lutte contre le piratage. Dans les deux cas, on travaille sur le modèle économique de nos industries culturelles. On voit qu’il y a un gain énorme à rassembler les deux ensembles ».

Neutralité des objets connectés, le « joker » sur la publicité

Un autre sujet abordé durant la session des questions-réponses concerne la régulation des télévisions, enceintes et autres objets connectés : cette problématique, « tous les pays européens se la posent, et donc il va falloir aller chercher à l'échelle européenne. C'est là que, éventuellement, on pourra imaginer agir effectivement pour avoir de nouveaux standards sur ces équipements sur l’ensemble du marché européen ».

Le but étant de mettre en place « des standards d'ouverture et des garanties d'ouverture et de neutralité de ces équipements pour que, là aussi, l'obligation et le besoin de pluralisme de l'expression des opinions puissent se concrétiser ».

Enfin, un dernier point concernait la publicité et plus particulièrement « le décalage du commencement des programmes », sur lequel le CSA a déjà annoncé qu’il serait « très attentif au respect » des engagements des chaînes. De son côté, Benoit Loutrel bottait en touche : « Est-ce que vous m'autorisez à un joker ? ». Il rappelle que le CSA prend des décisions collégiales et qu’il va avoir « besoin de l'expertise de [ses] collègues ».

Il ajoute néanmoins une précision : « On marche sur des œufs parce que la publicité est aussi le nerf de la guerre dans cette industrie, qui est sous tension actuellement notamment compte tenu de la crise sanitaire ».

Bandes-annonces au Super Bowl LV :  Fast & Furious 9, Falcon et le Soldat de l'Hiver, Clarice…

8 février 2021 à 08:57

Ce week-end, se tenait la grande finale du championnat de football américain organisé par la National Football League (NFL). Elle a vu s’imposer les Buccaneers de Tampa Bay face aux Chiefs de Kansas City (31 à 9).

Comme toujours avec cet événement sportif et hautement médiatique, de nombreuses publicités ont été diffusées (certaines avec une bonne dose d’humour, parmi lesquelles on retrouve Shift4 dont le patron vient de se payer les quatre places à bord d’une capsule Crew Dragon de SpaceX.

2021 ne déroge pas à la tradition des bandes-annonces et autres trailers pour des films et séries à venir, même si les dates de sorties sont toujours incertaines compte tenu de la crise sanitaire. On peut citer Fast & Furious 9 (déjà présent l’année dernière), Raya et le Dernier Dragon, Falcon et le Soldat de l'Hiver, ainsi que Clarice (série basée sur Le Silence des agneaux). Entertainment Weekly les a regroupés par ici et vous pouvez aussi les voir dans cette liste de lecture sur YouTube.

Rapport d’évaluation du CEA : entre « excellence de la recherche » et « difficulté de construire une identité »

9 février 2021 à 16:00

Au-delà des missions du CEA (dont la Défense nationale sur le nucléaire), un rapport du Hcéres fait le point sur différents aspects du Commissariat, allant des employés aux bâtiments, en passant par les partenariats et les brevets. Il dresse aussi la liste des forces et faiblesses, formulant au passage des recommandations.

Le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (Hcéres) a été créé par la loi du 22 juillet 2013 relative à l’enseignement supérieur et à la recherche. Il a officiellement remplacé l’Aeres en novembre 2014 et bénéficie du statut d’autorité administrative indépendante. Parmi ses missions, il « rend accessible au public, en toute transparence, tous ses rapports d’évaluation ainsi que ses méthodes et procédures ».

Il y a quelques jours, il publiait le rapport sur le Commissariat à l'énergie atomique et aux énergies alternatives (CEA), avec quatre recommandations à la clé. Soit l’occasion de voir en profondeur le fonctionnement de ce fameux CEA, lequel vient de fêter ses 75 ans non sans revendiquer être « le numéro un français des brevets en Europe ».

Si son expertise scientifique et la qualité des recherches ne sont pas remises en question, son « manque de transversalité » et son « mode de fonctionnement peu agile » sont pointés du doigt. Il faudrait aussi peut-être qu’il pense à revoir son nom.

Des chiffres et des lettres, version CEA

Le rapport débute par une présentation générale du centre de recherche : « Pour mener ses activités civiles et liées à la défense nationale, le CEA compte à la fin 2018, 19 925 salariés dont 1 180 doctorants et 170 post-doctorants ». 16 096 d'entre-eux « sont des salariés permanents dont 2,44 % sont de nationalité étrangère ». Il n’y avait par contre que 5 388 femmes au moment de la rédaction du rapport, soit 33,4 % de l’effectif.

Bien évidemment, impossible de parler des hommes et des femmes qui constituent le CEA sans revenir sur la question des conditions de travail et du salaire : « les enjeux du CEA en matière de ressources humaines sont relativement représentatifs du secteur public de la recherche […] Plus globalement, le CEA pourra difficilement éviter à moyen terme une analyse critique de son système de rémunération et de ses mélismes de fonctionnement datant des années 2000 ».

Dans le rapport, ce passage sur le dialogue social : « le comité recommande de revoir la grille de salaires et les mécanismes qui la régissent, afin de mieux prendre en compte, toutes choses égales par ailleurs, la situation des personnels clés de soutien technique ». 

En interne, le Commissariat est dirigé par un administrateur général, nommé par décret pour une période de quatre ans. Il est épaulé par un adjoint et un Haut-commissaire (HC) à l’Énergie atomique, nommé également pour quatre ans par décret, qui fait office de conseiller d’orientation scientifique et technique. Le CEA est organisé en quatre directions opérationnelles, sous-divisées en neuf directions fonctionnelles.

En 2018, son budget était de 5,3 milliards d’euros : 2,2 milliards vont aux activités civiles, 1,8 milliard à celles de la défense et 1,3 milliard aux opérations d’assainissement et démantèlement du nucléaire. Le système informatique représente un coût annuel de 150 millions d’euros, comprenant trois grands ensembles : l’informatique de support (40 %), le calcul haute performance (20 %), et les équipements d’informatique industrielle et de laboratoires (40 %).

Comme tout système, il faut l’entretenir et le mettre à jour : « Depuis cinq ans, de nouvelles plates-formes ont été ou sont en cours de déploiement : communication synchrone depuis le poste de travail, activité collaborative et internet (Sharepoint), reporting tableaux de bord dynamiques (DigDash). Le poste de travail est aligné sur le dernier standard Windows10 ». La rénovation complète du système informatique est fixée à l’horizon 2025. Enfin, le Hcéres « encourage le CEA à analyser les approches fondées sur des environnements open source ».

Patrimoine immobilier et intellectuel, rayonnement international

Le patrimoine immobilier est tout aussi important puisqu’il est « réparti sur près de 6 200 hectares et composé de 2 300 bâtiments, dont 80 % d’installations techniques ». Le CEA a renforcé la gestion des bâtiments en 2018, un point accueilli favorablement par le Hcéres, car « 70 % du bâti a plus de 50 ans ».

La branche civile du CEA « produit en moyenne 5 000 publications par an référencé dans les bases de données bibliométriques internationales représentant 6,39 % des publications nationales ». Elle peut aussi se vanter d’avoir 2 à 3 % de « Highly Cited Papers », soit largement plus que la moyenne mondiale qui est de 1 %.

CEA
Les centres CEA

Au niveau mondial, la production scientifique du « CEA pèse pour 0,93 % des publications européennes et 0,29 % des publications mondiales […] Avec un portefeuille de plus de 6 600 brevets actifs (2018), dont 3 737 déposés entre 2014-2018, le CEA a un positionnement fort ». 

Le rapport rappelle que le Commissariat « s’inscrit dans le paysage national de la recherche avec 42 unités mixtes de recherche (UMR) en cotutelle avec des partenaires académiques ». C’est notamment le cas avec le CNRS et Inria avec qui il partage respectivement 28 et 6 unités.

Le rapport préconise d’autres rapprochements : « C’est le cas par exemple des sujets relevant de la médecine du futur, où la dimension médicale gagnerait à être abordée avec l’Inserm en amont d’une application industrielle ».

« Une possible complexité dans la stratégie »… et son nom

Dans le même document, on apprend notamment que « la délibération et le suivi des grandes orientations par cinq instances stratégiques (Conseil de politique nucléaire, Conseil de défense et de sécurité nationale, Comité de l’énergie atomique et le CA avec son comité des engagements) illustrent une possible complexité dans la stratégie et dans la prise de décision ».

« L’articulation de ces instances avec les ministères n’est pas toujours très claire, notamment en ce qui concerne l’arbitrage en cas de désaccord », ajoute le Hcéres. Ce dernier recommande donc au « CEA de discuter avec ses tutelles d’une définition plus claire du rôle et des pouvoirs décisionnels des instances stratégiques ».

Si le CEA est reconnu dans le « cercle des connaisseurs » son secteur d’activité est plus difficile à appréhender pour des personnes extérieures : « la marque CEA est complexe à porter pour l’organisme, le logo "CEA" ne correspondant pas au nom de l’organisme (Commissariat à l’énergie atomique et aux énergies alternatives), qui lui-même ne rend pas compte de l’ensemble des missions ».

En interne aussi cela pose des problèmes : « La difficulté de construire une identité au CEA a également pour conséquence de rendre très difficile le sentiment d’appartenance pour les collaborateurs ayant des activités non liées à l’atome », ce que des chercheurs nous ont déjà confié par le passé. 

Si l’administrateur général du CEA, François Jacq, partage une partie de ces constats (pages 36 à 39 du document) , il n’a « pas la même lecture que le rapport concernant la difficulté à décliner "la nouvelle identité" et les " nouvelles missions" » : « on ne saurait parler de nouvelles missions, mais plutôt d’orientation scientifiques et technologiques clarifiées et rendues plus lisibles ».

Quatre pôles d’expertise, dont l’arsenal nucléaire

Passons maintenant aux activités du Commissariat à l'énergie atomique et aux énergies alternatives, qui se répartissent dans quatre grands domaines :

  • La mission Défense nationale : (exclue du champ du rapport du Hcéres). Comme son nom l’indique cette fois-ci sans ambiguïté, « le CEA conçoit, fabrique, maintient en conditions opérationnelles, puis démantèle les têtes nucléaires qui équipent les forces (composantes océanique et aéroportée). Il est aussi chargé de la conception, de la réalisation et du soutien à la maintenance des réacteurs équipant les bâtiments de la Marine nationale. Le CEA est également responsable de l'approvisionnement des matières nucléaires stratégiques pour les besoins de la dissuasion ».

  • La mission sur les énergies bas carbone : « le CEA mobilise ses compétences pour proposer des solutions technologiques innovantes aux défis de la transition énergétique et du développement d’énergies bas carbone […] Il développe également une stratégie de recherche sur la production d’électricité (nucléaire et renouvelable), les systèmes de stockage, l’amélioration de l’efficacité énergétique et l’insertion des énergies renouvelables dans les réseaux énergétiques. Enfin, le CEA est investi dans les recherches de plus long terme sur la production d’énergie par fusion nucléaire ».

  • La mission technologique pour l'industrie : « Le CEA s’efforce de contribuer au redressement industriel du pays à travers la valorisation et le transfert des connaissances, de compétences et de technologies diffusant vers l'industrie ». Dans le rapport un bémol tout de même : « une diminution récente importante du nombre de start-ups créées par an, qui sont passées de 10 en 2017 à 7 en 2018, ce qui pourrait conduire le CEA à réfléchir à sa stratégie en la matière, en particulier sur l’envie et la disponibilité des chercheurs à se lancer dans l’aventure entrepreneuriale ».

  • La mission recherche fondamentale, qualifiée d’« excellence nationale » : « le CEA contribue au rayonnement scientifique du pays, au progrès de la connaissance, à la conception et à l’exploitation des grandes infrastructures de recherche au bénéfice de la communauté scientifique. Ce socle a vocation à alimenter les trois autres missions en innovations de rupture, mais plus largement à assurer la pérennité des compétences nécessaires à leur réalisation avec pour champs d’intervention : biologie, génomique, astrophysique, physique nucléaire et des particules, sciences des matériaux, sciences du climat et de l’environnement, nanotechnologies, physique théorique, numérique et modélisation ».

Dans son rapport, Hcéres décrit le Commissariat comme étant le « "bras armé" de la filière électronucléaire », qui permet « à la France de bénéficier d’une électricité à coût modéré et décarboné ». Néanmoins, le Haut Conseil note que « la compétitivité future de la filière est remise en cause par la baisse des coûts de solutions énergétiques alternatives, par le coût du démantèlement et par la hausse des coûts des installations nucléaires nouvelles et notamment des EPR comme à Flamanville ».

Sur certains projets, le CEA se positionne « en soutien des industriels, tout en jouant un rôle de conseil auprès des pouvoirs publics ». C’est notamment le cas du consortium auquel il participe avec EDF, TechnicAtome et Naval Group pour le développement industriel d’un réacteur à fission de petite puissance (SMR).

« En 2017, les acteurs de la filière ont engagé, un projet de SMR électrogène à terre d’une puissance de 300 à 700 MW. Ce projet avec une participation de l’État par une subvention de 10 millions d’euros […] est actuellement au stade des études exploratoires ». Notez que le CEA est également membre du Groupement des industriels français de l’énergie nucléaire (Gifen) créé en juin 2018 avec les principaux industriels de la filière nucléaire.

CEA

Points forts, points faibles et recommandations

L’heure du bilan a sonné. Du côté des forces du CEA, le Hcéres note plusieurs éléments : une « excellence de la recherche fondamentale et technologique reconnue à l’international », un « centre mondialement reconnu » sur l’énergie nucléaire, un « acteur incontournable de l’écosystème national de l’enseignement supérieur et de la recherche » et une « capacité de pilotage de très grands projets ».

Passons enfin du côté obscur de la Force : « manque de transversalité », « mode de fonctionnement peu agile », « politique de gestion des talents et de promotion des mobilités au sein de l’établissement » et « difficulté à décliner sa nouvelle identité et ses nouvelles missions », figurent parmi les critiques. 

En réaction, le Haut Conseil suggère plusieurs pistes : 

  • « Développer la transversalité au sein de l’organisme et la pluridisciplinarité afin de relever avec succès les transitions énergétique et numérique ainsi que le défi de la médecine du futur.
  • Consolider le plan à moyen et long termes et le positionner comme un outil central de priorisation des moyens, de pilotage des activités, et de dialogue de gestion avec les ministères de tutelle.
  • En matière de gestion des moyens, s’appuyer sur quelques chantiers spécifiques et prioritaires consolidant l’animation fonctionnelle au sein des directions opérationnelles et entre elles, ainsi que la remontée d’informations au niveau des directions fonctionnelles dans le but de faciliter le pilotage centralisé au niveau de l’établissement.
  • Renforcer la coordination avec ses partenaires nationaux, européens et internationaux autour de trajectoires stratégiques. »

L’informatique quantique côté écologie, attractivités des chercheurs et ambition européenne

10 février 2021 à 07:45

Pour que le Plan Quantique soit une réussite, il faut que la France arrive à jouer collectif au niveau européen et individuel en gardant ses talents… un difficile équilibre qui nécessite de profonds changements. Fin de notre dossier avec une question : quel impact écologique peut-on attendre de l’informatique quantique ?

La France met 1,8 milliard d’euros sur la table pour avancer sur le quantique – au sens large du terme – dans les prochaines années. Les machines/calculateurs ainsi que les communications sont évidemment au cœur de cette annonce, mais ce sont loin d’être les seules. 

Nous avons déjà évoqué l’importance de l’algorithmique – qui avance doucement car elle dépend en partie de la disponibilité des machines –, des capteurs et de la recherche fondamentale. Ce sujet, primordial pour des questions de souveraineté nationale (et/ou européenne), nécessite de disposer de chercheurs dans les laboratoires.

Le Plan Quantique s’y intéresse, mais cela sera-t-il suffisant face aux colossaux moyens de certains géants du Net (Amazon, Google, IBM, Microsoft, etc.) et/ou États ?

La France n’est « pas spécifiquement en retard »

Sébastien Tanzilli (chargé de mission technologies quantiques au CNRS) brosse un rapide portrait international : il est « évident que les autres nations avancent » sur le quantique, mais il affirme que la France « n'est pas spécifiquement en retard ». « Je pense qu’elle est très bien positionnée à l'échelle internationale, sur l'ensemble des piliers des technologies quantiques », ajoute-t-il.

Le Plan Quantique devrait permettre de rester dans la course vis-à-vis des autres nations qui ont également investi massivement dans ces technologies (y compris nos voisins européens) : « il était important d'avoir enfin un aboutissement de cette stratégie d'accélération quantique en France ».

À l’instar de Philippe Chomaz (directeur recherche fondamentale au CEA), les chercheurs s’accordent sur le fait qu’il « faut penser le plan français dans un cadre européen avec le plan allemand et le plan anglais de nos amis qui [malgré le Brexit] sont toujours dans l'espace européen de la recherche avec l’accord qu'ils ont passé, et on est content qu'ils soient là ». Sur l’échiquier international, il faut ainsi mettre l’Europe (et pas la France) en face de la Chine, des États-Unis et des grands leaders mondiaux.

« C'est une vraie compétition féroce », ajoute Philippe Chomaz. Dans une conférence commune, les chercheurs du CNRS et du CEA veulent ainsi faire front commun avec « une équipe France » qui doit pouvoir jouer son rôle « dans une équipe Europe, qui est dans une compétition internationale ».

Notre dossier sur le Plan Quantique en France : 

Le calculateur quantique, « c'est un enjeu de l'humanité »

Sébastien Tanzilli rappelle à juste titre que cette course/guerre soulève évidemment des enjeux de souveraineté nationale. Mais il n’y a pas trop le choix pour Silvano de Fransceschi (chercheur au CEA-Irig, CEA-Grenoble) :

« On est devant des défis qui sont très ambitieux et sans avoir une certaine union et convergence d’efforts on n’y arrivera pas. On est un peu obligé aussi de se fédérer et concentrer nos efforts thématiquement et au niveau géographique. »

En Europe, il faut donc jouer collectif pour rester au niveau des autres puissances. Dans une envolée lyrique, Philippe Chomaz passe presque dans le monde des bisounours et explique qu’il « faut aussi se dire que l'enjeu du calculateur quantique c'est comme la connaissance : ce n'est pas un enjeu national, c'est un enjeu de l'humanité ».

Pas sûr que tous les laboratoires de recherche, services de renseignements et autres sociétés commerciales soient dans cet état d’esprit. Dans un avenir proche, les puissances (étatiques ou commerciales) qui disposeront d’un ordinateur quantique suffisamment performant auront sont aucun doute un avantage considérable sur les autres.

Une difficulté pour garder les talents

Un sujet important abordé durant la conférence des chercheurs du CEA et du CNRS concerne l’attractivité des laboratoires de recherche pour les scientifiques, notamment sur leur rémunération. Pour Pascale Senellart (chercheuse du CNRS au C2N), il faut différencier deux points : logiciel et matériel.

Dans le premier cas, pour proposer de « bonnes conditions de travail » aux chercheurs, les startups du quantique « donnent un ordinateur et le salaire peut être trois fois plus grand que ce qu'ils auront dans un laboratoire académique », difficile pour la recherche académique d’être attractive dans ces conditions…

Bref, « sur la partie software, ça va être très très compliqué » résume-t-elle, avec un exemple : « on le voit dans les laboratoires de recherche, les collègues qui font du calcul [ou] de l’informatique quantique théorique sont très très courtisés par les sociétés qui développent l’informatique quantique ».

Startups vs laboratoires de recherche : je t’aime, moi non plus

Côté matériel par contre, la problématique est différente : « il faut d'énormes moyens de fabrication, des moyens technologiques très compliqués. Donc, les startups qui émergent des laboratoires sont collées aux laboratoires de recherche pendant un certain temps », afin de garder une « bouée de sauvetage » à portée de main.

Elles vont ensuite se détacher progressivement, ce qui n’est pas sans conséquence pour Pascale Senellart :

« Au début les moyens sont du côté du laboratoire et donc l’attractivité de la startup a plutôt tendance à donner une bonne visibilité aux équipes de recherche (qui ont une plus grande facilité à recruter). Quand la start-up commence à lever des fonds et avoir ses propres moyens de développement, on commence à avoir deux endroits où on peut faire une recherche assez similaire avec des conditions de travail différentes, d’un côté beaucoup plus flexible que l’autre. Il y a un vrai enjeu, mais pas une solution très simple ».

Une fois que le cordon est coupé, les orientations ne sont plus tout à fait les mêmes : « Les startups ne peuvent pas se permettre de faire une recherche vraiment fondamentale, on est du côté du développement et de l’ingénierie ».

Pour Pascale Senellart, les étudiants qui veulent continuer à se poser des questions très fondamentales devraient donc continuer d’aller du côté académique… mais encore faut-il qu’ils puissent le faire dans de bonnes conditions, surtout comparées à ce qu’ils pourraient avoir dans le privé.

Philippe Chomaz : « Le salaire ça fera du bien quand même »

« Certes, le salaire est un point important, mais le chercheur ne va pas aller s'isoler dans un coin perdu parce qu'on lui fait un pont d'or, il va y aller parce qu'il il a de quoi faire la meilleure recherche », affirme Philippe Chomaz.

Pas sûr que tous les chercheurs soient sur la même longueur d’onde. D’autant qu’il existe aussi un entre-deux qu’il ne faut surtout pas négliger : des sociétés/instituts peuvent faire des « ponts d’or » à des chercheurs, avec en prime des laboratoires dignes de ce nom, parfois intégré dans des sociétés commerciales. 

Sur ce point l’argent mis sur la table avec le Plan Quantique devrait permettre d’améliorer les choses, mais on attendra de voir et juger d’éventuels changements avant de crier victoire. Plus réaliste, Philippe Chomaz fini tout de même par reconnaitre qu’une revalorisation du « salaire, ça fera du bien quand même ».

Quid de l’écologie avec l’informatique quantique ?

Lors de la conférence, la question de savoir si l’informatique quantique était plus « verte » que celle que l’on connait actuellement est arrivée sur le tapis. C’est Alexia Auffèves (chercheuse à l’Institut Néel du CNRS) qui s’est lancé, avec une réponse « à la normande », résumant assez bien la situation : « p'têt ben qu'oui, p'têt ben qu'non… ».

Plus sérieusement, elle ajoute qu’« on a effectivement tout un tas d’avantages potentiels dans le portefeuille du quantique et il se pourrait qu’il y ait aussi un avantage énergétique ». Le mot clé est « potentiel » : rien n’est encore fait. Une certitude tout de même : la composante écologique doit être prise en compte à tous les niveaux, aussi bien dans les développements de concepts que dans la recherche fondamentale.

Sur le papier, le quantique dispose de deux atouts qui pourraient faire la différence : « le fait que les calculs soient moins complexes, demandent moins d’opérations physiques, donc potentiellement consomment moins d’énergie. La deuxième c’est que le calcul quantique est réversible […] et les opérations réversibles sont censées à terme consommer moins d’énergie », affirme-t-elle sans entrer dans les détails (techniques et compliqués).

Alexia Auffèves ajoute que pour « espérer avoir un avantage énergétique quantique […] il faut aussi apprendre à utiliser moins d’énergie pour traiter l’information classique, parce que l’information quantique et classique sont deux bêtes qui sont indissolublement liées ». Il ne faut en tous cas pas s’emballer car le passage de la théorie à la pratique peut être complexe et « on peut avoir tout un tas de problèmes à résoudre en cours de route ».

Elle revient enfin sur l’annonce de Google à l’automne 2019 sur la suprématie quantique avec sa machine à 53 qubits. Au-delà de la question de savoir si oui ou non la suprématie était atteinte, la partie énergétique est intéressante à analyser : la machine de Google « consommait en puissance 25 kW. Si on compare la puissance d’un supercalculateur genre IBM-Summit, c’est trois ordres de grandeur au-dessus ».

Comme nous l’avions déjà expliqué, elle ajoute que cette « manipulation ne servait à rien, donc ce n’est peut-être pas le bon exemple » pour parler d’économie d’énergie. Comme avec la suprématie, on attend désormais des annonces avec des débouchés concrets et « utiles » de l’informatique quantique face aux calculateurs traditionnels.

Car pour rappel, la question n’est pas de savoir si cela arrivera un jour... mais quand. 

Haine en ligne : le gouvernement veut impliquer les acteurs de la publicité en ligne

10 février 2021 à 09:15

Dans le cadre du projet de loi Séparatisme, le gouvernement appuie l’idée d’impliquer les acteurs de la publicité. Des députés LREM, menés par Éric Bothorel, souhaitent qu’une autorité administrative établisse une liste noire « des sites ayant fait l’objet d’une demande de blocage d’accès ».

Cette liste serait mise à disposition des acteurs de la chaîne de la publicité en ligne, afin qu’ils purgent leurs annonces en ligne et coupent les vivres des sites bloqués. 

Le gouvernement a sous-amendé cette proposition : il veut que les acteurs de la publicité en ligne rendent « publiques, lorsqu’elles existent, leurs relations commerciales avec un site qualifié de haineux par une décision de justice, ainsi qu’avec ses sites miroirs dont la liste sera tenue par l’autorité administrative ».

 

Intel poursuit un ancien employé pour avoir volé des documents sur ses Xeon

10 février 2021 à 09:15

Varun Gupta a travaillé dix ans chez Intel avant de partir en janvier 2020 occuper un poste important chez Microsoft, dans la planification stratégique du cloud et de l’intelligence artificielle.

Le problème est survenu quand Gupta a été chargé de négocier avec Intel l’obtention de Xeon personnalisés, ainsi que leur tarif en faisant valoir les volumes importants des commandes que Microsoft passerait.

Dans sa plainte, Intel indique que les informations alors données par Gupta étaient confidentielles et ne pouvaient provenir que de son ancien poste.

Après quoi, une équipe de sécurité chez Intel s’est emparée du problème, avec l’assistance de Microsoft. Ils ont pu déterminer que 3 900 documents avaient été copiés sur une clé USB FreeAgent GoFlex de Seagate, et d’autres informations sur un disque dur externe USB My Passport de Western Digital.

Ces informations ont ensuite été utilisées à de multiples reprises chez Microsoft. Par exemple, le disque USB a été branché 114 fois sur la Surface de Gupta entre les 3 février et 23 juillet 2020.

Gupta nie les faits. Intel demande un procès devant un jury et des dommages et intérêts d’au moins 75 000 dollars, en plus d’un remboursement des frais juridiques et d’une mesure pour empêcher Gupta de tout nouvel accès aux données.

Instagram serre la vis sur les DM injurieux

11 février 2021 à 08:52

La politique d’Instagram était jusqu’à présent la suivante : en cas de schéma détecté de messages injurieux envoyés à répétition, le compte qui les émet se voit privé de cette fonctionnalité pendant un temps déterminé.

Le service durcit le ton, dans le sillage de violentes attaques racistes contre plusieurs joueurs anglais de football, dont Axel Tuanzebe, Anthony Martial et Marcus Rashford de Manchester United.

Désormais, les mêmes constats n’aboutiront plus à un blocage temporaire, mais à une suppression du compte pour non-respect des règles du service. Si le service détecte une réinscription de la personne pour contourner ces mesures, même résultat.

Instagram prépare également plusieurs chantiers. Une option sera bientôt – et enfin ! – proposée pour ne plus accepter les messages privés venant de comptes que l’on ne suit pas. Le service préparerait également une fonction pour aider à gérer les messages injurieux, mais sans en dire plus pour le moment.

Mars : la sonde européenne TGO permet « d’explorer l’atmosphère comme jamais auparavant »

11 février 2021 à 14:29

L’Agence spatiale européenne détaille deux publications issues des données de sa sonde Trace Gas Orbiter (TGO). La première concerne la détection d’un nouveau gaz qui ouvre le chapitre d’un « nouveau cycle chimique à comprendre », tandis que la seconde améliore notre compréhension de la perte de l’eau.

Mars est au cœur des attentions de plusieurs pays depuis plusieurs mois. L’été dernier, l’Agence spatiale américaine envoyait sa mission Mars 2020 en direction de la planète rouge, avec le rover Perseverance à son bord. Le but est de chercher des traces de vies passées dans le sol martien et de préparer des échantillons prometteurs pour une éventuelle mission de récupération par la suite. 

1…2… et 3 sondes arrivent autour de Mars

L’Europe devait aussi envoyer sa propre sonde – avec la seconde partie de la mission ExoMars – mais le lancement a été retardé de deux ans, après un premier report de deux ans en mai 2016. Rater une fenêtre de tir oblige en effet à une longue attente, le temps que les planètes se retrouvent à nouveau dans un alignement favorable, c’est-à-dire quand elles sont au plus proches l’une de l’autre.

Deux autres nations se sont également lancées dans l’aventure : les Émirats arabes unis avec la sonde Al-Amal et la Chine avec sa mission Tianwen-1. Cette dernière doit en plus tenter de poser un atterrisseur sur la surface de la planète, puis y déployer un robot.

Pour le moment, les deux sondes viennent de s’insérer sur une orbite martienne. Les deux nations deviennent donc les cinquième et sixième à placer un engin spatial autour de Mars (en plus des États-Unis, de l’Europe, de l’URSS et de l’Inde). Elles rejoignent ainsi les sondes déjà en place, qui effectuent des mesures et des relevés depuis des années déjà, de quoi ouvrir de nouvelles perspectives avec de nouvelles données.

De son côté, l’Agence spatiale européenne fait le dos rond en attendant le lancement d’ExoMars 2022, mais profite tout de même de l’effervescence mondiale pour faire une double annonce : « ExoMars découvre un nouveau gaz et retrace la perte d’eau sur Mars ». 

« Du chlorure d’hydrogène pour la première fois sur Mars »

Petit retour en arrière. La première partie de la mission ExoMars a décollé en mars 2016 et s’est placée en orbite en octobre de la même année. La sonde a ensuite passé plusieurs mois à réduire sa vitesse et abaisser son orbite. Ce n’est qu’en mars-avril 2018 que Trace Gas Orbiter (TGO) a « fini de surfer » sur l’atmosphère, qu’elle trouve sa place définitive et que les observations scientifiques peuvent débuter. Pour rappel, l’atterrisseur Schiaparelli a connu un funeste destin, finissant éparpillé façon puzzle à la surface de la planète.

Il s’agissait là d’une moitié de la mission, l’ESA peut continuer à faire de la science avec son orbiteur qui fonctionne comme prévu. L’Agence ne s’en prive d’ailleurs pas. Les premiers résultats tombent en avril 2019 avec « de nouvelles preuves de l’impact qu’a eu l’orage de poussière à l’échelle planétaire sur l’eau dans l’atmosphère, et la surprenante absence de méthane ».

En juin 2020, Trace Gas Orbiter détectait « une lueur verte d’oxygène dans l’atmosphère de Mars », puis des « signatures inédites d’ozone (O₃) et le dioxyde de carbone (CO₂) » en septembre. Récemment, la caméra CaSSIS de la sonde prenait sa 20 000e photo de la planète. Aujourd’hui, l’Agence spatiale européenne annonce donc la découverte  d’un nouveau gaz dans l’atmosphère. 

« Nous avons découvert du chlorure d’hydrogène [ou HCl, composé d’un atome d’hydrogène et d’un de chlore, ndlr ] pour la première fois sur Mars. Il s’agit de la première détection d’un gaz halogène dans l’atmosphère de Mars, et cela représente un nouveau cycle chimique à comprendre », se réjouit Kevin Olsen, un des principaux scientifiques à l’origine de cette découverte.

D’où vient-il ? Les scientifiques ont des pistes…

Les gaz à base de chlore (ou de soufre) représentent un enjeu particulier dans l’étude des planètes : « ils sont des indicateurs possibles de l’activité volcanique », explique l’Agence spatiale européenne. Mais ce n’est pas le cas cette fois, pour deux raisons principalement : des détections simultanées dans des endroits très éloignés (les deux hémisphères en l’occurrence) et l’absence d’autres gaz que l’on retrouve normalement en cas d’activité volcanique.

Pour les chercheurs, cela « suggère une interaction surface-atmosphère entièrement nouvelle, due aux saisons de poussière sur Mars, qui n’avait pas été explorée auparavant ». Une hypothèse confortée par un autre point : le gaz a été détecté « lors d'une tempête de poussière sur toute la planète en 2018 et il a de nouveau disparu par la suite », avant de revenir avec la nouvelle saison des poussières sur la planète. 

Pour rappel, l’importante tempête de 2018 avait obscurci le ciel et recouvert les panneaux solaires du rover Opportunity, conduisant à la fin de cette mission

Voilà, selon les scientifiques, le procédé de formation de ce chlorure d’hydrogène : 

« Dans le cadre d’un processus très similaire à celui observé sur Terre, les sels sous forme de chlorure de sodium – vestiges des océans évaporés et encastrés dans la surface poussiéreuse de Mars – sont soulevés dans l’atmosphère par les vents.

La lumière du soleil réchauffe l’atmosphère, ce qui provoque l’ascension des poussières, ainsi que de la vapeur d’eau libérée par les calottes glaciaires. Les poussières salées réagissent avec l’eau atmosphérique pour libérer du chlore, qui lui-même réagit avec les molécules contenant de l’hydrogène pour créer du chlorure d’hydrogène.

D’autres réactions pourraient voir la poussière riche en chlore ou en acide chlorhydrique remonter à la surface, peut-être sous forme de perchlorates, une classe de sel composée d’oxygène et de chlore. »

Bien évidemment, « des tests approfondis en laboratoire et de nouvelles simulations atmosphériques globales seront nécessaires pour mieux comprendre l’interaction surface-atmosphère à base de chlore, ainsi que des observations continues sur Mars pour confirmer que la hausse et la baisse du HCl sont dues à l’été de l’hémisphère sud ».

Dans tous les cas, c’est une « étape majeure pour la mission ExoMars Trace Gas Orbiter », affirme Håkan Svedhem, scientifique du projet.

ESA TGO

De nouveaux « indices sur l’évolution du climat »

En parallèle de cette découverte, l’Agence spatiale européenne annonce avoir trouvé de nouveaux « indices sur l’évolution du climat ». Pour rappel, les experts s’accordent pour dire que l’eau s’écoulait autrefois sous forme liquide à la surface de la planète, comme en témoignent les traces laissées par d’anciennes vallées et canaux  de rivières maintenant asséchés. Pour la NASA, on pourrait même en trouver à notre époque, mais il ne s’agit que d’hypothèses pour le moment.

On est par contre certain que, actuellement, elle est présente sous forme de glace dans les calottes et enfouie sous la surface de la planète. Dans le même temps, Mars continue aujourd’hui de perdre de l’eau « sous forme d’hydrogène et d’oxygène s’échappant de l’atmosphère » et des questions demeurent encore sur la compréhension de l’évolution du climat de notre voisine.

Pour essayer d’y répondre, il faudrait pouvoir comprendre l’interaction des différents « réservoirs » d’eau présents sur Mars, et leurs comportements saisonniers sur le long terme. Un des moyens d’y arriver est d’étudier des vapeurs d’eau et d’eau « semi-lourde », c’est-à-dire quand un atome d’hydrogène (H) est remplacé par un atome de deutérium (D). Le deutérium est pour rappel une forme d’hydrogène avec un neutron supplémentaire.

Le rapport D/H fait office de chronomètre

Plus précisément, les scientifiques étudient le rapport deutérium sur hydrogène, c’est-à-dire D/H : « c’est notre chronomètre – une mesure puissante qui nous renseigne sur l’histoire de l’eau sur Mars, et sur l’évolution de la perte d’eau au fil du temps ».

Mais comment fonctionne-t-il ? Laurette Piani (chargée de recherche CNRS) donnait des explications sur son site personnel : 

Les chercheurs « utilisent ce rapport isotopique pour estimer la quantité d’eau qui a été perdue par évaporation dans l’espace depuis la formation de la planète. En effet, les molécules d’eau contenant du D (HDO) s’évaporent moins facilement que celles qui ne contiennent que du H (H₂O). L’eau qui reste après évaporation va donc posséder un rapport D/H plus élevé que l’eau initiale.

Supposant un rapport D/H initial similaire à celui de l’eau des minéraux de météorites martiennes [qui ont emprisonné de l’eau durant leurs formations, il y a 4,5 milliards d’années, ndlr], les chercheurs ont évalué la quantité d’eau perdue pour obtenir le rapport actuel et estimé le temps nécessaire pour évaporer cette eau. »

TGO améliore la précision du « chronomètre »

Cette technique n’est pas nouvelle, loin de là, mais la sonde Trace Gas Orbiter permet de « mieux comprendre et calibrer ce chronomètre et tester de nouveaux réservoirs d’eau potentiels sur Mars », explique Geronimo Villanueva, auteur principal de cette nouvelle conclusion. 

Avec les données récoltées avec TGO, l’eau vaporisée dans l’atmosphère présente « un rapport D/H six fois supérieur à celui de la Terre dans tous les réservoirs de Mars, ce qui confirme que de grandes quantités d’eau ont été perdues au fil du temps ».

Ce n’est pas tout : les mesures effectuées entre avril 2018 et avril 2019 montrent « trois cas d’accélération de la perte d’eau dans l’atmosphère : la tempête de poussière mondiale de 2018, une tempête régionale courte, mais intense en janvier 2019, et la libération d’eau de la calotte polaire sud pendant les mois d’été liée au changement de saison ».

L’été relativement chaud de l’hémisphère sud « semble être le moteur de nos nouvelles observations telles que la perte accrue d’eau dans l’atmosphère et l’activité de la poussière liée à la détection du chlorure d’hydrogène, que nous constatons dans les deux dernières études », explique Håkan Svedhem, scientifique du projet TGO.

ESA TGO

Explorer l’atmosphère « comme jamais auparavant »

Ann Carine Vandaele, chercheuse principale de l’instrument scientifique NOMAd (Nadir and Occultation for MArs Discovery) fait une comparaison : « c’est comme si nous n’avions eu qu’une vue en 2D. À présent, nous pouvons explorer l’atmosphère en 3D ». Une possibilité permise grâce à un « niveau de détail » qu’il était « impossible » d’atteindre sans TGO. En effet, les mesures ne donnaient auparavant qu’une moyenne sur la profondeur de l’atmosphère entière.

« Les observations du Trace Gas Orbiter nous permettent d’explorer l’atmosphère martienne comme jamais auparavant », affirme-t-il en guise de conclusion. L’Agence spatiale européenne veut désormais coordonner des observations avec d’autres sondes, dont MAVEN de la NASA afin d’obtenir « des informations complémentaires sur l’évolution de l’eau au cours de l’année martienne ».

Carences du service universel (cuivre) : « J’appelle Orange à prendre ses responsabilités »

12 février 2021 à 14:42

La colère monte autour du service universel, notamment dans les zones rurales « qui subissent depuis des années la dégradation de l’entretien et de la maintenance du réseau historique sur cuivre ». Une mission flash a été lancée pour faire le point de la situation. Après quatre semaines d’auditions, elle a rendu son bilan. Voici notre compte rendu.

Mi-janvier, la Commission des affaires économiques de l’Assemblée nationale confiait à Célia de Lavergne une « mission flash » sur le service universel des communications électroniques. Un sujet sensible qui touche à la fois les opérateurs et leurs clients, qui se retrouvent parfois pris en tenaille entre Orange et leur FAI, avec une qualité de service en retrait. 

Le sujet s’était invité dans les débats lors des auditions de Laure de La Raudière, nouvelle présidente de l’Arcep, selon qui « la qualité de service sur le réseau cuivre est préoccupante à certains endroits et doit faire l'objet d'une attention particulière de l’Arcep ». Stéphane Richard lui répondait qu’on « a un vrai problème avec le prix du dégroupage. Ce débat doit être ouvert sérieusement ».

C’est dans ce climat plus que tendu que Célia de Lavergne vient de rendre son rapport, attendu de pied ferme par l’ensemble des acteurs, qu'elle a présenté à l’Assemblée nationale. Dans les grandes lignes, elle pointe du doigt deux responsables : « l'opérateur, qui au fond a failli à ses valeurs initiales de missions de service public, mais aussi à l'État qui a mal encadré ce service universel ». Critiques suivies de propositions d’améliorations.

Des « lourds » passifs, une « convention mal ficelée »

Célia de Lavergne (LReM) commence par quelques rappels sur le fonctionnement du service universel des télécommunications, et explique pourquoi nous sommes à un moment charnière. Il « a été mise en place en 2002 et dans le cadre de la privatisation de France Télécom, était comme un filet de sécurité qui permettait de garantir à chacun de nos concitoyens un accès de qualité et en continuité d'un service à un tarif abordable ».

« Le cadre juridique qui est prévu est celui d'une désignation par l'État d'un opérateur afin d'assurer ce service au travers de conventions trisannuelles. Cet opérateur, c'est Orange : c'est le propriétaire historique du réseau, vous l'aurez compris en situation de monopole. La dernière convention signée fin 2017 s'est achevée le 3 décembre 2020 », ajoute-t-elle.

Cette désignation se fait via un appel d’offres, avec un volontaire désigné d’office au besoin : « soit Orange y répond et dans ce cas-là c’est une négociation avec l’État, soit c’est une désignation d’office », avec des contraintes dans les deux cas.

La période est chargée, car ce renouvellement de la convention intervient après le vote de la loi Ddadue qui fixe « un nouveau cadre pour ce service universel et qui complète la téléphonie fixe par un accès à haut débit ».

Pour la députée, « le passif est lourd » sur le service universel : « Nous avons, au dire des organisations syndicales d'Orange elle-même, un abandon depuis plus de vingt ans de l'investissement dans le réseau cuivre, stratégie qui visait à basculer vers la fibre certes, mais qui n'a pas prévu la transition qui est même un peu plus longue que prévu […] Nous allons dépendre encore pendant dix ans au moins du cuivre », utilisé par « plus de 24 millions d'utilisateurs encore à ce jour, dont 1,4 million pour le service universel ».

Mais Orange n’est pas le seul fautif dans son viseur : « nous avons aussi un passif lourd sur une convention de service universel mal ficelée. Pourquoi ? Parce que les indicateurs [de qualité de service] sont nationaux donc nous avons une appréciation globale de la réalité du service et des indicateurs construits de manière non universelle. Pour exemple, 85 % des réparations doivent être faites sous 48h, mais quid des 15 % restant ? Rien n’a été prévu… »

Pour Célia de Lavergne, il faut construire « cette transition en n'oubliant personne et en réaffirmant le caractère universel de ce service universel, en plaçant au cœur de la réflexion le sujet de la continuité, de l'accès et de la qualité de service ».

Visiblement remontée, elle ajoute qu’il « n'est plus possible d'attendre des mois avant d'être réparé ou raccordé, de n'avoir aucune réponse sur les délais, de se sentir parfaitement impuissant faute d'outils légaux, juridique et contractuel ».

Ces indicateurs de qualité sont renseignés par Orange et contrôlés par le régulateur des télécoms, mais cela mériterait pour la rapporteure « que nous y consacrions un temps plus important ». L’Arcep les a publiés en septembre 2020 pour les premier et second trimestres. On peut voir qu’Orange était dans les clous pour certains, mais au-dessus pour d’autres, notamment la cible à 48h pour traiter « 85 % des dérangements d’abonnés ».

Arcep qualité service 2020Arcep qualité service 2020

De nouveaux indicateurs plus précis au niveau des territoires

La députée souhaite aussi revoir le périmètre de ces indicateurs, afin de leur ajouter plus de granularité, par exemple avec un détail au niveau départemental. Cela permettrait d’avoir « une vraie vision de quels sont les points noirs sur le territoire et de la réalité de la qualité de service territoire par territoire ». Actuellement, les zones rurales sont « noyés au milieu d’une masse de plus de 24 millions de clients du réseau cuivre ».

Stéphane Richard avait anticipé le sujet il y a quelques jours : « Il ne faut pas que des situations locales masquent le fait que sur un plan général un réseau cuivre fait l'objet d'allocation de moyens considérables ». De son côté, Laure de la Raudière a déjà indiqué que la situation était « très préoccupante » et qu’elle attendait justement ce rapport afin d’avoir une vision globale.

Diviser le service universel en deux (téléphonie et haut débit)

Le « nouveau » service universel tel qu’inscrit dans la loi Ddadue du 3 décembre 2020 comprend deux composantes : en plus du service de téléphone fixe, il est question d’« un service d'accès adéquat à l'Internet haut débit », alors qu‘auparavant il était uniquement question de « débits suffisants pour permettre l'accès à Internet ». Dans son rapport, Célia de Lavergne veut aller plus loin : « un "bon haut débit" de 8 Mb/s devra être visé dans le premier service universel du haut débit, avec, à terme, un objectif de "très haut débit" de 30 Mb/s ».

Elle propose de « dissocier dans la phase transitoire » les deux composantes. Cela permettait de mettre « Orange devant ses responsabilités sur la question de la téléphonie fixe qu'il gère depuis plus de 40 ans et qui correspond à l'engagement qu'il a pris devant nos concitoyens français ». Dans le même temps, cela permettrait « de traiter la question du haut débit par ailleurs ».

Les deux paquets « doivent donner lieu à deux procédures d’attribution distinctes, d’ici à 2025, date à laquelle ils pourront être traités conjointement », ajoute-t-elle.

Sur la téléphonie fixe, qui incomberait évidemment à Orange (de gré ou de force) : « je vous propose qu’on reparte sur une convention de désignation sur cinq ans, plus longue que les trois ans de manière à avoir plus de visibilité sur les investissements, mais aussi de manière à mieux contrôler le suivi des indicateurs et mettre en demeure si besoin, l'opérateur ».

Retour sur la mise en demeure d’Orange en 2018

Sur le service universel et sa qualité de service, une étape importante s’est déroulée fin 2019 : Orange a été mise en demeure par l’Arcep de « respecter ses obligations de qualité de service du service universel ». S’en est suivie une passe d’armes entre le régulateur et l’opérateur, qui a déposé une question prioritaire de constitutionnalité (QPC).

L’opération avait fait grand bruit, même si Orange l’a finalement retirée. Dans tous les cas, le FAI garde sous le coude « son arme nucléaire » lâchait le sénateur Patrick Chaize.

Quoi qu’il en soit, on est dans une triple peine pour Célia de Lavergne : « on a une convention insuffisamment universelle, non respectée et qui aujourd’hui ne prévoit qu'une partie du service futur, ça veut dire qu'on a beaucoup de travail devant nous… ».

Elle en profite pour faire le point de la situation un an et demi après cette mise en demeure : « Aujourd’hui, ce qui semble apparaître, c'est que les résultats se sont améliorés. Cependant, […] la façon structurelle dont sont conçus ces indicateurs ne traite pas 15 % de la population ». Elle juge les efforts insuffisants : « même s'il y a une amélioration sur le papier, la mise en demeure n'a pas été suivie de fait ».

La députée donne un exemple : « Orange se prévaut du recrutement de 149 techniciens [contre 200 annoncés, ndlr], ça ne résout pas pour moi, le sujet […] que nos territoires aujourd’hui ont du mal à voir sur le terrain les délais de réparation se réduire – comme pour la grande majorité des Français à 48h au maximum – et les délais de raccordement à 8 jours et 12 jours », respectivement pour les lignes existantes et l’ensemble des lignes.

Elle cite un autre exemple : « sur le site Internet Orange de la Drôme, on vous annonce huit mois pour un raccordement, alors même que dans la fonction de service universel, il est question de 12 jours. Donc c'est même assumé par l'opérateur ».

Quatre enjeux majeurs « pour l'avenir de nos réseaux »

Durant son audition, la députée détaillait plusieurs pistes pour la partie haut débit, sans avoir « l'arrogance de vous dire avec certitude quelle serait la meilleure solution ». Selon elle, quatre sujets représentent « des enjeux majeurs pour l'avenir de nos réseaux », il faut donc s’en préoccuper au plus vite.

Le premier, sans surprise, concerne l’avenir du réseau cuivre dont le décommissionnement a commencé et devrait se terminer d’ici dix ans. Ce sujet doit rapidement être saisi par l’ensemble des participants afin d’avoir le maximum de visibilité et d’anticipation.

Le second concerne le génie civil : « Quand on dit réseau cuivre, il y a les fils et puis tout le génie civil, les poteaux, les fourreaux… » Si le cuivre est voué à disparaitre, ce n’est pas le cas du reste qui « est en grande majorité réutilisée pour la fibre ». La question de la propriété se pose alors : « devrait-elle rester uniquement à un opérateur privé Orange, où rebasculer dans la sphère publique » ? Elle pense notamment aux cas des RIP, mais « cela doit être débattu en accord évidemment avec les syndicats de collectivités, on ne va pas faire sans eux ni contre eux ».

Le troisième point concerne « la multiplication des épisodes climatiques intenses », qui ne se conjugue pas bien avec le fait que « nous sommes en train de refaire les mêmes erreurs que par le passé : nous remettons des fils en aérien au lieu de les enfouir parce que le coût est bien plus élevé (80 % sont sur le génie civil lorsqu'on enterre) ». Il faut donc se demander s’il n’est pas intéressant de dépenser plus à l’installation pour s’éviter des soucis par la suite.

Quatrième et dernier point, la possible mise en place d’une « force d'intervention rapide », comme celle dont dispose Enedis. Elle interviendrait dans les cas d’épisodes climatiques majeurs, afin de reconnecter les gens dans des délais raisonnables. Elle reposerait évidemment sur la mutualisation à l'échelle nationale des techniciens. Plusieurs questions restent à trancher : « Est-ce que c'est une force dédiée contractée par appel d'offres? Est-ce que c'est une mutualisation de techniciens entre les territoires ? ».

Obligations renforcées, et levée de verrou

Célia de Lavergne ne s’arrête pas en si bon chemin : « Nous créerions une obligation de réparation sous un mois », après quoi « les sanctions qui seraient appliquées à l'opérateur seraient dissuasives, sauf justification de l'opérateur sur la non-réparabilité, mais au cas par cas de ces situations ». Actuellement, « au bout de 48 heures, vous êtes dédommagé, mais parfois il ne se passe plus rien après ».

Elle rappelle qu’il existe deux obligations de raccordement en fonction de si la ligne existe déjà ou si elle est à construire. Dans ce dernier cas, « ne nous entêtons pas à investir dans le cuivre quand on sait qu’il est plutôt en fin de vie ». Elle milite ainsi pour « lever un verrou de la précédente convention qui passait à 99 % par du filaire pour aller vers des technologies alternatives comme le satellite ou là 4G fixe ».

Anticipant des levées de boucliers sur les points noirs de ces solutions (latences, débits, quotas…) elle reconnait que « ces technologies ont été beaucoup décriées sur le terrain », mais que ses auditions indiquent « que des progrès ont été faits ». Elle cite notamment la mise en place d'un nouveau satellite, qui améliore certes les débits, mais toujours pas les latences. N’en déplaise à Eutelsat qui n’hésite pas à comparer son offre 100 Mb/s à de la fibre, on en est loin dans la réalité.

En 4G, le principal souci est que les opérateurs appliquent souvent un fair use, et donc un débit réduit au-delà d’une certaine quantité de data (200 Go chez Orange et SFR, 250 Go chez Free et NRJ Mobile) . Dans tous les cas, elle ouvre la porte avec précaution : « nous pouvons espérer que ces solutions, sans être généralisées, puissent être efficaces de manière transitoire jusqu’à la fibre ». 

Transparence, élagage, financement…

La rapporteure affirme qu’il faut « également un effort de transparence. Le comble du secteur des télécoms, c'est qu’on en défend l’open data, mais pour avoir parfois des informations basiques, c'est assez compliqué ». Elle demande ainsi un « effort » à Orange pour donner des indicateurs précis sur le génie civil : longueurs de fil, nombre d'ouvrages, ancienneté, manière dont ils peuvent ou non être réutilisés pour la fibre, etc.

Elle propose aussi de donner la possibilité aux citoyens de publier, « peut être sur une partie visible de Jalertelarcep.fr, les difficultés/signalements sur les réparations dont ils ont besoin, les défaillances du réseau téléphonique, de manière à les faire connaître et à pouvoir suivre en temps réel la manière dont ils sont traités ». Du name and shame en quelque sorte, dont certains ne se privent déjà pas de le faire via les réseaux sociaux.

D’autres sujets ont été abordés, comme l’élagage pour les lignes aériennes. Elle rappelle que la loi pour une République numérique de 2016 « responsabilise le propriétaire privé et permet au maire de le mettre en demeure […] La réalité, c'est que ce cadre fonctionne difficilement sur le terrain. Je vous propose de rétablir la servitude d’élagage sur l'entretien du réseau, comme cela est fait aujourd'hui pour Enedis, ce qui fonctionne très bien ».

Vient ensuite la délicate question du financement de l’ensemble de ces changements. Réponse courte : « Tout simplement, comme le système l'a prévu par le fonds de compensation de service universel qui prévoit que chaque opérateur participe […] Il n'y a rien d'exceptionnel là-dessus, ça n'est pas un sujet comme on peut le voir sur la place publique d'entretien plus large couvert par le tarif du dégroupage, mais bien celui du fonds de compensation qui est l'outil majeur du service universel ».

Le rapport parle aussi d’une « augmentation du fonds », mais sans aucune précision supplémentaire sur le montant qu’il faudrait ajouter. L’Arcep rappelle que les opérateurs mis à contribution sont ceux « ayant un chiffre d'affaires annuel supérieur à 100 millions d'euros sur le marché de détail. La contribution s'effectue au prorata du chiffre d'affaires pertinent des opérateurs ».

Groupe travail service universel

Des tacles à Orange

Durant la présentation de son rapport, Célia de Lavergne en profitait pour revenir sur un point important relatif au fonctionnement du service universel : « c'est une mécanique d'abonnement. Vous avez souscrit un certain abonnement, mais au fond vous utilisez le même vecteur que tous les réseaux cuivre ». On peut avoir un abonnement xDSL sans passer par le service universel ou même sans le savoir.

« Et c'est un peu d'ailleurs là-dessus qu’Orange joue quand il y a un débat public sur le financement de l'entretien du réseau cuivre. On a 24 millions de personnes qui en dépendent [du réseau cuivre, pas du service universel, ndlr], et donc il y a tout le sujet de l'entretien du réseau dans son ensemble ».

Elle présente le service universel comme « un filet de sécurité de minimum de service. À partir du moment, il s'applique au service universel, il s'applique à tous les usagers du réseau cuivre […]  Ça permet de définir le minimum acceptable selon nous, politiquement et techniquement d'ailleurs par rapport à l'opérateur ».

Durant son audition, la rapporteure est revenue aussi sur la question de la sous-traitance des lignes, qui est une conséquence de la gestion d’Orange : « Elle arrive du fait qu’Orange n'a pas investi dans le cuivre […] Ils sont passés de 70 000 à 15 000 techniciens en 15 ans ».

Après avoir drastiquement diminué les effectifs, ils « sont aussi passés par la sous-traitance parce qu'ils ont pensé que c'était moins cher que c'était plus simple, dégradant clairement le service ». Quand les pouvoirs publics et/ou le régulateur tapent du poing sur la table et demandent d’améliorer la qualité de service, « ça les force à recruter ». Pour la députée, cela démontre clairement que l’opérateur historique sait parfaitement où se trouve le problème.

Autre exemple. Suite à la mise en demeure de l’Arcep en 2018, « ils avaient dit 200 techniciens, dont 70 pour la Drôme et l'Ardèche. On en a 149, je n’ai pas fait le calcul pour la Drôme Ardèche, mais ça veut dire qu'ils savent très bien où sont les points noirs. Avec ce qu'on vous propose, on va le savoir davantage, comme l'ensemble des citoyens ».

Pour bien enfoncer le clou, elle « insiste sur un point qui [lui] tient à cœur » : « Quand vous avez été propriétaire et gestionnaire de réseau aussi structurant que celui du réseau cuivre pendant 40 ans, vous ne pouvez pas vous dédouaner de ces responsabilités. Vous êtes responsable jusqu'au bout, vis-à-vis de tous les citoyens et vis-à-vis du démantèlement jusqu'au dernier jour et moi j'appelle Orange à prendre ses responsabilités sur ces sujets-là ». 

Nous avons demandé à Orange sa position vis-à-vis des déclarations de Célia de Lavergne et du rapport de la Commission. Il faudra également voir ce qu’en fera l’Arcep et sa nouvelle présidente, qui attaque son mandat par un sujet brulant.

❌
❌