Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Cybersécurité : on peut prouver que « la sécurité parfaite n'existe pas », le problème de l'humain

1 mars 2021 à 07:30

La cybersécurité est un vaste domaine, aux conséquences importantes. La recherche y est cruciale pour améliorer les défenses, mais aussi réagir en cas d'attaque. En marge d'annonces gouvernementales, CEA, CNRS et Inria brossent un portrait de la situation et des pistes d'action.

Peu après le Plan Quantique – avec 1,8 milliard d’euros pour la recherche et la construction de telles machines – le gouvernement a annoncé sa « stratégie Cyber » à 1 milliard d’euros, « dont 720 millions de financements publics ».

La Banque des territoires a depuis donné quelques détails : « 500 millions d'euros seront affectés à des projets R&D portés par des acteurs tricolores, 140 millions à la création d’un écosystème dont 74 millions affectés à un campus cybersécurité implanté à La Défense. 176 millions seront pilotés par l’ANSSI pour le "soutien de la demande" […] dans lesquels figurent 136 millions de financements aux collectivités et hôpitaux ».

Ces derniers sont durement touchés ces derniers temps et la crise sanitaire n'arrange pas la situation. Ils sont ainsi invités à faire mieux dans leurs prochains investissements. Ce n'était d'ailleurs pas un hasard si cette annonce s'est déroulée en visioconférence avec les hôpitaux de Dax et de Villefranche, touchés par des rançongiciels

65 millions pour la recherche, « c'est beaucoup et c'est peu »

Une part – 65 millions d’euros – servira aux Programmes et équipements prioritaires de recherche (PEPR), piloté conjointement par le CEA, le CNRS et Inria. De quoi « donner un coup de fouet » en matière de cybersécurité, selon Gildas Avoine, professeur à l'INSA Rennes à l’Institut de recherche en informatique et systèmes aléatoires.

Il précisait néanmoins que « 65 millions c'est beaucoup et c'est peu, ça dépend le point de vue que l'on prend ». Cette somme pourra néanmoins « raisonnablement être utilisée comme un effet de levier pour accélérer les activités de recherche et que cela aboutisse [...] à des innovations que ce soit à 5 ou 10 ans ».

Comme avec le Plan Quantique, il ne faut ainsi pas attendre des changements rapides. Pour détailler davantage les attentes au niveau du PEPR, des chercheurs des trois instituts s'étaient donné rendez-vous la semaine dernière pour une conférence. Après un point l'open source et de la confiance dans le matériel, voici notre compte rendu.

Notre dossier sur le plan Cyber : 

Pourquoi un plan sur la cybersécurité maintenant ? 

Gildas Avoine commence avec un détour par les fondamentaux et une définition de la cybersécurité : « c'est protéger l'information, c’est aussi protéger des services et des ordinateurs ». Il ajoute d'ailleurs que l'« on parle de systèmes plutôt que d'ordinateurs, le système pouvant être logiciel ou matériel ».

La cybersécurité des systèmes est un vaste sujet, regroupant à la fois la protection, la surveillance, la détection et la réaction aux attaques. Ce dernier point est « extrêmement important » pour le chercheur, car il faut pouvoir « revenir rapidement à la normale après une attaque », ce que l'on appelle la résilience.

La motivation derrière les cyberattaques est, « dans la très grande majorité des cas, l'argent ». Et à ce petit jeu, « les pirates sont vraiment aujourd'hui des experts du domaine avec un niveau de compétence extrêmement élevé. Ils s'organisent en bandes et on peut même parler dans certains cas de bandes mafieuses ».

Ces dernières années, on a connu une « très forte croissance des attaques », notamment des ransomwares, quand les pirates demandent à leurs cibles de payer une rançon pour récupérer leurs données ; c'est du moins la promesse faite. Cette nouvelle vague « justifie ce plan d'accélération sur la cybersécurité », affirme Gildas Avoine.

L'illusion d'une forteresse impénétrable

Et l'avenir promet d'être au moins aussi chargé : « Il ne faut pas être anxiogène, je pense que ce n'est pas le but, mais il ne faut pas non plus rester les bras croisés ». Il partage ensuite un constat qui fait consensus depuis longtemps dans le monde de la sécurité en ligne, mais qu'il est bon de rappeler :

« On pourra mettre autant d'argent que l'on veut. Malheureusement, on sait que la sécurité parfaite n'existe pas. On peut d'ailleurs le prouver et qu'il faut changer en quelque sorte de paradigme. »

Au cours des dernières années, la philosophie a évolué. Des systèmes que l'on pensait robustes sont tombés, rappelant que, effectivement, personne n'est à l'abri. Le moindre grain de sable peut entrainer une réaction en chaine et gripper tous les rouages, avec des interruptions de service, des fuites de données, etc. 

Alors que l'on était dans « une philosophie où on essayait de construire une forteresse autour de notre système informatique […] Aujourd'hui, on considère que de toute façon une attaque arrivera un jour. Donc, il faut impliquer tous les acteurs, tous les habitants de cette forteresse pour combattre et réagir à cette attaque ».

Cette notion de « forteresse » ne tient pas la route, comme le détaillaient d'autres chercheurs durant la conférence. On peut construire des murs aussi solides et épais que l'on veut, les attaquants peuvent toujours creuser des tunnels souterrains, utiliser des hélicoptères pour passer au-dessus et parfois utiliser d'autres « astuces ».

C'était le cas de SolarWinds où, en continuant la comparaison avec un château fort, on pourrait dire que les pirates sont passés par des paniers de linges livrés par des blanchisseurs.

Le principal problème en cybersécurité ? Les utilisateurs…

Bref, il est illusoire d'espérer construire une forteresse, d'autant que le principal vecteur d'attaque (et maillon faible) est bien souvent l'utilisateur. Ludovic Mé, adjoint au directeur scientifique d’Inria en charge du domaine de recherche Cybersécurité, donne son point de vue :

« Un virus s'exécute au nom d'un utilisateur, la cible première du virus c'est l'utilisateur avant les fichiers ou l'information [...] On a ce problème que l'utilisateur est dans la boucle [...] La patte humaine est complexe et difficile à maitriser [...] La sensibilisation et la formation des utilisateurs est quelque chose d'essentiel dans la lutte contre les virus... et c'est extrêmement compliqué. »

Il ajoute que « les utilisateurs doivent être sensibilisés à rester aux aguets, ne pas cliquer sur tout ce qui passe à leur portée, à réfléchir un peu avant d'agir » mais que « les administrateurs doivent être en nombre suffisant, formés par des experts en sécurité […] Les industriels, évidemment, doivent innover, fournir des outils qui sont à même de prévenir les attaques ou de les détecter ». Le manque de moyens humains est souvent pointé du doigt.

De son côté, la recherche « doit apporter des connaissances et des idées nouvelles » : « Plus fondamentalement, il faut qu'on réfléchisse à la conception de systèmes plus résistants par nature. Même si, face à un virus, le combat est difficile parce que c'est l'utilisateur lui-même qui enclenche l'attaque en quelque sorte ».

Les chercheurs et la collaboration « cyber » en France

Florent Kirchner, responsable du programme Cybersécurité du CEA List, donne quelques chiffres :

« Pour vous donner un ordre de grandeur entre 2008 et 2018, on est passé grosso modo de 400 équivalents temps plein à 850, qui mélangent finalement une grande diversité d'acteurs et en particulier des chercheurs, d’anciens chercheurs, mais également des doctorants, avec une formation annuelle de 130/140 doctorants »

Toujours dans le monde de la recherche, l’entente entre les laboratoires semble cordiale avec des projets conjoints et des équipes communes... mais on imagine mal les chercheurs dire le contraire dans une conférence commune.

« On a vu aussi ces dernières années l'émergence d'initiatives de coordination et d'animation », ajoute Florent Kirchner. La France n’aurait pas à rougir au niveau mondial et aurait des compétences reconnues dans certains domaines clés de la cybersécurité comme « la cryptologie et les méthodes formelles ».

Public/Privé : un but commun, un travail main dans la main ? 

Nous avons demandé aux chercheurs ce qu’il en était de la collaboration entre le public (avec le monde académique) et le privé, où les enjeux sont souvent bien différents : les sociétés n’auraient-elles ainsi pas tendance à faire de la recherche de leur côté, de manière isolée ? Pour Florent Kirchner, c’est « un peu les deux ».

Il y a effectivement « un certain nombre de thématiques propres à la cybersécurité qui sont des domaines sensibles pour lesquels il y a des travaux plutôt fermés ». A contrario, « il y a beaucoup de collaborations qui se font avec le monde de la recherche ». Plusieurs exemples sont donnés : « la formation par la recherche et l'encadrement de jeunes thésards » qui mélange des laboratoires de recherche et des équipes de R&D, des projets collaboratifs, etc.

Ludovic Mé précise que, au besoin, les chercheurs peuvent aussi « travailler sur des sujets sensibles et même classifiés (confidentiel défense ou secret défense) », y compris pour la défense nationale. Ils peuvent obtenir une habilitation et certains laboratoires disposent de protections spécifiques si besoin, certains en ont l'habitude.

De manière générale, « on n’a pas beaucoup de problèmes de collaboration lié à la sensibilité », affirme-t-il. Il reconnait que, il y a 10 ou 15 ans, « les industriels traitaient ce sujet de cybersécurité en vase clos, de chez eux, en communiquant peu ». Mais aujourd'hui, « il y a une certaine prise de conscience sur le fait que c'est un sujet tellement complexe et pluridisciplinaire qu'ils ne peuvent plus se permettre de tout gérer en interne. Ils viennent nous chercher, notre expertise et collaboration pour les aider à avoir une vision plus globale ».

Les six principales thématiques du plan Cyber

Dans la suite de notre dossier, nous reviendrons en détail sur six thématiques que les chercheurs du CEA, CNRS et Inria ont mis en avant durant leur conférence : codage et cryptographie, méthodes formelles, protection de la vie privée, sécurité des systèmes et des logiciels, sécurité des données multimédia et sécurité des systèmes matériels.

Elles se retrouveront « sous une forme ou sous une autre dans la cadre du PEPR », affirme Florent Kirchner.

Fedora est débarrassée de 99 % de son code Python 2

1 mars 2021 à 08:04

La distribution a franchi un cap dans son passage à Python 3, la branche 2.X du langage n’étant plus supportée. Le travail n’est d’ailleurs pas spécifique à Fedora, comme on a pu le voir récemment avec la sortie de Kodi 19.

Dans les commentaires sur Reddit, on peut également se rendre compte que le dernier pourcent sera peut-être le plus difficile à éliminer, car on trouve encore du code Python 2 dans Gimp, Chromium ou encore Thunderbird. 

 

Telesat Lightspeed : 298 satellites pour un accès mondial à Internet, en partenariat avec Thales

1 mars 2021 à 11:06

Avec près de 300 satellites, Telesat proposera dès 2023 un accès à Internet n’importe où sur le globe. La société vient de signer avec Thales Alenia Space pour la construction des satellites et la gestion des « performances du réseau de bout en bout ». Sur le papier, Telesat espère proposer jusqu’à 7,5 Gb/s vers un seul terminal.

Le plan France Très Haut Débit promet du THD pour tout le monde à l’horizon 2022 avec au moins 80 % de fibre optique. Le déploiement avance bon train et les délais pourraient être tenus malgré la crise sanitaire. Pour les 20 % restants, d’autres technologies seront disponibles, notamment le satellite.

Des offres sont déjà disponibles sur le territoire, mais elles souffrent d’une latence très importante de plusieurs centaines de millisecondes, causée par l’utilisation de satellites géostationnaires. Ce délai est incompressible puisqu’il est la conséquence de la vitesse de la lumière et de la distance à parcourir pour obtenir une information. Nous en avons déjà longuement parlé dans notre dossier sur le sujet.

SpaceX propose une approche différente avec des satellites sur des orbites basses à partir de quelques centaines de kilomètres. Starlink est ainsi en mesure de proposer entre 50 et 150 Mb/s – et espère même atteindre 300 Mb/s cette année – avec une latence entre 20 et 40 ms. La société vient d’ailleurs d’obtenir le feu vert de la part de l’Arcep pour exploiter les fréquences en France. Les précommandes sont déjà ouvertes et le lancement commercial prévu « entre le milieu et la fin de 2021 ».

Un nouveau joueur entre dans la partie

D’autres se sont aussi lancés dans cette aventure, notamment OneWeb, rachetée par le Royaume-Uni et l’Indien Bharti Global après sa mise en faillite. L’opérateur renait de ses cendres et de nouveaux satellites ont déjà été envoyés en orbite en décembre 2020. L’Europe aussi s’intéresse à ce sujet et la Commission se penche depuis peu sur la création d’un « système européen de connectivité par satellite »

Après plusieurs années de recherche, c’est au tour de l’opérateur canadien Telesat de passer une étape cruciale qui ouvre la voie à une commercialisation à partir de 2023 : il sélectionne Thales Alenia Space pour « construire la constellation Lightspeed ». Il proposera ses services à ses compatriotes canadiens et au reste du monde.

Lightspeed est présenté comme un « réseau ultra performant de plusieurs milliards de dollars, basé sur une flotte initiale de 298 satellites en orbite basse (LEO) ». Dans tous les cas, de la concurrence supplémentaire sur ce marché ne peut pas faire de mal…

Thales Alenia Space est une société conjointe créée en 2007 entre le Français Thales, qui détient 67 % des parts, et l’italien Leonardo qui dispose des 33 % restants. En présence de Bruno Le Maire, l’entreprise « a signé un accord avec l’opérateur de satellites Telesat pour assurer la maîtrise d’œuvre de Lightspeed ». Cela comprend les segments spatiaux et de cette mission, ainsi que la responsabilité « des performances du réseau de bout en bout ».

Des liaisons laser intersatellites

Sans trop entrer dans les détails techniques, Thalès vante les caractéristiques de cette constellation : « Elle combine des équipements avancés à bord des satellites – antennes actives capables de repositionner dynamiquement les faisceaux jusqu’à un millier de fois par seconde, puissants processeurs capables de traiter de multiples largeurs de bande ». Chaque satellite sera ainsi en mesure de générer jusqu’à 135 000 faisceaux.

Les satellites disposeront de « liaison optique laser » pour communiquer entre eux et fournir « un maillage recouvrant l’intégralité de la surface du globe, y compris au-dessus des océans et des pôles, tout en offrant un haut niveau de sécurité de service de bout en bout ».

Ces liaisons intersatellites permettent aussi d’« optimiser le segment sol en réduisant le nombre de stations ». Cela procurerait aussi une plus grande flexibilité concernant leur implantation et des ajouts de capacités facilités si besoin. Ces liaisons seront au nombre de 1 192, soit quatre pour chaque satellite de la constellation.

Telesat Lightspeed

Caractéristiques et orbites des satellites

Chaque satellite de Telesat a une masse comprise entre 700 et 750 kg. À titre de comparaison, les satellites Starlink pèsent moins de 230 kg. Leur durée de vie est de 12 ans, dont 10 en fonctionnement opérationnel. Le désorbitage est évidemment prévu.

Les 298 satellites seront répartis ainsi dans le ciel, ce placement étant « en instance de brevet » selon la société :

Cela permet « une véritable couverture mondiale pôle à pôle », affirme Telesat. La constellation de satellites dans son ensemble aura une capacité de 15 Tb/s. La bande passante maximale par terminal sera de 7,5 Gb/s, contre 20 Gb/s pour un « hotspot » qui rediffusera ensuite la connexion, par exemple via des réseaux mobiles 4G et/ou 5G. Cela peut concerner des zones éloignées, des aéroports, des ports maritimes, etc. 

Telesat Lightspeed

Quid de la latence ? 

Avec un satellite géostationnaire à 36 000 km, il y a 500 ms de latence totalement incompressible, car elle dépend directement de la vitesse de la lumière. Cette demi-seconde correspond au temps nécessaire pour faire deux allers-retours (soit 144 000 km), correspondant au chemin suivant : modem de l’utilisateur > satellite > station de base qui effectue la recherche sur Internet > satellite > modem de l’utilisateur.

Avec des satellites à environ 1 000 km d’altitude, on change complètement de registre pour descendre à 13,3 ms de latence (4 000 km pour deux allers-retours). Ceux de SpaceX se situent encore plus bas, à 550 km pour le moment, soit 7,33 ms de latence. Il s’agit pour rappel des minimums théoriques et incompressibles… qui sont donc inatteignables dans la pratique.

Il faut en effet ajouter le temps de traitement de l’information, le temps nécessaire pour récupérer les données sur les sites, etc. Il existe une différence notable entre SpaceX et Telesat, mais il faudra attendre de voir les premiers tests pour savoir comment se placent exactement l’une et l’autre des solutions. Dans tous les cas, c’est largement moins que les satellites géostationnaires. 

Telesat Lightspeed

Les retours du prototype, le lancement commercial de Lightspeed

Avant de signer avec Thales Alenia Space pour la construction de ses satellites, Telesat a déjà envoyé un prototype dans l’espace en 2018. De premiers résultats ont été publiés au cours de l’année passée. Le plus récent date de juin, en partenariat avec Telefónica. La latence était alors comprise entre 30 et 60 ms dans divers usages (streaming, visioconférence, téléchargement…) mais les débits n’étaient pas précisés. 

Thales Alenia Space ajoute enfin que « les premiers satellites devraient être prêts à être lancés dans deux ans ». Telesat a déjà annoncé que Blue Origin se chargera des vols, avec sa prochaine fusée réutilisable New Glenn… en espérant qu’un nouveau retard ne vienne pas contrarier les plans. Le vol inaugural a pour rappel été repoussé à fin 2022. 

Une phase bêta devrait être lancée dans la foulée du lancement, tandis que le lancement des services commerciaux devrait intervenir durant la seconde moitié de l’année 2023. Cela pourrait bouger en fonction de l’avancement du programme de financement de Telesat. 

Instagram lance ses Live Rooms, pour des entretiens publics jusqu’à quatre personnes

2 mars 2021 à 08:56

Les Live Rooms sont une extension d’Instagram Live, lancé en 2017. Cette fonction permet pour rappel de lancer un Live et d’y inviter une autre personne. La conversation peut alors être suivie publiquement.

Les Rooms étendent le concept à trois personnes. Si vous créez un flux Live, vous pourrez donc inviter jusqu’à trois personnes à vous rejoindre pour une conversation. La fonction est compatible avec les « badges » d’Instagram, que le public peut acheter pour récompenser l’auteur du flux.

Des outils supplémentaires arriveront plus tard, notamment pour régler l’audio ou la modération.

La fonction semble avoir été inspirée par l’impact de la crise sanitaire sur la fonction Live, qui aurait servi entre autres à faire intervenir des célébrités dans le rappel des gestes barrières.

« Un jour on sera attaqué » : cryptographie et méthodes formelles au chevet de la cybersécurité

2 mars 2021 à 11:06

Contre les cyberattaques, les mathématiques sont une aide précieuse. On connait la cryptographie pour protéger les données de regards indiscrets et limiter les dégâts en cas de fuite. Il y a aussi les méthodes formelles pour « générer des garanties » et le machine learning pour épauler les experts… avant de les remplacer ?

Après le plan quantique (lire notre dossier), le gouvernement a récemment annoncé un plan sur la cybersécurité avec un milliard d’euros à la clé, dont 720 millions de financements publics. Il comprend six grands piliers, qui ont été détaillés par une demi-douzaine de chercheurs des trois laboratoires impliqués : CEA, CNRS et Inria.

Ils pilotent notamment les Programmes et équipements prioritaires de recherche (PEPR), qui se voient attribuer 65 millions d'euros. Dans cette seconde partie de notre dossier, nous revenons en détail sur les enjeux et les attentes de deux des six piliers : le codage et la cryptographie tout d'abord, avec des explications de David Pointcheval (cryptographe du CNRS au Département d'informatique de l'École Normale Supérieure), puis les méthodes formelles avec Florent Kirchner (responsable du programme Cybersécurité du CEA List).

Notre dossier sur le plan Cyber : 

Certains dommages sont « irréparables »

Personne ne peut revendiquer disposer de cyberprotections à toute épreuve, un point d’autant plus inquiétant que, c’est une quasi-certitude, « un jour ou l'autre on sera attaqué », lâche David Pointcheval. Cela ne doit pas empêcher de dresser et vérifier un maximum de protections, mais il faut aussi anticiper le pire.

Le chercheur se veut rassurant : « Si la détection est assez rapide sur certaines attaques telles que les rançongiciels […] et si de bonnes mesures ont été prises, on peut espérer une réparation sans séquelles ». Il ne faut pas généraliser pour autant : on ne peut pas toujours faire machine arrière.

« Ce n'est pas forcément le cas dans les fuites d'informations sensibles, qui peuvent d'un côté prendre beaucoup de temps pour être détectées, et de plus conduire à des dommages irréparables, notamment s'il s'agit de données personnelles ». Avec un rançongiciel, on peut en effet restaurer une sauvegarde. Avec une fuite de données, impossible de rappeler les informations dévoilées, elles sont dans la nature et y resteront.

Un des buts de la cryptographie est justement de limiter les risques : assurer la « confidentialité des données stockées, transmises ou calculées, avec des garanties que l'on appelle parfois mathématiques », explique le cryptographe du CNRS. Il ajoute qu’il existe des « méthodes sûres, ou tout du moins des méthodes raisonnables » pour assurer la confidentialité du « stockage et des communications ».

Avec tout de même un bémol important dans la pratique : il y a en effet de « nombreuses menaces résiduelles […] telles que des failles dans les briques élémentaires qui sont la base de la sécurité des systèmes ».

Le spectre de l’ordinateur quantique sur la cryptographie

Des algorithmes considérés comme sûrs pendant un temps peuvent rapidement représenter un danger, voire devenir des passoires ; le passé regorge d’exemples. On peut citer le cas emblématique d’Heartbleed, quand une brèche dans une brique open source a fait trembler Internet, la menace (à venir) de l’ordinateur quantique, etc. 

Il n’est pour le moment pas en mesure de battre un ordinateur classique sur des problèmes « utiles » – c’est pour cela que certains parlent plutôt d’avantage quantique à la place de suprématie – mais son spectre inquiète, à raison. Peu importe que ce soit dans un horizon de cinq ou quinze ans, une machine quantique sera un jour capable de casser certains pans de la cryptographie actuelle.

Il « suffit » donc de stocker dès à présent des données (des communications par exemple) pour les décrypter dans plusieurs années. C’est d’autant plus vrai que, « avant même l'existence d'un véritable ordinateur quantique, on a déjà à notre disposition des algorithmes qui seront efficaces pour casser la cryptographie actuelle ».

Bonne nouvelle, des parades sont disponibles et d’autres sont à l’étude : « les cryptographes travaillent sur la cryptographie quantique avec de nouveaux systèmes pour nos ordinateurs actuels qui résisteront à un éventuel ordinateur quantique attaquant pour l'exploiter ».

Dilemme moderne : traitement de masse VS vie privée

Pour David Pointcheval on serait actuellement confronté à un dilemme :

« Soit on ne traite pas les données parce qu'elles sont trop sensibles, et cela peut conduire à un manque à gagner important dans de nombreux domaines où les données ont une grande valeur. Soit on traite, mais on ne protège pas assez, voire on ne protège pas du tout ses données et donc avec de gros risques de fuite ».

Il cite l’exemple de l’apprentissage automatique, une technique nécessitant de très grandes quantités de données pour entrainer les algorithmes, « parfois très sensibles comme des données personnelles, médicales, financières, économiques… ». Traiter en masse avec une garantie de la confidentialité est actuellement un « enjeu majeur » en cryptographie. Des solutions existent, mais malgré d’importantes améliorations, « elles restent encore coûteuses et limitées ». On peut citer le chiffrement homomorphe, sur lequel nous aurons l’occasion de revenir.

Un exemple frappant concerne le vote électronique ou « l’authenticité, l'intégrité des données et des calculs » sont des points primordiaux, qui doivent se conjuguer « avec un fort besoin de confidentialité ». On doit arriver à des résultats « sincères » avec un maximum de précaution sur le respect de la vie privée… et ce n’est pas si simple. 

David Pointcheval cite aussi l’exemple de la « décentralisation, dans des contextes où nul ne peut faire confiance à un tiers, comme dans le cas de la blockchain ».

Méthodes formelles et preuves mathématiques

Florent Kirchner, responsable du programme Cybersécurité du CEA List, prend la relève pour le second pilier de la cybersécurité : les méthodes formelles. Le chercheur commence par un rappel : « c'est utiliser des bases, des théories et des raisonnements mathématiques pour donner des outils qui permettent de comprendre les systèmes numériques dans toute leur complexité, et de générer des garanties qui ont la force de preuves mathématiques ».

Certains systèmes nécessitent en effet de produire des preuves (aussi appelées démonstrations) mathématiques. Depuis des années, c’est le cas « des cartes à puce qui sont critiques pour le domaine bancaire et qui requièrent de fournir des garanties très fortes de leur fonctionnement ».

Dans ce domaine de la cybersécurité, les mathématiques permettent deux choses intéressantes : « D'abord, une fois qu'on a construit cette garantie, de s'assurer qu'il y a une forme d'exhaustivité […] Le deuxième impact, c'est que les mathématiques sont facilement automatisables – en tout cas ça peut s’automatiser, facilement c'est peut-être un peu rapide ». Florent Kirchner détaille « trois défis » actuels des méthodes formelles en cybersécurité : 

« Le premier, c'est la complexification de ce qui constitue une vulnérabilité […] On voit par exemple avec les failles Spectre-Meltdown que finalement, aujourd'hui, les attaques évoluent pour devenir de plus en plus complexes. Dans une attaque logicielle, elles exploitent, par exemple, un dysfonctionnement ou une faille du matériel […]

Le deuxième défi, c'est celui de traiter des systèmes nouveaux et de plus en plus complexes. Et à ce titre-là, c'est intéressant de prendre l'exemple du vote électronique pour lequel on veut non seulement avoir des garanties sur le résultat du vote, mais aussi sur l'anonymat des votants […] Mais on a aussi tous les systèmes déjà en place – qu'on appelle legacy – et qui sont de plus en plus nombreux, qui restent et qu'il faut pouvoir sécuriser en place […].

Le troisième défi, c'est que ces systèmes – qu’ils soient nouveaux ou anciens – deviennent de plus en plus dynamiques. Tout le monde a en tête l'exemple de Tesla, qui met à jour ses voitures tous les dix jours grosso modo ces derniers temps. Mais également un exemple comme SolarWinds, une attaque toute récente sur un système de gestion de l'infrastructure informatique utilisé par les grands acteurs, en particulier chez nos collègues américains ».

Même si on construit son système comme une forteresse, il faut régulièrement le mettre à jour, ce qui en fait potentiellement un vecteur d’attaque. Il faut également vérifier régulièrement les briques élémentaires de son système, car un seul petit composant défectueux peut faire tomber l’ensemble comme un château de cartes.

Ce dessin de xkcd résume parfaitement la situation.

Espoir du machine learning, douche froide sur les données

Pour détecter d’éventuels risques de brèches, l’informatique moderne peut apporter une aide importante. Ludovic Mé, adjoint au directeur scientifique d’Inria en charge du domaine de recherche « Cybersécurité », explique ainsi que le « machine learning est un grand espoir dans le monde de la sécurité réactive »… mais ce n’est pour le moment guère plus qu’un espoir : « On n’a pas vu de révolution [...], on en est toujours à évaluer l'apport réel des différents mécanismes […], on en est dans une phase d'expérimentation ».

Comme pour le quantique, nous sommes à un point de pivot : « Ces systèmes à base de machine learning permettent de faire parfois/souvent – j'hésite entre parfois et souvent, on est encore en train de rechercher, c'est difficile de se prononcer – à faire aussi bien que les experts humains ». David Pointcheval va plus loin : dans « des mécanismes complexes, seuls des outils automatiques peuvent aider l'humain ».

Les attentes sont pourtant élevées dans un marché où les systèmes « génèrent énormément de données et [où] il faut beaucoup d'experts humains » pour les traiter… sans oublier que ces experts ne sont pas nombreux. Bref, les enjeux économiques et en termes de sécurité sont importants.

Sur le sujet du machine learning, Ludovic Mé rejoint David Pointcheval concernant l’accès aux données : « Pour vraiment être capable de faire de bons systèmes de détection, il faudra avoir beaucoup de données qui permettent de les entrainer et ça, c'est un problème extrêmement aigu : on a beaucoup beaucoup beaucoup beaucoup (sic) de mal dans le monde académique à avoir des données pertinentes en volume suffisant ».

Même quand il n’y a aucune intrusion, ces données sont généralement considérées comme sensibles par les entreprises, qui ne veulent laisser personne y accéder, y compris pour des recherches. « On court après des volumes de données importants depuis des années », regrette le chercheur de l’Inria.

Dans le prochain article de notre dossier, nous reviendrons sur d’autres piliers du plan cybersécurité comme la protection de la vie privée et l’anonymisation, la sécurité des systèmes, des logiciels et des réseaux, la sécurité des contenus multimédia et enfin celle du matériel. 

Rocket Lab Neutron : une fusée réutilisable pour satellites, vols habités et interplanétaires

2 mars 2021 à 15:19

Rocket Lab va finalement venir jouer sur les platebandes de Soyouz avec son lanceur Neutron capable d’emporter jusqu’à 8 tonnes de charge utile en orbite, d’aller vers la Lune, Mars et Vénus. Comme d'autres, la société mise sur le réutilisable pour réduire ses coûts et accélérer la cadence.

La société américaine (d’origine néo-zélandaise) s’est lancée en mai 2017, avec un raté pour sa première mission « It’s a test ». Un peu moins d’un an plus tard, en janvier 2018, elle réalisait avec succès son second lancement, baptisé « Still Testing ». Rocket Lab a ensuite enchainé les réussites avec son lanceur Electron, du moins jusqu’à sa treizième mission « Pics or it didn't happen » qui s’est soldée par un échec.

Pas de quoi décourager ses équipes qui réussisaient à nouveaux moins de deux mois plus tard avec la mission « I can't believe it's not optical ». En novembre 2020, elles parvenaient à « récupèrer » le premier étage d'une fusée, dont la chute dans l’eau avait été ralentie par un parachute.

Elle doit maintenant réussir à l’attraper en plein vol avec un hélicoptère pour aller au bout de son idée. 

Depuis, les missions « The owl's night begins » et « Another one leaves the crust » se sont déroulées avec succès. Alors que d’autres lancements sont d’ores et déjà programmés pour les semaines à venir, la société vient d’annoncer une nouvelle fusée réutilisable – Neutron – avec laquelle elle change de registre.

Neutron Rocket Lab

Elle succédera à Electron, qui revendique être « la deuxième fusée américaine la plus fréquemment lancée chaque année depuis 2019 », avec six lancements en 2019, sept en 2020, et permettra d’envoyer des charges plus importantes en orbite, de proposer des vols habités et même d’aller vers d’autres planètes.

Neutron, un lanceur pensé pour les méga-constellations…

Alors qu’Electron permet de lancer en orbite de petits satellites pesant jusqu'à 300 kg, « Neutron transformera l'accès à l'espace pour les constellations de satellites », et proposera aussi une solution dédiée pour des charges utiles commerciales et gouvernementales plus importantes, affirme l’entreprise.

Cette fusée ne vise pas à concurrencer les lanceurs lourds (encore moins des monstres comme Falcon Heavy) et se veut au contraire une solution intermédiaire : « plus grand ne veut pas toujours dire le meilleur lorsqu'il s'agit de déploiements de constellations », affirme Peter Beck, le CEO de Rocket Lab. « Développer efficacement des méga-constellations nécessite le lancement de plusieurs satellites par lots sur différents plans orbitaux », ajoute-t-il.

Les constellations de plusieurs centaines (ou milliers) de satellites ont le vent en poupe ces derniers temps. Il y a évidemment SpaceX avec Starlink qui a déjà plus d’un millier d’engins en vol et qui a commencé la commercialisation de ses services, mais aussi OneWeb et Lightspeed de Telesat.

Ce dernier vient de confier la construction des satellites à Thales Alenia Space. Les premiers modules doivent être mis en orbite par un concurrent : New Glenn de Blue Origin, un lanceur lourd.

… mais qui pourrait emporter 98 % des satellites 

Bien évidemment – du moins selon le patron de l’entreprise – Neutron serait justement « idéalement dimensionné pour déployer des satellites par lots sur des plans orbitaux spécifiques ».

Sa taille intermédiaire lui donnerait plus de flexibilité dans les cadences de vols… même si sur ce point SpaceX n’est pas franchement en retard : la société arrive à enchainer les missions comme les petits pains si besoin. Selon Rocket Lab, Neutron « sera capable d’emporter 98 % des satellites dont le lancement est prévu jusqu'en 2029 ».

De quoi lui ouvrir la porte à de nombreux contrats potentiels ; reste maintenant à passer de la théorie à la pratique et à remplir les carnets de commandes. 

40 mètres de haut, 4,5 mètres de diamètre

D’un point de vue technique, cette nouvelle fusée prend la forme d’un lanceur à deux étages d'une hauteur totale de 40 mètres, avec un carénage de 4,5 mètres de diamètre et une capacité charge utile de 8 tonnes maximum en orbite basse. Elle peut aussi emporter jusqu’à 2 tonnes sur la Lune, ainsi que 1,5 tonne vers Vénus ou Mars. 

Pour rappel, Ariane 5 peut emporter une vingtaine de tonnes sur une orbite basse (± suivant les versions), contre 22,8 tonnes pour Falcon 9 de SpaceX, qui peut aussi emmener 4 tonnes vers Mars. De l’autre côté du tableau, nous avons Vega avec jusqu’à 2,5 tonnes en orbite basse seulement.

La fusée s’approchant le plus de Neutron serait donc Soyouz, avec 5 tonnes en orbite basse. Des détails manquent par contre à l’appel, notamment au niveau des moteurs utilisés par Neutron.

Neutron Rocket Lab

Premier étage réutilisable, lancement à partir de 2024

Le premier étage pourra venir se reposer sur une plateforme dans l’océan, puis servir à d’autres lancements par la suite. Rien n’est précisé concernant le coût de remise en état avant un nouveau lancement.

Dans un second temps, elle pourra également servir à envoyer du ravitaillement et des humains dans la Station spatiale internationale… sans aucun détail supplémentaire sur la capsule qui sera utilisée. Dans tous les cas, ce n’est pas sans rappeler Falcon 9 de SpaceX, même si la société est déjà en train de préparer la suite avec Starship.

Pour rappel, l’Europe prépare aussi la relève avec Vega-C et Ariane 6 (que nous avons longuement détaillée dans notre second magazine), mais aucune des deux fusées n’est réutilisable. Les travaux sont en cours avec le démonstrateur Themis et le moteur Prometheus, mais le premier vol d’essai (un simple bond) n’est prévu qu’en 2022, pour une utilisation commerciale aux alentours de 2030 si tout va bien.

Le premier lancement de Neutron est pour 2024, depuis une base située au NASA Wallops Flight Facility aux États-Unis (en Virginie). Jusqu’à présent, les missions Rocket Lab décollaient du Launch Complex 1 en Nouvelle-Zélande. 

Rocket Lab en bourse, Peter Beck « mange son chapeau »

Dernier point et pas des moindres : Rocket Lab annonce sa fusion avec le fonds d’investissement Vector Acquisition Corp et son entrée prochaine en bourse, sous l’identifiant RKLB du Nasdaq. Elle vise une valorisation à 4,1 milliards de dollars et pense que cette opération sera terminée au second trimestre de l’année. 

Pour terminer sur une note plus légère, on peut voir le patron de la société « manger son chapeau » (ou plus précisément un petit bout de sa casquette passée au mixeur) dans la vidéo ci-dessous. Pour expliquer son geste, Il rappelle que la société avait en effet affirmé qu’elle ne ferait jamais de fusée plus grosse que son Electron.

Copie privée : nouvelle étape vers le barème des smartphones et tablettes reconditionnés

3 mars 2021 à 08:45

Selon nos informations, c’est le 16 mars prochain que la Commission Copie privée enclenchera une nouvelle étape vers l’adoption d’un barème dédié aux produits reconditionnés.

Ce jour, la Commission votera à la fois le questionnaire relatif aux smartphones et tablettes et choisira le prestataire chargé de réaliser cette petite enquête auprès d’un panel. 

Hier, lors d’une réunion au ministère de la Culture, le collège des ayants droit (SACEM, etc.) épaulé par le président Jean Musitelli, a refusé qu’une véritable étude de marché soit lancée, préférant la voie de ce petit questionnaire rédigé dans l’urgence. 

Cette petite enquête d’usage, souffrant déjà de plusieurs biais, sera donc financée par les ayants droit, pour leur permettre de prélever des millions d’euros de redevance sur le reconditionné, après adoption d’un barème au sein d’une instance où ces mêmes ayants droit sont en force. 

Quand « l’astrophysique de laboratoire » affine des théories sur les exoplanètes et jets de plasma

3 mars 2021 à 13:26

Des chercheurs ont réussi à reproduire à petite échelle « des phénomènes astrophysiques inaccessibles à l’expérimentation ». Ils expliquent comment les manteaux de planètes peuvent créer des champs magnétiques – nécessaires à la vie – et donnent des explications sur la turbulence des jets de plasmas.

Pour étudier l’Univers qui nous entoure, les astrophysiciens utilisent les moyens de détection à leur disposition sur Terre où à proximité, avec les satellites d’observation dans l’espace. Avec parfois beaucoup d'astuce, ils arrivent à en déduire des caractéristiques assez précises de certaines étoiles, exoplanètes et autres objets célestes. Ils formulent aussi de nombreuses hypothèses… qu’il est impossible de vérifier in situ

Comme alternative pour mieux appréhender des phénomènes astrophysiques inaccessibles à l’expérimentation, les chercheurs « ont recours à l’astrophysique de laboratoire, c’est-à-dire qu’ils reproduisent à petite échelle les conditions dans lesquelles se forment ou évoluent différents phénomènes ».

Le Laboratoire pour l’utilisation des lasers intenses (LULI), une unité mixte de recherche CNRS, École polytechnique - Institut Polytechnique de Paris, CEA et Sorbonne Université, s’est fait remarquer en février avec deux publications dans Nature Communication autour de ce domaine d’expertise.

L’une est « consacrée à la forme des jets de plasmas astrophysiques, et l’autre aux propriétés de matériaux situés au cœur des exoplanètes ». Cette dernière est d’autant plus intéressante qu’elle concerne le champ magnétique créé par certaines planètes, qui est considéré « comme l’une des conditions nécessaires à la présence de la vie ».

Super-Terres : un champ magnétique grâce aux silicates ?

Dans la quête sans fin de la recherche de traces de vie sur d’autres planètes, les chercheurs misent beaucoup sur Mars. Souvent considérée comme la jumelle de la Terre, elle a l’avantage d’être à portée de fusée. Plusieurs rovers sont déjà sur place et un nouveau vient juste d’arriver : Perseverance.

Mais la vie peut aussi avoir été créée en dehors de notre système solaire et même de notre galaxie (la Voie lactée). Plusieurs télescopes – dans l’espace et sur Terre – traquent des exoplanètes, et elles sont très nombreuses : « La découverte de plus de 4 000 planètes en dehors de notre système solaire soulève l’excitante promesse d’en découvrir certaines capables d’abriter la vie », explique l’École Polytechnique.

En se basant sur le seul exemple que l’on connait avec la Terre, « les chercheurs s’intéressent tout particulièrement aux planètes dont la masse est comprise entre une et quelques masses terrestres. Ces “super-Terres” sont supposées être rocheuses, avec un cœur de fer et de nickel, et un manteau (partie entourant le cœur) constitué de silicates ».

Une des conditions qui seraient nécessaires à la vie

« L’existence d’un champ magnétique est considérée comme l’une des conditions nécessaires à la présence de la vie », ajoute le CEA. Sur Terre, il est produit par les mouvements de la partie liquide du noyau de fer et forme ainsi un « bouclier invisible qui nous protège de tous les rayonnements hyperénergétiques émis par le Soleil et qui protège aussi notre atmosphère ».

Problème, « dans le cas des super-Terres, le cœur de fer est probablement entièrement cristallisé en raison des pressions colossales, ce qui empêcherait l’existence d’un champ magnétique », car il n’y a plus de partie liquide et donc plus de mouvement. Mais selon les scientifiques, un champ magnétique pourrait être généré d’une autre manière : dans les manteaux (couches intermédiaires entre la croute et le noyau) qui « sont constitués de silicates fondus et électriquement conducteurs ».

Il ne s’agit que d’une hypothèse et, pour en vérifier la viabilité, deux solutions : se rendre sur place pour effectuer des mesures – impossible en l’état de nos connaissances – ou une confirmation en laboratoire. Cette dernière ne peut se faire qu'à condition de « pouvoir mesurer la conductivité électrique de ces matériaux dans les conditions qui règnent au cœur des super-Terres, à savoir des températures de plusieurs milliers de degrés et des pressions de plusieurs millions de fois celle de notre atmosphère ».

Les chercheurs passent la main aux astrophysiciens

C’est l’axe de recherche d'une équipe de scientifiques qui a étudié « les propriétés des silicates en reproduisant expérimentalement ces conditions extrêmes ». Bonne nouvelle, leur conclusion confirme que « l’hypothèse d’un manteau conducteur semble viable ».

Ce n’était pas simple, explique Alessandra Ravasio, chercheuse CNRS au LULI : 

« Reproduire expérimentalement ces conditions est très complexe […] Nous avons comprimé des échantillons de quartz (SiO2) en générant deux ondes de choc successives à l’aide du laser LULI2000 du laboratoire […]

Contrairement à la compression par un simple choc qui engendre des très hautes températures, la technique de double choc nous a permis de générer des hautes pressions, tout en gardant des températures relativement modérées, plus pertinentes aux intérieurs de super-Terres ».

Les chercheurs ont appliqué cette méthode de « doubles chocs » à des échantillons de quartz et, « en couplant les données expérimentales à des simulations, ils ont pu estimer la conductivité électrique du SiO2 », ou dioxyde de silicium. Leurs résultats indiqueraient « pour SiO2 des conductivités électriques suffisamment élevées pour soutenir des champs magnétiques à l’intérieur des super-Terres ». 

Selon le communiqué de l’École Polytechnique, cela permettra « aux astrophysiciens d’améliorer leurs modèles et de mieux orienter l’étude d’exoplanètes potentiellement habitées ou habitables ».

Des jets de plasma en laboratoire

La seconde publication dans Nature Communication concerne l’étude des « jets de plasmas turbulents », qui prennent « la forme de cylindres de matière ionisée, des plasmas, extrêmement longs et émergeant de jeunes étoiles, de trous noirs et même de notre Soleil ».

Contrairement à la flamme uniforme et continue d’un briquet à gaz, ces jets sont saccadés, avec des courbures et des nœuds : « comme une chaîne de code morse ou comme l’échappement d’une vieille voiture diesel », explique Julien Fuchs, directeur de recherche CNRS au LULI.

L’hypothèse des spécialistes était que ces irrégularités « provenaient de changement dans la structure du champ magnétique environnant ». Problème, aucune expérience ne permettait de confirmer ou d’infirmer cette supposition. C’était un des objectifs des travaux de Julien Fuchs :

« Il y a quelques années, nous avons mis au point une technique expérimentale permettant de recréer en laboratoire des jets de plasma d'un centimètre de long qui correspondaient étroitement aux caractéristiques des jets créés par les jeunes étoiles […] 

Nous avons introduit un angle entre le plasma créé par laser et le champ magnétique ambiant […] Nous avons constaté qu'il y avait bien une perturbation dans la collimation du jet et du plasma s'échappant à travers les lignes de champ magnétique ».

En se basant sur les observations expérimentales et des simulations, les chercheurs avancent une explication possible à la structure des jets « en code morse » : elle vient de « la nature toujours changeante des champs magnétiques locaux ».

Ces deux publications ne révolutionnent pas le monde scientifique (il s’agit principalement de confirmer des hypothèses), mais montrent bien comment on peut améliorer notre connaissance de l’Univers qui nous entoure avec de « l’astrophysique de laboratoire ». 

Starship : le prototype SN10 se pose en « douceur »… mais explose quelques minutes plus tard

4 mars 2021 à 09:59

Après deux échecs, SpaceX est parvenu à poser dans une relative douceur le prototype SN10 de sa prochaine fusée entièrement réutilisable Starship. C’est une étape importante pour la société… même si cet essai s’est finalement terminé par une explosion et des flammes quelques minutes après l’atterrissage.

En décembre, SpaceX faisait une première tentative de vol à haute altitude avec son prototype SN8 de Starship. Elle s’est soldée par une brutale rencontre avec le sol lors de la tentative d’atterrissage.

La société était revenue en détail sur les raisons de cet échec et les étapes intermédiaires qui avaient été des succès (notamment le délicat retournement). Elon Musk y voyait néanmoins un « Super test. Félicitations à l’équipe Starship ! » Début février, un second test était réalisé, avec le prototype SN9.

Il avait alors perdu l’équilibre dans son hangar, heureusement sans trop de gravité. Le résultat était le même du début à la fin. Le décollage et la série de manœuvres se passent correctement. Lors de la descente, les moteurs ont été rallumés, mais l’atterrissage s’est soldé par une explosion digne des films de Michael Bay.

Starship : enfin un « soft landing », avec le prototype SN10…

Cette nuit, rebelote avec SN10. L’allumage des trois moteurs Raptor, le décollage, le vol vers la haute altitude (jusqu’à plus d’une dizaine de kilomètres) et les manœuvres en l’air se sont pour la troisième fois déroulés visiblement sans la moindre anicroche, avec des images en direct toujours aussi impressionnantes.

Après quelques minutes, un, puis deux et enfin trois des moteurs sont éteints. SN10 se « couche » ensuite en l’air et commence sa descente, avec les trois Raptor éteints. Deux minutes plus tard, ils se rallument pour redresser la fusée et ralentir sa chute, mais un début d’incendie se déclare sur un des côtés.

De trois moteurs, la fusée passe à deux puis un seul pour terminer sa descente, toujours avec des flammes sur le flanc. Elle arrive malgré tout à se poser en « douceur » (soft landing) sur son pas de tir, sans exploser – pour le moment – contrairement à ses deux grandes sœurs.

Le feu est encore présent, mais il parvient apparemment à être maîtrisé, bien que de la fumée continue de sortir. Fin de mission ? SpaceX semble le penser que puisque le live se coupe alors sur la chaîne YouTube… mais un événement inattendu est venu jouer les trouble-fête : la fusée a explosé peu après, alors qu’elle était toujours en position verticale, certes un peu penchée, car un des pieds était vraisemblablement abîmé.

… suivi d’une exposition huit minutes après l’atterrissage

Sans crier gare, quatorze minutes après le décollage – et donc huit minutes après l’atterrissage – une explosion se déclenche et propulse le prototype SN10 sur quelques dizaines de mètres (la hauteur de Starship environ, soit une cinquantaine de mètres à vue d’œil) avant qu’il ne retombe et s’éparpille façon puzzle au sol.

On peut le voir sur la vidéo de NASA Spaceflight. SpaceX et Elon Musk n’ont donné aucune précision pour le moment, si ce n’est un message « d’adieu » du patron de la société sur Twitter : « RIP SN10, honorable discharge ».

Bon quand je disais « pas encore » j’avais finalement raison :o
Quelques minutes après son atterrissage, SN10 a explosé. Je ne suis pas bien sur que le petit « hop » était prévu au programme…
Enfin, c’est toujours mieux que les précédents prototypes ! pic.twitter.com/yAqTLX1Jdo

— Sébastien Gavois (@Seb_NXi) March 3, 2021

Dans tous les cas, SpaceX est parvenu à réaliser un nouvel objectif : poser son prototype SN10 avec une relative douceur. Il reste encore du travail, mais pas de doute : les ingénieurs avancent dans la bonne direction. Pour rappel, Elon Musk avait déjà annoncé qu’il « faudra atteindre au moins SN20 ou plus pour avoir Starship 1.0 ».

Dans une vidéo récemment mise en ligne, Elon Musk donne quelques précisions sur le calendrier qui se dessine pour Starship : « je suis très confiant sur le fait que nous aurons atteint l’orbite plusieurs fois avec Starship avant 2023 et que la sécurité sera suffisante sûre pour transporter des humains en 2023 ».

dearMoon : déjà des touristes pour Starship, lancement en 2023 ?

SpaceX prévoit de faire voler son Super Heavy Booster cette année. Il correspond pour rappel au premier étage du Starship final, la partie supérieure – actuellement testée avec les prototypes SNx – s’appelle elle aussi Starship. Il a fait cette déclaration dans la vidéo de présentation du projet dearMoon, du milliardaire japonais Yusaku Maezawa.

Il a déjà réservé un vol sur Starship et propose pas moins de huit sièges à des « artistes » pour l’accompagner dans son vol dans l’espace. La notion est vague puisqu’elle cible « chaque personne qui fait quelque chose de créatif ». dearMoon est la seconde mission commerciale de SpaceX avec uniquement des touristes à bord.

Ils iront rendre visite à notre Lune, sans se poser évidemment. La première est pour rappel Inspiration4, mais elle se déroulera à bord d’une capsule Crew Dragon sur une fusée Falcon 9. Cette mission se « contentera » de rester en orbite autour de la Terre pendant plusieurs jours. Cette fois encore, c’est un milliardaire qui régale : Jared Isaacman.

Il propose trois fauteuils à des personnes selon des critères précis. Hayley Arceneaux est la première sélectionnée.

Intégrité, méconduite et fraude scientifique : bilan et propositions du long rapport parlementaire

4 mars 2021 à 11:55

À l’opposé de l’intégrité, la méconduite scientifique peut prendre diverses formes et niveaux de gravité. Un rapport parlementaire (OPECST) fait le point en longueur sur ce sujet sensible, les avancées du secteur, le travail restant à accomplir, avec dix recommandations. Voici ce qu’il faut en retenir, au-delà du simple résumé.

En février 2019, Catherine Morin-Desailly – alors présidente de commission de la Culture, de l'Éducation et de la Communication – demandait à l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST, organe d’information commun à l’Assemblée nationale et au Sénat) un point sur « les choix de politique publique à opérer » pour l’intégrité scientifique.

Quand la méconduite scientifique fait les gros titres

Cette mission ne sortait pas de nulle part, elle s’inscrivait dans le sillage des « exemples de méconduite scientifique (conflits d’intérêts, signatures abusives, falsifications, plagiat et autoplagiat) ». Des affaires de ce genre ont fait couler beaucoup d’encre dans la presse les mois précédents, pouvant « miner durablement la confiance que la société place dans ses chercheurs et plus généralement dans la science ».

On pense notamment au cas d’Anne Peyroche qui a été brièvement à la tête du Centre national pour la recherche scientifique (CNRS) avant d’être remplacée par Antoine Petit. Elle avait été convoquée mi-janvier 2018 « pour un entretien destiné à l’éclairer sur des anomalies constatées dans certains de ses articles ». Dans la foulée, le CNRS annonçait une structure dédiée à l'intégrité scientifique. L’épilogue de cette affaire est arrivé début 2020, un rapport concluant « à l’existence de certaines pratiques contestables et "méconduites sérieuses " ».

Après deux ans de travaux, le député Pierre Henriet et le sénateur Pierre Ouzoulias viennent de rendre leur propre rapport sur le sujet (en version provisoire), intitulé « Promouvoir et protéger une culture partagée de l’intégrité scientifique ».

En guise de préambule, ils tiennent à mettre les points sur les « i » : ils « ont fait le choix de ne pas se limiter à épingler les mauvaises pratiques, qui ne sont qu’une illustration a contrario et réductrice de l’intégrité scientifique, alors même que l’immense majorité des chercheurs français est vertueuse ».

Valoriser les bonnes valeurs, corriger les autres

Le rapport vise « la valorisation d’une culture partagée de l’intégrité scientifique et la mise en évidence du problème systémique, inhérent au monde de la recherche, qui tend à favoriser les méconduites scientifiques ».

En cause notamment, des critères d’évaluation basés sur une « course à la publication scientifique » ; on parle parfois de « publish or perish ». Un virage amorcé par le CNRS début 2019. Il souhaitait alors « repenser l’évaluation individuelle des chercheurs et des chercheuses », notamment pour renforcer les publications en libre accès.

Il n’est pour autant pas facile de changer les mentalités et la course à la publication reste encore très présente.

Mais au fait, c’est quoi l’intégrité scientifique ?

Le rapport commence par dresser le portrait de ce qu’est l’intégrité scientifique. Il cite pour cela le professeur Pierre Corvol (présenté comme l’un de ses plus éminents défenseurs) : il s’agit d’une « démarche responsable de recherche ». Cela comprend « l’ensemble des règles et valeurs qui doivent régir l’activité de recherche pour en garantir le caractère honnête et scientifiquement rigoureux ».

Avec l’éthique et la déontologie, l’intégrité est « un des trois piliers » d’une science responsable selon Olivier Le Gall, le président de l’Office français de l’intégrité scientifique (OFIS). Ces trois concepts (qui sont souvent confondus) peuvent être comparés à trois pieds d’un même trépied, chacun étant indispensable pour assurer la stabilité.

L’intégrité scientifique peut être mise à mal par des pratiques diverses et variées : découpage d’un article en plusieurs petits morceaux pour multiplier les publications (salami slicing), recours au plagiat « pour gagner du temps », sélectionner uniquement des résultats allant dans le sens de l’hypothèse de départ (cherry picking), publier à tout prix pour soutenir une demande de fonds (fund or famish), etc. 

On peut aussi parler de « l’effet chrysalide ». Dans ce cas, « un chercheur honnête, confronté à des difficultés pour publier, s’aperçoit que des collègues contournent ces difficultés, car ils savent embellir des résultats ». Un comportement qui sort légèrement « des bonnes pratiques » peut ainsi faciliter sa carrière… et le chercheur peut se laisser tenter. D’autant plus s’il « constate aussi que ces pratiques questionnables, pas très graves, sont acceptées par la communauté scientifique qui ferme les yeux ».

L’intégrité des chercheurs face à eux-mêmes et leurs collègues

Le rapport se fait l’écho d’une déclaration de Pierre Corvol : « la majeure partie des chercheurs exerçant en France est vertueuse ». Mais le rapport se penche aussi sur des chiffres de 2009 et une étude du chercheur Daniel Fanelli sur l’intégrité scientifique. La conclusion est plus en demi-mesure.

« 1,97 %, soit environ 140 000 chercheurs à l’échelle mondiale, admettent sur le mode déclaratif avoir un jour falsifié, fabriqué ou modifié des données, et 33,7 %, soit plus de 2 millions de chercheurs, disent s’être déjà adonnés à ce qu’on appelle des "pratiques questionnables de recherche" ». Ces chiffres sont forcément sous-évalués, car basés uniquement sur la bonne foi des déclarants.

Si on inverse la situation et qu’on demande aux chercheurs de parler du comportement de leurs collègues, les chiffres sont bien différents : « pas moins de 14,12 % d’entre eux ont été témoins de fraudes scientifiques chez leurs collèges, et 72 % d’entre eux ont déjà été témoins de "pratiques questionnables de recherche" ». 

Un rapport, quatre grandes thématiques

Le rapport-fleuve de 134 pages se divise en quatre principales parties. La première, intitulée « l’intégrité scientifique en France, une autorégulation exercée par les acteurs de la recherche ».

Dans la seconde, les rapporteurs veulent « appréhender les méconduites scientifiques » et ainsi dresser un panorama de la « typologie des méconduites observées et leur traitement ». La troisième liste des pistes de réflexion pour « développer une "culture de l’intégrité scientifique" ». À ce titre, elle fait le tour des initiatives « qui assurent une diffusion toujours plus large et transgénérationnelle des principes de l’intégrité scientifique ».

Enfin, la quatrième partie s’intéresse aux « avancées récentes apportées dans la loi de programmation de la recherche 2021-2030 (LPR) en matière d’intégrité scientifique ». Par un « heureux hasard », la discussion parlementaire sur la LPR s’est déroulée en même temps que cette mission, avec un échange visiblement fructueux. 

Trois systèmes pour classer les méconduites scientifiques

Nous ne nous attarderons pas outre mesure sur la première partie qui dresse un inventaire à la Prévert des différentes sources encadrant les principes de l’intégrité scientifique. La seconde partie revient sur la « nomenclature des méconduites », qui est « sensiblement harmonisée à l’international et en France au sein des différentes disciplines ». Il existe par contre différentes classifications des méconduites : par domaines (méthodologie, données, résultat), par degré de gravité et enfin par le niveau d’intentionnalité.

Dans le premier cas (les domaines), le rapport rappelle qu’il « n’existe pas de typologie des manquements scientifiques qui fasse consensus ». Ceci dit, les institutions se tournent souvent vers ce document de Frédéric Sgard et Stefan Michalowski, rapporteurs lors du Forum mondial de la science de l’OCDE de Tokyo en 2007.

Ils y dressent une liste non exhaustive des différents manquements : cela va de la fabrication/falsification de données aux fraudes financières, en passant par de mauvaises pratiques sur la conservation des données, des attitudes inappropriées, refuser/obtenir une position d’auteur de façon abusive, etc.

Intégrité scientifique sénat

Au fil du temps, les pratiques évoluent et de nouvelles techniques arrivent, comme en attestent les recherches de la microbiologiste Elisabeth Bik. Elle a en effet « révélé au mois de février 2020 l’existence de "fermes à articles" chinoises, ou américaines comme YMGrad3, qui produisent à la chaîne de faux articles scientifiques, afin que leurs acheteurs obtiennent un diplôme ou une promotion, comptabilisant plus de 400 articles, publiés pour certains dans de grandes revues scientifiques ».

Concernant la seconde manière de classer les méconduites, le rapport revient sur l’importance de l’intentionnalité. Trois cas sont mis en avant : l’erreur (c’est-à-dire un manquement involontaire), la fraude (qui est intentionnelle avec l’espoir d’en tirer profit) et la faute (le manquement est conscient). Les rapporteurs citent Martine Bungener, économiste et sociologue, qui rappelle à juste titre : « N’oublions pas qu’il peut y avoir des erreurs, que l’on a le droit de se tromper, mais pas de falsifier des données ou des résultats ».

Pour le classement par gravité, le rapport s’appuie sur le rapport Bach concernant Anne Peyroche. Il comprend cinq niveaux (l’ex-présidente du CNRS a été reconnue coupable des niveaux I à IV) : 

  • niveau I : l’embellissement des données
  • niveau II : la manipulation des données
  • niveau III : la falsification, consistant à « modifier certains résultats », lorsque celle-ci « ne change pas
  • l’interprétation d’une figure ou d’une phrase de texte »
  • niveau IV : la falsification, lorsqu’elle « modifie l’interprétation de la figure ou du texte, indépendamment du message scientifique global »
  • niveau V : la fabrication, consistant à « créer de novo des résultats qui n’ont pas été obtenus en laboratoire ». C’est « le stade ultime » pour le rapport

Les rapporteurs ne sont par contre pas en mesure du dire si « cette nomenclature était répandue ou en usage au sein des référents intégrité scientifique ». Rémy Mosseri, référent intégrité scientifique du CNRS, est le seul à indiquer l’avoir utilisée dans un cas particulier.

Intégrité scientifique sénatIntégrité scientifique sénat

Présomption d’innocence et réhabilitation

Lors de son audition, Ghislaine Filliatreau (déléguée à l’intégrité scientifique de l’Inserm) soulevait que cette échelle à cinq niveaux n’est pas sans poser quelques problèmes :

« elle ne comporte aucun niveau zéro, alors même que toute personne soupçonnée d’un manquement à l’intégrité scientifique doit disposer de la présomption d’innocence. De même, elle n’intègre pas le critère d’intentionnalité, alors même que l’erreur peut être à l’origine d’une de ces méconduites. »

Le député et le sénateur détaillent ensuite les signalements et procédures des cas de méconduites, en terminant par un point important : la réhabilitation du chercheur, qu’il soit reconnu coupable ou non d’ailleurs. Si l’Inserm propose une solution via des mentorats, « tous les établissements ne sont pas armés pour réintégrer les chercheurs ayant commis un ou des manquements et certains tardent à entamer une réflexion sur le sujet ».

Même situation pour la réhabilitation d’un chercheur accusé à tort. Actuellement, cela « passe principalement par une lettre de réhabilitation, adressée par le PDG ».

Les pistes pour améliorer l’intégrité scientifique : la formation…

Concernant le troisième axe – développer une « culture de l’intégrité scientifique » –, le rapport affirme que cela passera d’abord par la « formation des futurs et jeunes chercheurs que se diffusent les valeurs de l’intégrité scientifique ». Sur ce point, les efforts semblent globalement insuffisants au regard des auditions menées.

Le rapport cite une enquête menée en 2018 par Meriem Koual, qui dresse un triste bilan de 153 écoles doctorales ayant répondu à son enquête :

« 93 % proposent une formation à l’intégrité scientifique dans le cadre du doctorat, 75 % rendent cette formation obligatoire, mais elle fait rarement l’objet d’un examen de validation […] Le volume horaire est relativement faible : moins de 2 heures pour 13 %, entre 2 et 10 heures dans 62 % des cas, entre 10 et 20 heures dans 21 % des cas, plus de 20 heures dans 4 % des cas ».

…et l’open peer review ?

Pour essayer de limiter les méconduites et autres validations de « complaisances » par des chercheurs, l’idée d’un « open peer review » arrive sur la table. Comme son nom l’indique, il s’agit d’une version « open » – dans le sens transparent – de la procédure de relecture et de validation par les pairs (peer review).

C’est une étape importante, comme nous l’avons déjà expliqué, et qui peut parfois prendre des années. Elle est critiquée sur certains points : une activité chronophage qui n’est pas valorisée dans l’évaluation des chercheurs, possible subjectivité de certains relecteurs anonymes qui peuvent demander à citer des références, etc.

Parfois, le temps nécessaire n’est pas pris et, en cette période de pandémie, il n’est pas rare de voir des publications mises en ligne à la va-vite puis modifées/retirées.

Avec l’open peer review, les revues « mettent en ligne les noms des relecteurs et/ou les commentaires du ou des relecteurs, et rendent donc transparent le processus de peer review ». Certaines ont déjà sauté le pas (F1000Research, Royal Society Open Science, Annals of Anatomy, PeerJ, EMBO Press). 

De son côté, Marin Dacos, conseiller pour la science ouverte au MESRI, souligne lui aussi les avantages de l’open peer review, mais invite également à la prudence et surtout à l’expérimentation. Il ne faudrait en effet pas tomber « dans une forme de dictature de la transparence ».

Il soulève par exemple la question de la publication ou non des lettres de refus, et du droit de réponse. 

Des référents « intégrité scientifique »… et des polémiques

Dans la quatrième partie du rapport, consacré aux avancées en matière d’intégrité scientifique. Les rapporteurs affirment avoir constaté que la perception des instituts évoluait rapidement : désormais, « la majorité des établissements est désormais dotée d’un référent intégrité scientifique ».

Cela ne règle pour autant pas tous les problèmes d’un coup de baguette magique. Les acteurs de la recherche demandent que « cette autorégulation soit accompagnée et soutenue par la législation ». Là encore, le cas Anne Peyroche est symptomatique, comme l’expliquait l’Express en février dernier.

Alors que la chercheuse était condamnée, le CEA annonçait le départ à la retraite de Marc Léger, son référent à l'intégrité scientifique, et son remplacement par Jean-Marc Grognet. « Or ce chercheur est un ami très proche de Peyroche (toujours en arrêt maladie). De 2011 à 2014, il a été directeur de l'Institut de Biologie et technologie de Saclay (iBiTec-S) du CEA, une structure où officiait justement... Anne Peyroche. Ainsi donc, l'une des publications incriminées date de 2012, lorsqu'il était son supérieur hiérarchique », expliquent nos confrères.

Cette nomination est mal passée auprès de certains : « Quand la nomination de Grognet a été connue au CEA, personne n'y a cru. Le dispositif de protection des tricheurs est en place ! », lâchait sous le coup de la colère un fonctionnaire à nos confrères.

Rapport et LPR : un « heureux hasard du calendrier »

Enfin, le timing ne pouvait pas être meilleur pour les rapporteurs : « Heureux hasard du calendrier, le travail de la mission a coïncidé avec la discussion parlementaire sur la loi de programmation pour la recherche (LPR) ».

Ils ont ainsi pu proposer sans attendre de « transcrire dans la loi un certain nombre des recommandations émanant de leurs travaux », ce qui a été fait. Certains points n’ont par contre pas pu faire l’objet d’un consensus avec la LPR. C’est notamment le cas de l’indépendance de l’Office Français de l'Intégrité Scientifique (OFIS) : « Certains acteurs pensent qu’il serait utile de donner une personnalité morale à l’OFIS, afin qu’il puisse instruire les cas ».

Dix recommandations pour améliorer les choses

Enfin, le rapport se termine par dix recommandations, dont l’objectif de « participer au rétablissement de la confiance à l’égard du monde scientifique et de renforcer la légitimité de la recherche française sur la scène internationale ». En voici le détail :

  1. « Introduire, par la loi, dans le code de la recherche une définition de l’intégrité scientifique et proposer des règles générales pour engager les institutions et les chercheurs à la respecter. Cet objectif a été en grande partie atteint par la loi de programmation de la recherche.

  2. Réévaluer les conditions d’exercice des missions de l’OFIS et du CoFIS, ainsi que leurs rôles institutionnels [cette recommandation comprend pas moins de 18 actions, ndlr].

  3. Encourager la nomination de RIS [référents intégrité scientifique, ndlr] dans l’ensemble des établissements de recherche ; préciser leur statut et les conditions d’exercice de leurs missions ; formaliser le suivi de leur travail, par exemple via la remise de bilans annuels ou pluriannuels de leur activité.

  4. Veiller à la bonne articulation des travaux et réflexions menés dans le cadre de l’OFIS, du CoFIS, du ResInt et de la conférence des signataires.

  5. Reconnaître l’intérêt des actions menées par les acteurs, promoteurs et garants de l’intégrité scientifique et soutenir leurs actions dans le respect de leur indépendance.

  6. Normaliser davantage les règles d’instruction des méconduites scientifiques ; assurer que les règles démocratiques du débat contradictoire soient respectées lors des procédures d’instruction ; encourager les interactions transversales entre RIS et services juridiques des établissements ; inciter à une prise de décision finale collégiale et ne reposant pas exclusivement sur celle du chef d’établissement ; finaliser la base de données des cas d’instruction de méconduites afin de disposer d’un référentiel.

  7. Rendre obligatoire la formation en intégrité scientifique tout au long de la carrière dans la recherche, en particulier pour les encadrants et autres positions de mentorat (HDR, post-doc), comme le font déjà, de manière informelle, certains établissements.

  8. S’assurer que les signataires de la déclaration de San Francisco (DORA) et du manifeste de Leiden appliquent bien les principes préconisés par ces textes ; à la suite de la déclaration de Bonn, promouvoir au sein de l’Union européenne une réflexion juridique et législative afin de doter l’Union d’une réglementation en faveur de l’intégrité scientifique et des libertés académiques.

  9. Intégrer la promotion et la garantie de l’intégrité scientifique au nombre de missions de l’Hcéres [Le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur, ndlr].

  10. Mieux identifier les processus par lesquels les objectifs poursuivis par la politique de la science ouverte peuvent aider au respect et à la promotion de l’intégrité scientifique ; définir des normes d’archivage et de mise à disposition des données de la recherche afin de garantir le contrôle par les pairs des productions scientifiques. Les rapporteurs jugent souhaitable et nécessaire qu’un rapport sur la science ouverte soit initié, dans la suite du présent rapport ».

Fibre optique : InfraNum propose de nouvelles règles pour mettre fin à la jungle des raccordements

5 mars 2021 à 13:49

Pour remettre de l’ordre dans les armoires de raccordement à la fibre optique, InfraNum détaille son plan d’action sur les contrats entre les opérateurs d’infrastructures, les FAI et les sous-traitants. Le but est d’améliorer la qualité des interventions – il y a urgence dans certains cas – et rééquilibrer les coûts de maintenance.

Cela fait maintenant des mois – pour ne pas dire des années – que des armoires de mutualisation pour la fibre optique sont « ravagées » avec des raccords parfois réalisés en dépit du bon sens. Le mode STOC (Sous-Traitance Opérateur Commercial) est pointé du doigt par les acteurs.

Il s’agit d’un « modèle ou contrat dans lequel l’opérateur d’immeuble (OI) [celui qui construit le réseau, ndlr] sous-traite à l’opérateur commercial (OC) [le FAI, ndlr] le raccordement du client final. Dans ce modèle, l’OI ne réalise pas le raccordement lui-même mais délègue le raccordement chez le client à l’OC via un contrat de sous-traitance ».

L’opérateur commercial peut alors faire intervenir un sous-traitant, soit un sous-traitant de sous-traitant… On vous laisse imaginer le résultat. L’Arcep précise en outre qu’il « apparait que le mode STOC est de loin la principale modalité de production des raccordements finals en zones d’initiative privée ».

Comme souvent, ce sont les clients qui trinquent, avec des coupures, des débranchements sauvages, etc. Un point que nous avions soulevé dans notre analyse des défis à venir pour la nouvelle présidente de l’Arcep. InfraNum propose une solution avec de nouvelles obligations dans les contrats et la possibilité d’exclure un sous-traitant en cas de manquements.

Face aux problèmes récurrents, des actions locales

L’Avicca (Association des villes et collectivités pour les communications électroniques et l’audiovisuel) a déjà tiré la sonnette d’alarme à plusieurs reprises : « Serrures des armoires forcées au pied de biche, au tournevis, avec des pierres, des tampons en fonte, quand elles ne sont pas simplement découpées à la meuleuse ou que les portes n'ont pas été arrachées. Ce qu'il reste des portes de ces armoires servant souvent à dissimuler les "plats de nouilles" que font les câbles, les cassettes décrochées et les déchets d'intervention au sol ». Vous pouvez en voir des vertes et des pas mûres sur ce compte TikTok.

@SFR_FTTH @Arcep @lauredlr @SFR J’ai un jeu pour vous.
Qu’est ce que c’est ? ⤵️
Réponse A = Un plat de nouilles
Réponse B = Une représentation artistique du Labyrinthe de la Villa Pisani
Réponse C = Le pire point de mutualisation de Zone (PMZ) que vous ayez jamais vu..
Réagissez! pic.twitter.com/hk27JlLmMC

— Mickaël Littiere (@MickaelLittiere) February 6, 2021

Localtis – un média de la Banque des territoires – vient d’en remettre une couche et revient sur deux cas récents : « En Seine-et-Marne et dans le Doubs, les désordres créés par la sous-traitance du raccordement provoquent pétition et opération "dé-stoc-age" ». 

La ville de Trilport (Seine-et-Marne) a lancé une pétition où elle explique que des armoires de raccordement FTTH sont « ouvertes aux quatre vents sur l'espace public du fait de l’absence totale de mesures prudentielles basiques, d'actes de vandalisme et du manque de professionnalisme de certains sous-traitants des opérateurs ». « Il est urgent que l'Arcep intervienne pour mettre fin à ces désordres récurrents et inadmissibles en 2021 », ajoute-t-elle.

Opération « Dé-Stoc-age » dans le Doubs

Dans le Doubs, une solution radicale est proposée par le syndicat mixte Doubs Très Haut Débit (SMIX) en charge du réseau départemental en fibre optique : « l’opération "Dé-Stoc-age" […] le syndicat voudrait "interdire" l’intervention de sous-traitants dans son département », explique la Banque des territoires. 

L’opérateur d’infrastructure « a ainsi procédé lui-même au raccordement de la mairie de la Tour de Sçay en se substituant à l’opérateur commercial ». Denis Leroux, président du SMIX, se justifie : « les sous-traitants sont mal formés, mal payés, mal équipés, résultat : ils n'installent pas correctement la fibre et abîment notre réseau pourtant tout neuf ». Bonne ambiance… C’est dans ce climat tendu qu’InfraNum propose de nouvelles règles.

InfraNum veut calmer le jeu et propose de nouvelles règles

La Fédération des Entreprises Partenaires des Territoires Connectés est sur la même longueur d’onde et ajoute que ce mode de fonctionnement contre-balance fortement avec les bons chiffres du déploiement de la fibre. Elle pointe aussi du doigt « de nombreux problèmes de qualité liés aux raccordements d’abonnés constatés sur le terrain, corollaires des modalités d’échange et d’intervention inadaptées entre opérateurs d’infrastructures (OI) et opérateurs commerciaux (OC) ».

Afin de trouver une solution, la fédération a regroupé « l’ensemble des opérateurs d’infrastructures afin d’identifier des propositions d’amélioration du mode STOC. Leurs préconisations ont servi de base à la feuille de route définie par l’Arcep début 2020 ». Le but étant d’« aboutir à une résolution collective opérationnelle efficace et équilibrée pour améliorer la qualité et la sécurité des interventions ». InfraNum souhaite éviter « d’imposer une décision réglementaire ».

La fédération voit le bout du tunnel avec la mise en place d’un nouveau cadre contractuel, qui est « en passe d’être décliné dans les contrats en cours de signature chez les principaux opérateurs d’infrastructure et les opérateurs commerciaux ». Les opérateurs d’infrastructure (ceux qui déploient le réseau) Axione et Altitude Infra indiquent « déjà l’avoir entériné avec la majorité des opérateurs commerciaux [les FAI, ndlr] », tandis que TDF est « en bonne voie » pour faire de même. 

Des mesures et des sanctions, jusqu’à l’exclusion d’un sous-traitant

Trois principaux axes sont mis en avant : 

  • « Améliorer la sécurité et la qualité des interventions. Accompagnement systématique (par l’OI) de tout nouvel intervenant sur le réseau, renforcement des procédures contractuelles de reprise des malfaçons, réalisation d’audits communs et l’introduction de sanctions, pouvant aller jusqu’à l’exclusion d’un sous-traitant, en cas de manquement contractuel.
  • Renforcer la transparence. Processus de raccordement entre OI et OC : traitement photographique des interventions des OC (comptes-rendus avec photos horodatées, montage « avant-après », etc.). L’OI pourra, via un contrôle par un système d’intelligence artificielle, identifier rapidement toute malfaçon ou dégradation liée à une intervention et y remédier.
  • Rééquilibrer les coûts de maintenance : entre les OI et les OC, une prise en charge collective des frais de remise en état du réseau, selon une clé de répartition approuvée par l’Arcep ».

Il faut maintenant que l’ensemble des acteurs (OC et OI) adhérent à ses mesures, puis vérifier qu'elles permettront d’arrêter le massacre dans les armoires et revenir à une situation saine et pérenne.

La Banque des territoires demande « à voir »

La Banque des territoires affiche un optimisme mesuré face à cette annonce : « Les industriels, par la voix d’Infranum, affirment que le nouveau contrat fraichement mis au point, comprenant des possibilités d’exclusion de sous-traitants et des modalités financières de prise en charge, va résoudre le problème. À voir ».

« Cet accord suffira-t-il à calmer les élus ? Pas certain. En affirmant qu’il "évite d'imposer une décision réglementaire", la fédération s’avance sans doute un peu trop », ajoute la Banque des territoires. Lors de son audition au Sénat, Laure de la Raudière (désormais présidente de l’Arcep) s’était d’ailleurs montrée préoccupée par ce sujet et promettait d’agir.

Laure de La Raudière en embuscade

« Je vais vous dire, si vous me validez à l’Arcep, c'est un sujet que je dois prendre dès le mois de février bien évidemment », affirmait-elle. Elle souhaitait commencer par étudier ce qui se passe sur le terrain avec la procédure actuelle avant de prendre des décisions : « il faut aller voir vraiment ce qui se passe […] et comment on peut trouver une autre solution que ce qui est mis en place parce que si ça ne marche pas, il faut changer ».

Depuis son arrivée à la présidence de l’Arcep, Laure de La Raudière n’a pas fait de nouvelles annonces sur le mode STOC, mais elle suit certainement de près l’annonce d’InfraNum.

Au-delà des paroles, on attend maintenant de pouvoir vérifier sur le terrain l'efficacité de ces mesures.

❌
❌