❌

Vue normale

À partir d’avant-hierFlux principal

La virtualisation pour les nuls et autres enjeux autour des datacenters

Depuis quelques annĂ©es la virtualisation sous toutes ses formes est devenue l'alpha et l'omĂ©ga de l'informatique, elle a rĂ©volutionnĂ© en quelques annĂ©es la maniĂšre d'administrer les serveurs et de gĂ©rer les donnĂ©es. Cette dĂ©pĂȘche est un essai de vulgarisation sur la virtualisation pour en exposer ses grands principes techniques, ses avantages et inconvĂ©nients et ses enjeux sous-jacents.

Sommaire

Commençons par quelques définitions

C'est quoi la virtualisation ?

Pour pouvoir illustrer concrÚtement ce qu'est la virtualisation, à une époque pas si lointaine que ça, dans le monde professionnel on retrouvait des serveurs physiques dédiés, par exemple un serveur pour gérer les mails, un autre pour le serveur web et un dernier comme serveur de fichiers. Chacun des serveurs pouvant tourner sur des systÚmes d'exploitation (OS) différents. Dans notre exemple il en résulte qu'il faut maintenir et administrer trois machines différentes qui vont prendre de la place et consommer de l'électricité, sans une utilisation optimale de chacune des machines, si le serveur web par exemple a besoin momentanément d'un accroissement de puissance et de mémoire, il ne pourra pas bénéficier des ressources des autres serveurs physiques.
Avec la virtualisation, sur une seule machine physique on va faire tourner plusieurs environnements de serveurs distincts en mĂȘme temps, sans avoir Ă  redĂ©marrer, ils vont se partager les ressources matĂ©rielles de la machine physique de maniĂšre plus optimale et efficace en rĂ©duisant les coĂ»ts d'administration. On retrouvera donc sur une seule machine physique, nos serveurs de courriel, web et de fichiers, chacun dans un environnement distinct fonctionnant de maniĂšre autonome et isolĂ©e.

C'est quoi une machine virtuelle ?

On appellera chaque environnement distinct machine virtuelle, elle s'exécute sur une machine physique avec son propre systÚme d'exploitation, ses applications et avec les ressources de la machine physique qu'on veut bien lui allouer (mémoire, puissance de traitement, stockage). On dit aussi que la machine physique est appelée machine hÎte et les machines virtuelles sont des machines invitées. Une machine hÎte peut faire tourner plusieurs machines invitées.
Une machine virtuelle fonctionne comme n'importe quel poste informatique avec son OS qu'on peut mettre à jour, ses applications, ses paramÚtres systÚme et on pourra à partir de la machine hÎte accéder à toutes les machines virtuelles.

C'est quoi un hyperviseur ?

Pour que les machines virtuelles puissent s'exécuter indépendamment et utiliser les ressources de la machine hÎte simultanément sans qu'elles interfÚrent entre elles, il est nécessaire de rajouter une couche logicielle qui va gérer tout ça, c'est ce qu'on appelle un hyperviseur.
Il existe deux types d'hyperviseur:

  • L'hyperviseur de type 1, ou bien encore hyperviseur de matĂ©riel nu (bare metal en anglais) est en interface direct avec l'ordinateur physique, cela sous entend que votre machine soit compatible (Intel VT pour les processeurs Intel et AMD-V pour les processeurs AMD). Dans le monde libre, proxmox est certainement l'hyperviseur de type 1 le plus connu.
  • L'hyperviseur de type 2 ou bien encore hyperviseur de matĂ©riel invitĂ© (host metal en anglais) fonctionne dans un systĂšme d'exploitation dĂ©jĂ  prĂ©installĂ©, c'est le cas par exemple de VirtualBox qui permet de faire tourner une instance de windows dans un environnement Linux.

Un hyperviseur de type 1 est une couche logicielle trĂšs lĂ©gĂšre et offre de meilleures performances et est la solution privilĂ©giĂ©e pour des serveurs en production, l'hyperviseur de type 2 est plutĂŽt une solution destinĂ©e aux utilisateurs qui souhaitent tester d'autres systĂšmes d'exploitation ou faire tourner un logiciel sur un OS particulier sur un poste de travail classique. Mais rien ne vous empĂȘche de faire tourner plusieurs machines virtuelles sur un hyperviseur de type 2 qui pourront communiquer entre elles et fonctionner comme un hyperviseur de type 1, Ă  la diffĂ©rence qu'elles seront moins performantes.
Par abus de langage, le terme d'hyperviseur fait référence plutÎt à l'hyperviseur de type 1.

C'est quoi les avantages de la virtualisation ?

Une administration centralisée et facilitée

L'hyperviseur fournit des outils de gestion des machines virtuelles qui simplifient sensiblement le travail d'administration, comme les outils de déploiement à partir de modÚles de machines virtuelles, les outils de gestion de charge, de sauvegarde et de restauration de machines virtuelles.

La disponibilité et la robustesse aux pannes

Un autre avantage de la virtualisation est la fonctionnalitĂ© de migration Ă  chaud, elle permet de dĂ©placer une machine virtuelle d'une machine physique Ă  une autre sans qu'il soit nĂ©cessaire de l'arrĂȘter. Si un serveur physique prĂ©sente des dĂ©faillances, les machines virtuelles sont automatiquement dĂ©placĂ©es sur un autre hĂŽte physique.
Alors bien sĂ»r si le serveur physique tombe en rade sans crier gare, la migration Ă  chaud peut ne pas ĂȘtre opĂ©rante, dans ce cas on peut trĂšs bien envisager la mise en place d'une machine physique redondante sur laquelle les machines virtuelles sont rĂ©pliquĂ©es et qui prendra le relais automatiquement si le serveur primaire tombe.

L'amélioration des performances

La migration Ă  chaud Ă©voquĂ©e plus haut a un autre avantage si une machine virtuelle est sursollicitĂ©e et nĂ©cessite de la puissance de traitement et de la mĂ©moire, elle pourra ĂȘtre dĂ©placĂ©e automatiquement sur un autre serveur moins sollicitĂ© Ă  ce moment-lĂ .

La sécurité

La virtualisation isole les services chacun dans leur machine virtuelle, en cas de corruption d'une machine virtuelle par cyberattaque, l'impact est nul pour les autres services et la restauration d'une machine virtuelle est autrement plus rapide et plus simple qu'avec une machine physique.

La disparition des machines physiques

Le stade ultime de la virtualisation est de déléguer à un prestataire la gestion des machines physiques qui se retrouve quelque part dans un datacentre. On s'abstrait totalement du matériel physique et des contraintes qui vont avec et on gÚre seulement nos machines virtuelles à distance, c'est totalement transparent pour les utilisateurs qui accÚdent à leurs services via internet ou sur un réseau privé. On parle aussi d'infrastructure virtuelle.

Il existe d'autres types de virtualisation ?

On a surtout évoqué jusqu'à présent la virtualisation des serveurs, mais il existe également d'autres types de virtualisation comme:

La virtualisation du stockage

Cela consiste en la création d'un espace virtuel de stockage à partir d'installations physiques de stockage bien réelles comme les serveurs de fichiers, NAS ou SAN qu'ils soient locaux ou distants. Cela permet de mettre en commun toutes ces installations et de la gérer à partir d'un outil unique de gestion pour effectuer toutes les opérations de sauvegarde, réplication, d'archivage et de restauration.

La virtualisation des réseaux

Un réseau est composé d'un tas d'éléments actifs comme les commutateurs, les routeurs et autres pare-feux, de type et de marques différentes. Là aussi on va créer un réseau virtuel qui combine l'ensemble de ces éléments actifs physiques pour pouvoir centraliser leur gestion sans avoir à y accéder physiquement. La virtualisation des réseaux permettra également d'améliorer les performances du réseau avec des analyseurs de trafic qui pourront équilibrer la charge ou favoriser certains flux.

La virtualisation des données

Les données sont issues de diverses sources, ont chacune leur format et sont stockées sur différents supports locaux ou distants. La virtualisation des données est une couche logicielle qui va gérer l'ensemble de ces données de maniÚre centralisée et les mettre à disposition des utilisateurs et des applications dans le format désiré.

La virtualisation d'application

La virtualisation d'application permet de sĂ©parer l'application de son systĂšme d'exploitation hĂŽte et de fonctionner sur un poste utilisateur sans qu'elle soit installĂ©e. Dans la pratique l'application est installĂ©e sur un serveur centralisĂ© et peut tourner sur un poste utilisateur du rĂ©seau comme si elle Ă©tait installĂ©e localement, quand bien mĂȘme l'OS du poste utilisateur n'est pas celui pour lequel l'application a Ă©tĂ© conçue.

La virtualisation des postes de travail

La virtualisation permet de virtualiser des serveurs mais pas seulement, on peut virtualiser également des postes de travail pour en faciliter la gestion qui seront accessibles aux utilisateurs du réseau via un client léger bien moins cher qu'un PC client classique.

Autres concepts autour de la virtualisation

C'est quoi une infrastructure convergĂ©e et hyperconvergĂ©e ?

Une infrastructure convergée regroupe plusieurs composants informatiques traditionnels et bien physiques comme les serveurs de calcul, les dispositifs de stockage ou les éléments actifs réseau pour en assurer la gestion dans un tout cohérent. Cela simplifie la gestion de l'administration et ça optimise les ressources matérielles et logicielles. On dit que c'est une approche modulaire basée sur le matériel physique.
L'hyperconvergence a une approche plutĂŽt logicielle, elle intĂšgre une couche logicielle qui va combiner les ressources de calcul, de stockage et de rĂ©seau dans ce qu'on appelle un nƓud. Les nƓuds sont interconnectĂ©s et combinĂ©s entre eux pour former des pools au sein d'un cluster, on retrouve ainsi un pool de stockage ou un pool de calcul, si un nƓud venait Ă  dĂ©faillir ça n'aurait pas de consĂ©quence pour les autres nƓuds et le fonctionnement du pool et du cluster.

OK, mais une fois que tout ça est posĂ©, quelle est la diffĂ©rence entre les deux ?
L'infrastructure convergĂ©e a une approche basĂ©e sur le matĂ©riel physique, c'est Ă  dire qu'un serveur physique peut ĂȘtre sĂ©parĂ© du reste du dispositif et toujours fonctionner comme un serveur indĂ©pendant alors que ce n'est pas possible avec l'infrastructure hyperconvergĂ©e oĂč les noeuds sont nĂ©cessairement interconnectĂ©s entre eux pour que le cluster puisse fonctionner correctement. Par ailleurs l'infrastructure convergĂ©e intĂšgre de base d'autres fonctionnalitĂ©s comme la sauvegarde, la rĂ©plication, la dĂ©duplication des donnĂ©es, la compression, l'optimisation du rĂ©seau, etc.

C'est quoi un cluster haute disponibilitĂ© ?

On a bien vu que finalement qu'elle soit dans vos locaux ou chez un prestataire de service, la machine physique reste le maillon faible du dispositif. Pour améliorer encore plus la disponibilité et la robustesse, on va dupliquer les machines physiques et si possible en les dispatchant dans des locaux et sites différents. Le tout étant géré comme un seul systÚme. La virtualisation du stockage prend alors toute son importance, pour éviter de se rendre dépendant d'un serveur physique de données.

C'est quoi le cloud computing ?

On appelle cloud computing le fait de confier à un tiers sur internet la gestion de services informatiques (applications, stockage, outils de gestion, 
) mais aussi le fait d'utiliser des services fournis par un prestataire via internet. Le cloud computing repose largement sur la virtualisation, on peut dire que le cloud computing est un environnement alors que la virtualisation est une technologique. En matiÚre de cloud computing, il en existe de différentes sortes :

  • Infrastructure as a service (IaaS) ou infrastructure en tant que service : L'IaaS offre une infrastructure informatique complĂšte (serveurs, stockage, rĂ©seau, 
) sur un rĂ©seau privĂ© (ressources en accĂšs limitĂ©), public (ressources en accĂšs libre) ou hybride (qui mĂ©lange les deux).
  • Platform as a service (PaaS) ou plate-forme en tant que service : Le PaaS c'est grosso modo la mĂȘme chose que l'IaaS sauf qu'en plus on bĂ©nĂ©ficie d'outils supplĂ©mentaires pour pouvoir dĂ©velopper des applications qu'on retrouvera sur le cloud et tous un tas de services supplĂ©mentaires, gestion de base de donnĂ©es, aide Ă  la dĂ©cision, etc.
  • Le Software as a service (SaaS) ou logiciel en tant que service : Le SaaS est une offre logicielle complĂšte qu'on retrouvera sur internet, c'est typiquement des offres comme Microsoft Office 365 ou Google Workspace, dans le monde opensource, on peut dire que certains prestataires recensĂ©s par les CHATONS se rapprochent d'une solution SaaS.

NdM: il est question ici de cloud computing sur un cloud public, une infrastructure gérée par un hébergeur tiers. Il est aussi possible de faire du cloud computing privé, interne, dans une grosse structure qui en a la capacité, ce qui revient à déléguer l'hébergement à un tiers (des collÚgues dans ce cas). Et on peut combiner les deux pour faire du cloud hybride. Le cloud computing implique aussi la création de ressources en libre-service, de la facturation à l'usage et de la mutualisation.

Les enjeux

Enjeu environnemental

L'adoption quasi généralisée de solutions autour de la virtualisation dans le monde professionnel a conduit à la disparition progressive des serveurs locaux d'entreprise au profit d'un développement effréné des datacenters de par le monde. Or un datacenter est constitué de machines bien physiques tournant 24h24 7j/7 avec tout un dispositif lui aussi bien physique pour assurer leur fonctionnement optimal, leur sécurisation et la robustesse aux pannes, il s'agit notamment de :

  • La climatisation et le traitement d’air pour maintenir des conditions satisfaisantes de tempĂ©rature et hygromĂ©trie avec toute un systĂšme de circulation et de refroidissement d'air
  • La distribution de l’électricitĂ© avec un dispositif de sĂ©curisation en cas de coupure d'alimentation, souvent basĂ© sur tout un ensemble d'onduleurs et appuyĂ© par groupes Ă©lectrogĂšnes
  • la protection physique de l'installation avec contrĂŽle d'accĂšs, vidĂ©osurveillance et autres systĂšmes anti intrusion

Le tout nĂ©cessite une consommation Ă©lectrique massive et une forte consommation en eau. Si l'on traduit cela en Ă©quivalent d'Ă©mission de gaz de serre (GES), d'aprĂšs une Ă©tude de l'ADEME les datacenters ont dĂ©jĂ  atteint le mĂȘme niveau d'Ă©mission que le transport aĂ©rien Ă  l'Ă©chelle mondiale.
Il se trouve que le destin des datacenters est maintenant Ă©galement Ă©troitement liĂ© Ă  celui de l'IA, mĂȘme si dans ce domaine on envisage plutĂŽt des datacenters dĂ©diĂ©s, or les besoins gĂ©nĂ©rĂ©s par l'IA dopent l'expansion globale des datacenters dans le monde. La demande de puissance de calcul de l'IA est exponentielle et double tous les 3,4 mois selon OpenAI. Selon une Ă©tude Gartner citĂ©e par le Monde Informatique, rien que les besoins liĂ©s Ă  l'IA feront exploser la demande Ă©nergĂ©tique des datacenters au point que les fournisseurs d'Ă©nergie ne pourront y rĂ©pondre dĂšs 2027 !

Dans ce contexte il n'est pas Ă©tonnant donc que les grands acteurs du secteur poussent au dĂ©veloppement des centrales nuclĂ©aires qui leur permettra par la mĂȘme occasion de verdir leur image. Mais ces acteurs ne sont pas Ă  une contradiction prĂšs, on peut s'Ă©tonner du dĂ©veloppement dans certaines rĂ©gions qui de prime abord ne se prĂȘtent pas particuliĂšrement Ă  leur installation contrairement aux pays nordiques. Le projet d'installation de Meta dans une rĂ©gion aride d'Espagne oĂč chaque goutte d'eau compte, en est une triste illustration. Les tempĂ©ratures rĂ©gionales Ă©levĂ©es dĂ©cupleront ses besoins en Ă©lectricitĂ© et en eau pour les circuits de refroidissement alors que la rĂ©gion souffre de sĂ©cheresse chronique. On peut dĂ©plorer que tout cela ne pourrait se faire sans le soutien des gouvernements et des Ă©lus locaux qui ne trouvent rien Ă  redire.

Enjeu de résilience

Le marchĂ© actuel est dominĂ© par trois acteurs qui reprĂ©sentent Ă  eux trois plus de 60% du marchĂ© mondial il s'agit dans l'ordre d'AWS (Amazon), d'Azure (Microsoft) et de Google Cloud Platform, on parle d'eux comme des hyperscalers car ils fournissent des services Ă  l'Ă©chelle mondiale Ă  grande Ă©chelle. Cette hyperconcentration des acteurs et des solutions techniques fragilise l'Ă©conomie mondiale en la rendant davantage sensible et moins rĂ©siliente aux pannes, la dĂ©faillance d'un simple outil de sĂ©curitĂ© a ainsi entraĂźnĂ© en cascade une panne informatique mondiale en juillet dernier avec des consĂ©quences graves comme l'arrĂȘt partiel du contrĂŽle aĂ©rien, de centres d'appels d'urgence ou de services hospitaliers. Plus modestement l'incendie subi par OVH en 2021 a impactĂ© des milliers d'entreprise et services publics, toutes les donnĂ©es contenues sur les serveurs sont perdues, puisqu'OVH a commis l'erreur de stocker au mĂȘme endroit les donnĂ©es et les sauvegardes. NdM: historique de pannes GCP, AWS ou Azure
Cette hyperconcentration fait planer également des risques en termes de cybersécurité, la corruption d'un élément du systÚme et sa prise de contrÎle par un hacker aura vite des conséquences majeures.

Enjeu de souveraineté

Il faut savoir que les donnĂ©es gĂ©rĂ©es par un datacenter sont soumises Ă  la rĂ©glementation propre au pays oĂč il est installĂ©. Les autoritĂ©s aux États-Unis, au nom du Patriot Act peuvent donc ainsi accĂ©der aux donnĂ©es stockĂ©es sur leur territoire. Les datacenters souverains sont donc un enjeu majeur pour certains pays pour garantir que les donnĂ©es seront protĂ©gĂ©es par les lois nationales, sans ingĂ©rence Ă©trangĂšre possible.

En France notamment, 71% des entreprises se reposent sur des solutions américaines dont des acteurs étatiques. Une affaire illustre à elle seule cet état de fait, la solution Azure de Microsoft a été ainsi choisi pour héberger l'ensemble des données de santé de 4 établissements hospitaliers (et non de l'ensemble des Français) à des fins de recherche dans un entrepÎt de données de santé dénommé EMC2. Sauf qu'en l'espÚce Microsoft a répondu à un appel d'offre en bonne et due forme, que la CNIL a donné son autorisation et que les différents recours à ce stade ont tous échoué. Néanmoins voici ci-dessous texto la conclusion du rapport de la CNIL en 2023 :

(début de citation)

  • qu’aucun prestataire potentiel ne propose d’offres d’hĂ©bergement rĂ©pondant aux exigences techniques et fonctionnelles du GIP PDS (Note de l'auteur : groupement d’intĂ©rĂȘt public « Plateforme de donnĂ©es de santĂ©", appelĂ© aussi Health Data Hub) pour la mise en Ɠuvre du projet EMC2 dans un dĂ©lai compatible avec les impĂ©ratifs ce dernier ;
  • que le dĂ©veloppement d’un dĂ©monstrateur " cloud de confiance ", respectant les conditions de la circulaire prĂ©citĂ©e et permettant Ă  terme d’hĂ©berger des projets de cette nature, et notamment la plateforme du GIP PDS, devrait se poursuivre sur les prochaines annĂ©es ;
  • que la construction d’une plateforme d’hĂ©bergement spĂ©cifique pour le projet EMC2 pourrait retarder la migration de la solution d’hĂ©bergement du GIP PDS pour l’ensemble de ses missions ;
  • qu’en attendant cette migration, le projet EMC2 soit menĂ© sur la solution technique actuelle du GIP PDS.

À la lumiĂšre de ces conclusions, la CNIL dĂ©plore qu’aucun prestataire susceptible de rĂ©pondre actuellement aux besoins exprimĂ©s par le GIP PDS ne protĂšge les donnĂ©es contre l’application de lois extraterritoriales de pays tiers.
De maniĂšre gĂ©nĂ©rale, elle regrette que la stratĂ©gie mise en place pour favoriser l’accĂšs des chercheurs aux donnĂ©es de santĂ© n’ait pas fourni l’occasion de stimuler une offre europĂ©enne Ă  mĂȘme de rĂ©pondre Ă  ce besoin. Le choix initial du GIP PDS, dĂšs sa fondation, de recourir au cloud a conduit Ă  privilĂ©gier des offres d’acteurs Ă©tasuniens dont il apparaĂźt dĂ©sormais difficile de se dĂ©tacher Ă  court terme malgrĂ© l’émergence progressive de fournisseurs souverains. Le projet EMC2 aurait pu ĂȘtre retenu par le GIP PDS pour prĂ©figurer la solution souveraine vers laquelle il doit migrer.

(fin de citation)

À la lumiĂšre de cette conclusion, on peut comprendre que la CNIL s'est sentie contrainte et forcĂ©e de rĂ©pondre favorablement pour ne pas faire capoter ce projet en espĂ©rant que cette solution ne soit que transitoire et qu'elle pourra basculer sur une solution souveraine dans quelques annĂ©es.
Autre affaire d'actualité, le contrat entre EDF et AWS pour le stockage de certaines informations sensibles de maintenance du parc nucléaire français, le Canard enchaßné vient de révéler récemment que le contrat battait de l'aile car Amazon refuse d'inscrire noir sur blanc dans le contrat que les données d'EDF seront stockées en France (autre article).
Aussi la France cherche Ă  dĂ©velopper son "cloud souverain" pour ne plus ĂȘtre dĂ©pendant des gĂ©ants amĂ©ricains mais peine Ă  avancer sur le sujet faute de barriĂšres rĂ©glementaires et juridiques, de rĂ©ticences des Ă©lus et des populations sur les territoires pouvant accueillir des datacenters et d'une certaine frilositĂ© des banques et acteurs technologiques.

En guise de réponse aux enjeux

RĂ©ponse Ă  l'enjeu environnemental

Pour ne pas courir à la catastrophe annoncée, la mise en place de technologies plus efficaces et économes en énergie est un enjeu majeur, parmi les axes d'innovation on peut citer:

  • l'utilisation d'Ă©nergie renouvelable
  • le refroidissement des datacenters basĂ© sur des technologies peu gourmandes en eau,
  • la rĂ©utilisation de l'Ă©nergie dissipĂ©e par les datacenters.

Réponse à l'enjeu de résilience

Des normes et des certifications se sont mises en place qu'elles soient internationales, européennes ou nationales. On peut citer :

  • TIA 942 qui couvre diffĂ©rents domaines comme la disponibilitĂ©, la sĂ©curitĂ©, l'efficacitĂ© Ă©nergĂ©tique, le refroidissement, la redondance et la gestion de l'espace;
  • ANSI/BICSI-002 qui dĂ©finit des standards de conception et de pose des systĂšmes de cĂąblage, d'Ă©lectricitĂ©, dissipation de chaleur, refroidissement, etc.
  • ISO 27001 qui couvre la gestion de la sĂ©curitĂ© de la donnĂ©e;
  • ISO 22237 qui couvre l'installation et les infrastructures des datacenters;
  • le rĂ©fĂ©rentiel de sĂ©curisation des services cloud SecNumCloud Ă©laborĂ© par l’ANSSI;
  • la certification d'Uptime Institute avec sa classification du niveau de sĂ©curitĂ© des datacenters de Tier I Ă  Tier IV.

En France, France Datacenter est une organisation professionnelle qui fédÚre les entreprises qui conçoivent, construisent et exploitent les datacenters. Elle publie également des guides à destination de ses adhérents qui font référence, on peut citer notamment "le livre blanc sur la sécurité incendie" ou "l'humain et la sécurité du datacenter".

D'un point de vue réglementaire, on peut citer :

  • le rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es RGPD;
  • La directive europĂ©enne relative Ă  DEE l’efficacitĂ© Ă©nergĂ©tique DEE;
  • La directive europĂ©enne relative Ă  la sĂ©curitĂ© des rĂ©seaux et de l’information, dite NIS 2 pour Network and Information System Security.

Le respect de ces normes, certification et a fortiori de la rĂ©glementation sont une garantie que les datacenters sont construits suivant les rĂšgles de l'art avec le niveau de qualitĂ©, de sĂ©curitĂ© et de fiabilitĂ© attendu. A ce propos pour en revenir Ă  l'incident OVH, les procĂ©dures judiciaires qui en ont dĂ©coulĂ© et qui ont conduit Ă  la condamnation d'OVH ont mis en Ă©vidence que la sociĂ©tĂ© qui se targuait d'ĂȘtre certifiĂ© ISO 27001 n'a pas respectĂ© la norme pour ne pas avoir prĂ©vu une copie de sauvegarde sur un site distant.

Réponse à l'enjeu de souveraineté

Le respect du RGPD et de la certification SecNumCloud sont une premiĂšre rĂ©ponse Ă  la menace des lois extraterritoriales sur la confidentialitĂ© des donnĂ©es, en parallĂšle le premier ministre de l'Ă©poque a diffusĂ© en 2021 une circulaire relative Ă  la doctrine d'utilisation de l'informatique en nuage par l'État qui a Ă©tĂ© actualisĂ© en 2023. Cette derniĂšre "exige (
) en cas de recours Ă  une offre commerciale d'informatique en nuage, l'hĂ©bergement des donnĂ©es d'une sensibilitĂ© particuliĂšre par des solutions disposant de la qualification SecNumCloud (
) et immunisĂ©es contre toute rĂ©glementation extracommunautaire".
Il faut par ailleurs créer l'environnement pour que des acteurs locaux puissent se développer et former une alternative crédible aux hyperscalers. L'émergence d'acteurs alternatifs de proximité est donc un enjeu que le marché seul ne suffit pas à faire percer, il faut une volonté politique, une stratégie et une vision à long terme, des financements, une adaptation de la réglementation à l'échelle européenne et nationale.
À ce sujet le prĂ©cĂ©dent gouvernement avait concoctĂ© une loi de simplification de la vie Ă©conomique destinĂ©e Ă  faciliter l'installation de datacenters en France en les qualifiant de projets d'intĂ©rĂȘt national majeur (PINM) pour qu'ils puissent bĂ©nĂ©ficier de mesures dĂ©rogatoires, de procĂ©dures accĂ©lĂ©rĂ©es tout en contournant le pouvoir des Ă©lus locaux puisque ça sera l’État qui signera les permis de construire. Avec cette loi la mĂ©tropole de Rennes n'aurait sans doute pas pu refuser l'implantation d'un datacenter de Microsoft s'il avait Ă©tĂ© jugĂ© d'intĂ©rĂȘt national. Aujourd'hui ce projet de loi continue son bonhomme de chemin lĂ©gislatif malgrĂ© l'instabilitĂ© politique actuelle.
Cet objectif de dĂ©veloppement d'une offre de proximitĂ© n'est pas forcĂ©ment compatible des objectifs environnementaux et de dĂ©veloppement durable que la France s'est imposĂ©e, mais il faut voir ça comme une opportunitĂ© pour innover et ne plus ĂȘtre Ă  la traĂźne des États-Unis dans ces domaines technologiques.

En guise de conclusion

D'une simple prĂ©sentation technique autour de la virtualisation, on en arrive en tirant la pelote Ă  des considĂ©rations Ă  fort enjeu sur la gestion et la confidentialitĂ© des donnĂ©es que bien des utilisateurs de cloud n'imaginent pas, ni mĂȘme ne considĂšrent Ă  sa juste importance. Pourtant il suffirait qu'ils en prennent conscience pour orienter leur choix vers des solutions respectueuses qui peinent encore aujourd'hui Ă  Ă©merger malgrĂ© les vƓux pieux de l’État qui n'est pas toujours exemplaire dans le domaine.

Pour aller plus loin

Quelques pages de vulgarisation

Une sélection de sites sur les enjeux et le futur autour de la virtualisation et les datacenters

Sites divers

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌
❌