Dans nos précédents articles, nous avons expliqué ce qu’était un serveur, puis une baie (ou un rack) et enfin un datacenter. Nous étions restés sur des considérations purement matérielles. L’éléphant dans la pièce est bien évidemment la question environnementale, avec la consommation en eau, en électricité et les émissions carbones.
Autant les exploitants de datacenters peuvent être prolixes quand il s’agit de promettre monts et merveilles sur les avantages du cloud et de l’IA, autant le mutisme s’installe rapidement (surtout chez les géants américains) sur les consommations et émissions de gaz à effet de serre. Même quand ils communiquent, il faut se méfier du périmètre des indicateurs.
Nous allons parler du PUE (Power Usage Effectiveness, ou Indicateur d’efficacité énergétique en français) qui représente l’efficacité énergétique, mais ne donne pas d’indication sur les émissions carbone liées. Suivant les pays, un PUE identique ne signifie pas du tout la même chose ! La France par exemple utilise beaucoup de nucléaire dans son mix énergétique, alors que les États-Unis et la Pologne par exemple vont utiliser du charbon pour produire de l’électricité.
Nous parlerons ensuite de WUE (Water Usage Effectiveness, indicateur d’efficacité d’utilisation de l’eau), qui permet d’avoir un rapport entre la quantité d’eau utilisée et l’énergie électrique consommée. Comme pour l’électricité, la position géographique a son importance, notamment pour prendre en compte d’éventuelles tensions hydriques, d’autant plus avec le réchauffement climatique qui vient rebattre les cartes.
Le troisième gros morceau concerne le CUE (Carbon Usage Effectiveness, indicateur d’efficacité d’utilisation du carbone) qui mesure l’empreinte carbone du datacenter en fonction de sa consommation d’énergie. Mais là encore, rien n’est simple et pour un même datacenter le CUE peut fortement varier suivant un paramètre. Doit-on prendre en compte l’électricité réellement consommée ou bien l’électricité renouvelable virtuellement achetée à coup de contrats d’approvisionnement ?
Next vous explique tout cela en détail.
Consommation électrique et PUE
Quand on parle électricité, on saute généralement trop vite sur la consommation, en laissant de côté les sources et le mix énergétique. C’est pourtant un élément très important.
Il reste 92% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.
Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.
Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».
Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».
Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».
« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.
Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».
C’est le constat fait par la DGCCRF (Direction générale de la Concurrence, de la Consommation et de la Répression des Fraudes). « Leur description et leur catégorisation sur le site permettent difficilement de douter du caractère pédopornographique des contenus », explique le ministère de l’Économie dans un communiqué.
Des signalements au procureur de la République, à l’Arcom et à la plateforme Shein ont été faits dans la foulée. « La diffusion, via un réseau de communications électroniques, de représentations à caractère pédopornographique, est passible de peines pouvant aller jusqu’à 7 ans d’emprisonnement et 100 000 euros d’amende », rappelle le ministère.
Sans compter que, « en l’absence de mesure de filtrage efficace visant à protéger les mineurs, la loi prévoit des peines d’amende pouvant aller jusqu’à 3 ans de prison et 75 000 euros d’amende. Ces faits ont également été signalés au procureur et à l’Arcom ».
Sentant le vent tourner, un communiqué de presse a été envoyé dans la foulée par Shein à de nombreuses rédactions, dont Next : « Shein confirme que les produits en question ont été immédiatement retirés de la plateforme dès que nous avons eu connaissance de ces défaillances majeures ».
Une enquête a été lancée pour comprendre comment « ces annonces ont pu contourner [les] dispositifs de contrôle ». L’entreprise « mène une revue complète afin d’identifier et de retirer tout produit similaire susceptible d’être mis en vente par d’autres vendeurs tiers ».
« Ce type de contenu est totalement inacceptable et va à l’encontre de toutes les valeurs que nous défendons. Nous prenons des mesures correctives immédiates et renforçons nos dispositifs internes afin d’éviter qu’une telle situation ne se reproduise », affirme le porte-parole de Shein Quentin Ruffat.
Shein doit pour rappel ouvrir dans les prochains jours un espace de plus de 1 000 m² dans le magasin historique du BHV, ainsi que des corners de 300 à 400 m² dans cinq magasins Galeries Lafayette. Cette annonce avait largement fait polémique. Disney devait, par exemple, décorer les vitrines du magasin mais a finalement décidé d’annuler car les conditions n’étaient « plus réunies pour déployer sereinement les animations de Noël ».
Régulièrement sur les réseaux sociaux, la même rengaine revient : le coût en eau d’une requête sur ChatGPT. Après les GW comme unité de calcul de puissance des GPU, le litre pour le coût environnemental des IA génératives ?
50 cl d’eau par requête ChatGPT ? Chiche !
Selon certains, une requête « consommerait 50 cl d’eau ». Partons de ce postulat. Selon Sam Altman, ChatGPT aurait plus de 800 millions d’utilisateurs actifs par semaine pour 2,5 milliards de requêtes par jour. Cela donnerait donc 1,25 milliard de litres (1 250 000 m³) d’eau par jour, ou encore 450 millions de m³ d’eau sur l’année.
À titre de comparaison, Microsoft annonce des prélèvements de 10,4 millions de m³ d’eau en 2024 au niveau mondial (5,8 millions en Amérique du Nord). Selon l’USGS (United States Geological Survey), la consommation des États-Unis en 2015 était de 322 milliards de gallons (1,2 milliard de m³ d’eau) par jour, soit 450 milliards de m³ par an.
On résume : sur la base des hypothèses, ChatGPT consommerait 45 fois plus d’eau que Microsoft au niveau mondial ou 0,1 % de la consommation totale des États-Unis (en 2015).
Avec 50 cl d’eau par requête, il ne faudrait que 60 millions de requêtes ChatGPT par jour pour arriver à la consommation totale d’eau de Microsoft.
Comment calculer combien d’eau consomme une requête ?
Deuxième approche, comment passe-t-on d’un prompt à un volume d’eau et peut-on retomber sur 50 cl par requête ? Déjà existe-t-il un lien de causalité entre une requête et une consommation d’eau. Oui : l’eau est utilisée pour refroidir les serveurs informatiques. Pour estimer la consommation, deux approches.
La première à partir de la consommation exacte d’une requête. Avec une règle de trois, en connaissant la consommation totale en électricité et en eau sur une période, on pourrait en déduire le volume d’eau moyen pour une requête. Mais on ne connait pas le coût énergétique d’une requête.
La deuxième avec le nombre total de requêtes sur une période (en partant du principe que le serveur ne fait rien d’autre). Si on connait la quantité d’eau utilisée, on peut obtenir la consommation moyenne d’une requête.
Attention, dans les deux cas on parle de moyenne sur l’ensemble des requêtes. Certaines sont plus longues que d’autres et consomment donc davantage.
Les datacenters ne sont pas égaux
Autre point important : la localisation des serveurs. Imaginons que la requête se fasse sur Azure de Microsoft (partenaire d’OpenAI), la consommation d’eau par kWh (on parle de WUE) varie entre 0,02 L/kWh (Irlande) et 1,52 L/kWh (Arizona) selon les données de Microsoft, soit jusqu’à 80x plus. Sur les datacenters Azure aux États-Unis, le WUE va de 0,1 à 1,52, soit un rapport de x15. Une même requête consommerait donc 80 fois plus d’eau en Arizona qu’à Singapour ou en Irlande.
Sans connaitre le datacenter (et on ne le connait pas quand on fait une requête), sa consommation électrique ni son WUE, impossible d’en déduire une estimation (même vague) de la consommation d’une requête à ChatGPT.
« 500 ml pour environ 10 à 50 réponses de longueur moyenne »
D’où viennent alors les 500 ml (50 cl) qu’on voit revenir plus ou moins régulièrement ? D’une étude américaine publiée dans la revue Communications of ACM :
« En prenant comme exemple le modèle GPT-3 avec ses 175 milliards de paramètres, nous montrons que l’entraînement de GPT-3 dans les centres de données américains de Microsoft peut consommer un total de 5,4 millions de litres d’eau, dont 700 000 litres de consommation d’eau sur site (scope 1). De plus, GPT-3 a besoin de « boire » (c’est-à-dire de consommer) une bouteille d’eau de 500 ml pour environ 10 à 50 réponses de longueur moyenne, selon le moment et le lieu de son déploiement ».
500 ml pour 10 à 50 réponses, soit 10 à 50 ml pour une requête GPT-3. OpenAI est depuis passé à GPT-5, mais nous n’avons pas de détails sur son coût environnemental. On se doute qu’il est bien plus important, mais dans quelles proportions ?
Les 10 à 50 ml sont-ils liés au datacenter avec le plus petit WUE, celui avec le plus gros ou à une moyenne ? Selon les hypothèses, la consommation pourrait donc varier de 0,7 à 750 ml… À ce niveau-là, difficile de dire qu’on tient une piste.
« Consommer » de l’eau ?
Et puis, qu’appelle-t-on consommation d’eau ? Microsoft fait bien la différence entre prélèvement, consommation et rejet. La consommation est égale aux prélèvements moins les rejets. Les 10 millions de m³ sont des prélèvements, pour une consommation de 5,8 millions de m³, le reste de l’eau étant rejeté. Rappelons que sur Terre l’eau ne disparait pas, elle suit un cycle.
Dernier point : on n’a même pas parlé du coût de l’entrainement du modèle (des batteries de GPU pendant des mois), de la production de l’électricité, du réseau… Mais ce serait autant d’éléments à intégrer.
Comme à chaque conférence GTC, NVIDIA présente ses nouveautés et orientations. L’intelligence artificielle est au cœur des annonces, avec des partenariats tous azimuts, des datacenters toujours plus gros… NVIDIA partage aussi sa vision d’un monde robotisé dans lequel des machines « intelligentes et pensantes » vont « stimuler la réindustrialisation américaine ».
Mardi, l’action de NVIDIA a bondi de 20 % (avant de se stabiliser à+ 16 %), quelle peut en être la cause ? L’intelligence artificielle. Le moins que l’on puisse dire, c’est que les annonces étaient nombreuses. Next vous propose un tour d’horizon de la vingtaine de communiqués de presse pour avoir une vision d’ensemble.
NVIDIA investit 1 milliard de dollars dans Nokia
Il reste 97% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Nous avons vu ce qu’était un serveur, puis une baie (ou un rack). Si on multiplie les baies, on arrive à une salle, puis un datacenter. Mais un « DC » ce n’est pas que des baies, c’est aussi bien d’autres éléments.
Difficile de définir ce qu’est exactement un datacenter (ou centre de données, pour la traduction littérale) puisqu’aucune règle n’est précise. La présentation d’IBM correspond assez bien à l’idée qu’on s’en fait : « une salle, un bâtiment ou une installation physique qui abrite l’infrastructure informatique nécessaire à la création, à l’exécution et à la fourniture d’applications et de services ».
Il n’y a pas de taille minimale ni maximale : on peut très bien faire un datacenter dans une cave souterraine, un abri anti-atomique en plein cœur de Paris, dans une ancienne maison, un immeuble, un bunker, un bâtiment industriel, un conteneur, etc. Vous voyez, c’est large !
Un datacenter, c’est plusieurs (grosses) arrivées électriques
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…
Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.
Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?
Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…
Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.
Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.
Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».
Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.
C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.
Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership) ».
Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.
Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.
Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…
Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.
Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?
Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…
Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.
Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.
Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».
Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.
C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.
Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership) ».
Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.
Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.
Il y a trois semaines, Meta annonçait un nouveau modèle de compression en open source. Nous l’avons installé sur une de nos machines afin de tester ses possibilités sur différents types de fichiers, au-delà des tests de Meta. Nous avons découvert quelques limitations au passage.
Pour nos tests, nous utilisons une machine virtuelle avec Ubuntu Server 24.02 LTS (SSD dédié, 24 cœurs CPU et 56 Go de mémoire) sur notre serveur Dell PowerEdgeT630 avec Proxmox.
Installation d’OpenZL et premiers tours de piste
L’installation n’est vraiment pas compliquée et ne nécessite que trois lignes de code.
git clone https://github.com/facebook/openzl.git
cd openzl
make
La première ligne va créer un répertoire openzl et y copier le contenu du dépôt GitHub d’OpenZL de Meta (Facebook). La deuxième ligne nous permet d’aller dans ce répertoire, la troisième de lancer la compilation d’OpenZL. C’est tout !
Le programme s’appelle « zli » et on peut l’appeler, dans notre cas, via cette commande : « /home/gathor/openzl-repo/cachedObjs/*/zli ». Par exemple, pour connaitre la version de l’algorithme : « /home/gathor/openzl-repo/cachedObjs/*/zli --version ». Pour simplifier, nous garderons simplement la commande zli pour la suite de cet article.
Le fonctionnement classique de zli est le suivant : « zli <command> [options] < args> ». Les commandes possibles sont compress, decompress, train, benchmark, etc. On peut aussi préciser un nom de fichier de sortie avec -o, un profil avec -p, etc. On peut utiliser « zli --help » pour avoir tous les détails.
Sur sao, OpenZL explose bien la concurrence
Premier test : vérifier les allégations de Meta sur le niveau de compression des données sao. Il faut d’abord récupérer le corpus silesia et ensuite extraire le fichier sao. Deux lignes de commandes plus tard, c’est fait.
Nous lançons dans la foulée trois tests de compression avec zli (profil sao), xz avec le niveau 9 de compression et zstd avec le niveau 3 (time permet de récupérer le temps nécessaire au traitement de la commande) pour répéter les tests de Meta.
Nous arrivons bien à un ratio de 2,06, exactement ce qu’annonce Meta. Même chose pour xz avec 1,64x et zstd avec 1,31x. xz est déjà à son niveau maximum de compression, mais pas zstd qui peut monter bien plus haut. Avec un niveau de 22, cela donne un ratio de compression de 1,45x (mais avec un temps de traitement beaucoup plus long), comme on peut le voir dans le graphique ci-dessous.
Passons maintenant aux tests maison !
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».
Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».
Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.
La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.
Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».
Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».
L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».
Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».
Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.
La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.
Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».
Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».
Oublie que t'as aucune chance, vas-y fonce ! On sait jamais !
Dans notre nouvel épisode de T@LC (Tests À La Con), nous avons posé 20 fois une même question à Claude, mais n’avons obtenu la bonne réponse que 16 fois. L’intelligence artificielle générative s’est trompée dans ses calculs (elles ne sont pas bonnes dans ce domaine), mais aussi dans son raisonnement.
On en parle à longueur d’actualités, mais un rappel ne peut pas faire de mal : les intelligences artificielles génératives ont deux principaux défauts. Tout d’abord, elles hallucinent plus ou moins régulièrement, c’est-à-dire qu’elles proposent des résultats incorrects ou trompeurs, pour reprendre la notion qui est généralement admise dans cette communauté (sans être une définition absolue).
Le deuxième défaut est étroitement lié au premier : les intelligences artificielles sont probabilistes. Et qui dit probabilité, dit risque d’erreur. C’est aussi simple que cela. En fait, une intelligence artificielle va donner la réponse qu’elle juge la plus probable selon ses modèles mathématiques.
On pourrait très grossièrement résumer en disant que si une IA est fiable à 90 % sur un sujet, elle donnera la bonne réponse 9 fois sur 10 (ce n’est pas si simple, mais c’est une première approche). La dixième fois, elle peut halluciner et répondre complètement à côté de la plaque. Les probabilités peuvent varier, mais de par la construction des modèles, il est impossible de garantir un résultat fiable à 100 % en toutes circonstances.
Une question, vingt réponses : quatre sont fausses
Vous voulez un exemple ? Nous avons posé plusieurs fois une même question à Claude avec le modèle Haiku 4.5 : « Combien de temps faut-il pour consommer 500 Go avec un débit de 50 Mb/s ? ».
Rien de bien compliqué pour un humain : 50 Mb/s c’est équivalent à 6,25 Mo/s (on divise par huit), soit 80 000 secondes pour 500 000 Mo (500 Go) ou bien encore 22,2 heures. C’est également 22 heures, 13 minutes et 33 secondes.
Enfin « rien de compliqué » à condition de s’entendre sur le passage des Go aux Mo. Parle-t-on de 500 000 Mo (500 * 10³) ou bien de 512 000 Mo (500 * 1024 ou 500 * 2¹⁰) pour 500 Go ? Ce n’est pas la question ici, mais avec 512 000 Mo on arrive à 81 920 secondes, soit 22,76 heures ou encore 22 heures, 45 minutes et 33 secondes.
Nous avons posé 20 fois la même question à Claude, en effaçant à chaque fois la conversation précédente et en lançant une nouvelle. Nous avons accordé une bonne réponse aussi bien pour 22h13 que 22h45. Sur les 20 tentatives, l’intelligence artificielle n’a cependant donné la bonne réponse que 16 fois.
Deux fois elle s’est trompée lors des opérations mathématiques, mais le raisonnement était bon, les deux autres fois son raisonnement était faux. Avant de passer aux explications détaillées, voici le bilan de nos 20 questions (identiques) :
Il reste 77% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.
Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».
Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.
OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.
Le CEA met en avant l’expertise française et européenne :
« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».
L’ouverture aux chercheurs européens est prévue pour début 2026.
Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.
Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».
Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.
OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.
Le CEA met en avant l’expertise française et européenne :
« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».
L’ouverture aux chercheurs européens est prévue pour début 2026.
21 euros pour un SSD de 2,5 pouces, voilà de quoi redonner une seconde vie à quelques vieux ordinateurs ou ajouter un peu de stockage à moindre coût. Que peut-on attendre pour ce prix ? Nous en avons testé et démonté un.
Le prix des SSD ne cesse de baisser au fil des années. La barre symbolique d’un euro par Go a été dépassée au début des années 2010. La descente du prix au Go a ensuite été rapide durant cette décennie. 35 centimes par Go aux alentours de 2015, 15 à 20 centimes le Go en 2018, moins de 10 centimes en 2019 et jusqu’à 5 centimes en 2024.
Au gré des promotions, il est parfois possible de descendre encore plus bas. C’est le cas de l’Acer SA100 de 480 Go en S-ATA (447 Go une fois formaté, selon l’explorateur de fichiers de Windows 11), qui a été vendu il y a quelques jours à 20,99 euros par Amazon. Nous en avons commandé un pour voir ce qu’il propose pour ce prix.
On commence avec les classiques ATTO Disk Benchmark 4.01, CrystalDiskMark 8.0.6 et HD Tune Pro 6.10.
Il reste 93% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.
Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).
Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté
Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».
« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.
Un changement de carte réseau et de box suffit
Afin de démontrer le fonctionnement de sa technologie, le FAI avait organisé cette semaine « un test de performance réalisé par deux joueurs, Crimson à Lyon et Kayane à Marseille ». En quoi consistait-il ? Une partie de 2XKO… pas sûr que ce soit la meilleure manière de tester un débit.
La fibre utilisée pour connecter les deux joueurs n’avait rien de particulier, c’était celle déjà déployée par les opérateurs, quels qu’ils soient ; pas besoin de la changer. Orange précise qu’un « simple changement de carte réseau dans l’équipement situé dans les centraux optiques permettra à Orange de connecter un client fibre au 50G-PON ».
Comme prévu, les trois technologies co-existent sur une même fibre : selon le client (et sa carte réseau), la box peut recevoir du G-PON, du XGS-PON et/ou du 50G-PON. Techniquement, rien n’empêcherait en effet d’avoir les trois technologies à la fois.
G-PON, XGS-PON et 50G-PON passent dans la même fibre
Orange propose une explication du fonctionnement des trois technologies en parallèle : « Au central, la carte réseau intégrera un module optique Multi-PON-Module (MPM) qui inclut les trois technologies photoniques PON. Chez le client, la box sera équipée de la technologie PON adéquate en relation avec l’offre de service souscrite ».
Ce fonctionnement est rendu possible par l’utilisation, pour chaque technologie, de fréquences différentes qui ne se chevauchent pas. « Particulièrement soutenue par Orange, la triple coexistence de trois technologies PON sur la même infrastructure fibre a été rendue possible au standard ITU-T par la spécification d’un spectre optique (longueur d’onde) pour permettre cette triple coexistence. C’est l’option « US3 » du spectre », se vantait l’opérateur l’année dernière.
L’enjeu de la température
Comme on peut le voir, les bandes pour le 50G-PON sont relativement étroites comparées à celles des deux autres technologies, ce qui implique que le laser passant dans la fibre ne bouge pas de sa longueur d’onde, pour ne pas déborder sur G-PON ni sur XGS-PON.
Le laser doit donc rester à une température stable car « un laser qui varie en température est un laser dont la longueur d’onde varie », nous expliquait Orange.
Pour la société, la solution n’était pas bien compliquée : « on va devoir réguler [la température] dans la box […] On peut le faire. Ça coûte un peu plus cher, mais c’est quelque chose qu’on saura faire ». La consommation électrique augmentera fatalement, « mais pas extrêmement plus » affirmait Orange, sans donner de chiffres précis.
Répartition des technologies PON suivant les fréquences (US correspond à up-stream et DS à down-stream).
Une première en France ? Pas si vite…
Il est amusant de voir Orange affirmer qu’il « s’agit d’une première en France, qui fait suite aux expérimentations menées en laboratoire »… occultant complètement une expérimentation menée l’année dernière sur son propre réseau opérationnel en France métropolitaine :
« En février 2024 en Bretagne, lors d’un essai terrain, Orange a connecté un client résidentiel fibre à un équipement dédié 50G-PON sur une infrastructure FTTH opérationnelle à laquelle d’autres clients commerciaux sont aussi connectés en G-PON et XGS-PON. Un trafic Ethernet de plus de 41 Gbit/s [soit plus de 5 Go/s, ndlr] a été mesuré sur le lien du client connecté au 50G-PON, tout en maintenant la qualité des connexions des autres clients ».
Le déploiement n’est pas pour tout de suite : « Dans le futur, [les systèmes 50G-PON] permettront d’augmenter la capacité des réseaux pour des usages avancés des entreprises, notamment celles qui ont des sites de grande taille, puis pour des usages résidentiels, quand les besoins seront avérés ».
L’année dernière, le discours était déjà le même : « La triple coexistence du G-PON, XGS-PON et 50G-PON sera possible dès que les premiers besoins de déploiement à 50 Gbit/s seront nécessaires ». Orange avait, pour rappel, trainé des pieds avant de proposer du 10 Gb/s à ses clients, faute d’un réel besoin, se justifiait l’opérateur.
Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.
Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).
Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté
Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».
« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.
Un changement de carte réseau et de box suffit
Il reste 79% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Sauvegarder ses données régulièrement fait partie d’une bonne hygiène numérique. Mais savez-vous que vous pouvez « cloner » votre Windows en quelques clics, puis le relancer sur n’importe quelle autre machine ? On vous explique les quelques étapes, avec un outil officiel de Microsoft.
Une application avec des données enregistrées dans un coin, un document stocké dans un répertoire inhabituel, une configuration précise d’un logiciel… le risque de perdre une information est plus ou moins important selon les utilisateurs.
Imaginons, par exemple, que je réinstalle mon ordinateur portable avec Linux. Tout se passe bien, j’installe tous les logiciels et là c’est le drame : je n’ai pas sauvegardé ma configuration Wireguard… Deux solutions : aller voir l’équipe réseau de moji et leur demander pour la 56 234ᵉ fois une configuration (avec des moqueries méritées au passage), ou bien lancer mon Windows virtualisé, ouvrir Wireguard et récupérer la configuration à la source. Voici justement comment en réaliser une copie virtuelle.
Créer un Virtual Hard Disk (VHD) d’un disque physique
Il reste 94% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
C’est la fin de la 3G chez Free Mobile. Les clients qui sont encore sur cette technologie en voie d’extinction passeront uniquement par de l’itinérance sur le réseau d’Orange, avec donc un débit de 384 kb/s maximum. L’annonce intervient alors que l’Arcep vient tout juste de valider la prolongation de l’itinérance, au grand dam de Bouygues Telecom.
Free a le sens du timing. La semaine dernière, l’Arcep validait la prolongation jusqu’à fin 2028 de son contrat d’itinérance avec Orange sur la 2G et la 3G. Comme nous l’expliquions alors (en analysant les retours), Bouygues Telecom dénonçait un « avantage concurrentiel » pour Free Mobile. L’itinérance ne devrait « pas avoir pour objet de permettre à un opérateur d’éteindre son réseau en propre au moins trois ans avant ses concurrents », expliquait Bouygues Telecom.
Jusqu’à présent il était indiqué : « service accessible sur le réseau Free Mobile en 3G/3G+ dans les bandes de fréquences 900 MHz et 2100 MHz, en itinérance 2G/3G sur tout ou une partie du réseau d’un opérateur historique partenaire ».
Désormais, il est précisé : « Service accessible en itinérance 2G/3G sur le réseau de l’opérateur historique partenaire ». Plus aucune mention d’un réseau Free Mobile en propre.
Autre changement : les débits. Auparavant le débit maximum en réception en 3G était de 21 Mb/s ou 384 kbit/s en itinérance sur le réseau Orange, désormais les 21 Mb/s ont disparu pour laisser place uniquement aux 384 kb/s en itinérance, sur le réseau d’Orange donc.
Réutiliser les fréquences de la 3G pour améliorer débits et couverture de la 4G
Dans un email envoyé à ses clients, Free Mobile annonce une « amélioration du réseau 4G et [une] évolution du réseau 3G ». L’évolution dont il est question est funeste, comme nous venons de le voir. Mais cette « évolution » permet de récupérer des fréquences dans les 900 et 2100 MHz, deux bandes utilisées par Free Mobile pour la 4G. Les fréquences sont pour rappel neutres technologiquement, les opérateurs peuvent donc y déployer les technologies qu’ils veulent.
« À compter du 15 décembre 2025, une partie des fréquences utilisées pour la 3G de Free Mobile sera affectée au réseau 4G pour permettre d’améliorer les débits et d’élargir la couverture en 4G », ajoute Free Mobile.
Dans ses retours à l’Arcep, Bouygues Telecom tirait à boulet rouge sur cette prolongation, la quatrième du genre depuis la signature du contrat en 2011 (Bouygues était opposé à toutes les prolongations). Dans sa dernière missive, l’opérateur parlait d’« un avantage que ses concurrents, dont Bouygues Telecom, ne seront pas en mesure de répliquer car tenus de maintenir l’exploitation d’un réseau 3G en propre ». Bouygues Telecom prévoit d’éteindre sa 3G fin 2029.
Les mises en service de Free Mobile s’étaient déroulées en juin, soit quelques semaines seulement avant que Free et Orange transmettent un avenant (en juillet) pour prolonger leur contrat d’itinérance jusqu’au 31 décembre 2025. L’accord était validé par le régulateur des télécoms début décembre 2022 et, au 1ᵉʳ janvier 2023, plus aucun site 2G Free Mobile n’était en service.
Pour résumer, Free active des sites 2G avant de transmettre un avenant à son contrat, puis les ferme cinq mois plus tard dès que c’est validé. En 3G, rebelote : Free décide de fermer totalement son réseau juste après la validation par l’Arcep de la prolongation de l’accord d’itinérance jusqu’à l’extinction de la 3G.
Au dernier décompte, 5,9 millions de terminaux étaient encore sur les réseaux 2G et 3G. Chez Orange, la 2G va fermer progressivement à partir de mars 2026 (jusqu’à fin 2026), tandis que ce sera fin 2028 pour la 3G. Free n’avait pas communiqué sur la fin de la 3G, nous savons désormais que, comme pour la 2G, ça sera calé sur l’extinction d’Orange.
C’est la fin de la 3G chez Free Mobile. Les clients qui sont encore sur cette technologie en voie d’extinction passeront uniquement par de l’itinérance sur le réseau d’Orange, avec donc un débit de 384 kb/s maximum. L’annonce intervient alors que l’Arcep vient tout juste de valider la prolongation de l’itinérance, au grand dam de Bouygues Telecom.
Free a le sens du timing. La semaine dernière, l’Arcep validait la prolongation jusqu’à fin 2028 de son contrat d’itinérance avec Orange sur la 2G et la 3G. Comme nous l’expliquions alors (en analysant les retours), Bouygues Telecom dénonçait un « avantage concurrentiel » pour Free Mobile. L’itinérance ne devrait « pas avoir pour objet de permettre à un opérateur d’éteindre son réseau en propre au moins trois ans avant ses concurrents », expliquait Bouygues Telecom.
Jusqu’à présent il était indiqué : « service accessible sur le réseau Free Mobile en 3G/3G+ dans les bandes de fréquences 900 MHz et 2100 MHz, en itinérance 2G/3G sur tout ou une partie du réseau d’un opérateur historique partenaire ».
Désormais, il est précisé : « Service accessible en itinérance 2G/3G sur le réseau de l’opérateur historique partenaire ». Plus aucune mention d’un réseau Free Mobile en propre.
Autre changement : les débits. Auparavant le débit maximum en réception en 3G était de 21 Mb/s ou 384 kbit/s en itinérance sur le réseau Orange, désormais les 21 Mb/s ont disparu pour laisser place uniquement aux 384 kb/s en itinérance, sur le réseau d’Orange donc.
Réutiliser les fréquences de la 3G pour améliorer débits et couverture de la 4G
Dans un email envoyé à ses clients, Free Mobile annonce une « amélioration du réseau 4G et [une] évolution du réseau 3G ». L’évolution dont il est question est funeste, comme nous venons de le voir. Mais cette « évolution » permet de récupérer des fréquences dans les 900 et 2100 MHz, deux bandes utilisées par Free Mobile pour la 4G. Les fréquences sont pour rappel neutres technologiquement, les opérateurs peuvent donc y déployer les technologies qu’ils veulent.
« À compter du 15 décembre 2025, une partie des fréquences utilisées pour la 3G de Free Mobile sera affectée au réseau 4G pour permettre d’améliorer les débits et d’élargir la couverture en 4G », ajoute Free Mobile.
Dans ses retours à l’Arcep, Bouygues Telecom tirait à boulet rouge sur cette prolongation, la quatrième du genre depuis la signature du contrat en 2011 (Bouygues était opposé à toutes les prolongations). Dans sa dernière missive, l’opérateur parlait d’« un avantage que ses concurrents, dont Bouygues Telecom, ne seront pas en mesure de répliquer car tenus de maintenir l’exploitation d’un réseau 3G en propre ». Bouygues Telecom prévoit d’éteindre sa 3G fin 2029.
Les mises en service de Free Mobile s’étaient déroulées en juin, soit quelques semaines seulement avant que Free et Orange transmettent un avenant (en juillet) pour prolonger leur contrat d’itinérance jusqu’au 31 décembre 2025. L’accord était validé par le régulateur des télécoms début décembre 2022 et, au 1ᵉʳ janvier 2023, plus aucun site 2G Free Mobile n’était en service.
Pour résumer, Free active des sites 2G avant de transmettre un avenant à son contrat, puis les ferme cinq mois plus tard dès que c’est validé. En 3G, rebelote : Free décide de fermer totalement son réseau juste après la validation par l’Arcep de la prolongation de l’accord d’itinérance jusqu’à l’extinction de la 3G.
Au dernier décompte, 5,9 millions de terminaux étaient encore sur les réseaux 2G et 3G. Chez Orange, la 2G va fermer progressivement à partir de mars 2026 (jusqu’à fin 2026), tandis que ce sera fin 2028 pour la 3G. Free n’avait pas communiqué sur la fin de la 3G, nous savons désormais que, comme pour la 2G, ça sera calé sur l’extinction d’Orange.