Vue lecture

Fin du cuivre (ADSL) : Orange passe la seconde sur les fermetures commerciales et techniques

Complétude mon amour
Fin du cuivre (ADSL) : Orange passe la seconde sur les fermetures commerciales et techniques

La fermeture du cuivre va devenir une réalité pour 20 millions de logements à la fin du mois. L’Arcep en profite pour faire le point sur les obligations d’Orange et le calendrier (qui peut encore évoluer) avec les prochaines grosses étapes à venir.

L’Arcep, le régulateur des télécoms, rappelle à juste titre qu’à partir de ce 31 janvier 2026, « il ne sera plus possible de souscrire à un nouvel abonnement téléphonique ou ADSL sur le réseau cuivre, quel que soit l’opérateur, dans près des trois quarts des communes de France, représentant près de la moitié de la population ».

3/4 des communes concernées, mais 50 % des locaux environ

Sur les 35 000 communes environ que compte la France, le plan initial prévoyait la fermeture pour 34 000 d’entre elles ce 31 janvier… mais elles ne sont désormais plus que 26 000 selon le dernier rapport d’Orange, qui est à la manœuvre sur ce projet.

L’épais document d’Orange indique pour 8 095 communes que le « report de fermeture commerciale [est] lié à un non-respect des critères sur la commune ». La date est désormais fixée au 31 janvier 2027. Sur les 34 000 initialement prévues, nous sommes donc à 26 000 toujours programmées pour la fin de la semaine et 8 000 reportées d’un an (au moins), soit environ 25 % de communes reportées.

Mais c’est bien différent si on regarde le nombre de locaux (le nombre de logements par commune est loin d’être homogène en France) : les 26 000 communes du 31 décembre 2026 représentent un peu plus de 20 millions de locaux, tandis que les 8 000 reportées représentent un peu plus de… 23 millions de locaux.

25 % des communes reportées représentent donc 50 % des locaux. Dans tous les cas, l’échéance est proche : « Pour toutes les communes de France, la fermeture commerciale est prévue par Orange soit ce 31 janvier 2026, soit le 31 janvier 2027 ».

Pour la prochaine étape, c’est le passage à une échelle « industrielle »

L’Arcep rappelle le cadre réglementaire pour la suite : « la fermeture technique [avec la coupure des abonnements existants s‘il en reste, ndlr] ne peut intervenir qu’au minimum 12 mois après la fermeture commerciale, mais parfois à des dates plus lointaines (jusqu’à fin 2030 au plus tard) selon les communes, l’état d’avancement du chantier d’Orange et du déploiement de la fibre ».

L’Arcep rappelle l’existence d’un moteur de recherche du ministère de l’Économie pour « savoir si la
date de fermeture définitive (ou “fermeture technique”) du réseau cuivre a déjà été fixée
 ». Il suffit d’entrer son code postal. Actuellement, « 10 000 communes ont d’ores et déjà une date de fermeture définitive connue et prévue par Orange ».

Orange avance par lot : « Pour 169 communes déjà prêtes pour cette transition, la fermeture technique a d’ailleurs déjà eu lieu, et elle intervient le 27 janvier 2026 pour 763 autres communes ». Ce lot 2 concerne près de 900 000, « c’est le dernier lot avant un passage à une échelle “industrielle”, où chaque lot concernera plusieurs millions de locaux ».

De nouveaux reports ne sont pas à exclure

Dans son document, le gendarme des télécoms répond ainsi à une question qu’il se pose à lui-même : « Orange peut-il fermer le réseau cuivre comme il l’entend ? ». L’Arcep commence sa réponse en rappelant les raisons du choix : « efficacité, coûts de maintenance et consommation électrique ». La fibre fait mieux sur ces points.

L’Autorité ajoute qu’elle « a toutefois imposé à Orange plusieurs critères à respecter […] Le plus important d’entre eux est le déploiement complet de la fibre optique sur la commune. D’autres obligations, comme des délais de prévenance ».

Et si jamais « ces critères ne sont pas remplis, Orange ne peut pas fermer le réseau cuivre de la commune et doit reporter la date de fermeture annoncée ». C’est justement ce qu’il s’est passé avec le report d’un an des 8 000 communes. L’Arcep ajoute que cela n’exclut « pas de nouveaux reports selon les avancées de ce chantier ».

La fermeture du cuivre dépend donc du déploiement de la fibre, un chantier qui avance vite : « La France fait aujourd’hui partie des pays les mieux fibrés d’Europe avec une couverture supérieure de 20 points à la moyenne de l’UE. Fin septembre 2025, près de 94 % des locaux étaient éligibles à la fibre et 80 % des abonnements internet fixe étaient en fibre optique (contre 16 % en 2015) ».

Mais cette réalité ne doit pas en cacher une autre : « il reste encore environ 3 millions de locaux à rendre éligibles à la fibre ». Dans le lot, forcément, une bonne partie de locaux difficiles d’accès, de raccordements longs et complexes… donc couteux.

Alors que la fin du cuivre est programmée pour 2030 et annoncée depuis des années, l’Arcep note que l’information a encore du mal à passer. En septembre, 28 % des abonnés xDSL déclaraient « ne pas avoir connaissance de la fermeture prochaine du cuivre ». Ils sont par contre prêts à sauter le pas : « 93 % des consommateurs sondés ont indiqué leur intention de s’abonner à la fibre si elle était disponible ».

Une fois la fermeture commerciale et technique du cuivre en place, une autre question va se poser : que faire du million de km de câbles (sous-terrain, en pleine terre, aériens…) de cuivre ? Cela représente pour rappel une manne financière pour Orange étant donné le prix élevé de ce matériau.

  •  

Fin du cuivre (ADSL) : Orange passe la seconde sur les fermetures commerciales et techniques

Complétude mon amour
Fin du cuivre (ADSL) : Orange passe la seconde sur les fermetures commerciales et techniques

La fermeture du cuivre va devenir une réalité pour 20 millions de logements à la fin du mois. L’Arcep en profite pour faire le point sur les obligations d’Orange et le calendrier (qui peut encore évoluer) avec les prochaines grosses étapes à venir.

L’Arcep, le régulateur des télécoms, rappelle à juste titre qu’à partir de ce 31 janvier 2026, « il ne sera plus possible de souscrire à un nouvel abonnement téléphonique ou ADSL sur le réseau cuivre, quel que soit l’opérateur, dans près des trois quarts des communes de France, représentant près de la moitié de la population ».

3/4 des communes concernées, mais 50 % des locaux environ

Sur les 35 000 communes environ que compte la France, le plan initial prévoyait la fermeture pour 34 000 d’entre elles ce 31 janvier… mais elles ne sont désormais plus que 26 000 selon le dernier rapport d’Orange, qui est à la manœuvre sur ce projet.

L’épais document d’Orange indique pour 8 095 communes que le « report de fermeture commerciale [est] lié à un non-respect des critères sur la commune ». La date est désormais fixée au 31 janvier 2027. Sur les 34 000 initialement prévues, nous sommes donc à 26 000 toujours programmées pour la fin de la semaine et 8 000 reportées d’un an (au moins), soit environ 25 % de communes reportées.

Mais c’est bien différent si on regarde le nombre de locaux (le nombre de logements par commune est loin d’être homogène en France) : les 26 000 communes du 31 décembre 2026 représentent un peu plus de 20 millions de locaux, tandis que les 8 000 reportées représentent un peu plus de… 23 millions de locaux.

25 % des communes reportées représentent donc 50 % des locaux. Dans tous les cas, l’échéance est proche : « Pour toutes les communes de France, la fermeture commerciale est prévue par Orange soit ce 31 janvier 2026, soit le 31 janvier 2027 ».

Pour la prochaine étape, c’est le passage à une échelle « industrielle »

L’Arcep rappelle le cadre réglementaire pour la suite : « la fermeture technique [avec la coupure des abonnements existants s‘il en reste, ndlr] ne peut intervenir qu’au minimum 12 mois après la fermeture commerciale, mais parfois à des dates plus lointaines (jusqu’à fin 2030 au plus tard) selon les communes, l’état d’avancement du chantier d’Orange et du déploiement de la fibre ».

L’Arcep rappelle l’existence d’un moteur de recherche du ministère de l’Économie pour « savoir si la
date de fermeture définitive (ou “fermeture technique”) du réseau cuivre a déjà été fixée
 ». Il suffit d’entrer son code postal. Actuellement, « 10 000 communes ont d’ores et déjà une date de fermeture définitive connue et prévue par Orange ».

Orange avance par lot : « Pour 169 communes déjà prêtes pour cette transition, la fermeture technique a d’ailleurs déjà eu lieu, et elle intervient le 27 janvier 2026 pour 763 autres communes ». Ce lot 2 concerne près de 900 000, « c’est le dernier lot avant un passage à une échelle “industrielle”, où chaque lot concernera plusieurs millions de locaux ».

De nouveaux reports ne sont pas à exclure

Dans son document, le gendarme des télécoms répond ainsi à une question qu’il se pose à lui-même : « Orange peut-il fermer le réseau cuivre comme il l’entend ? ». L’Arcep commence sa réponse en rappelant les raisons du choix : « efficacité, coûts de maintenance et consommation électrique ». La fibre fait mieux sur ces points.

L’Autorité ajoute qu’elle « a toutefois imposé à Orange plusieurs critères à respecter […] Le plus important d’entre eux est le déploiement complet de la fibre optique sur la commune. D’autres obligations, comme des délais de prévenance ».

Et si jamais « ces critères ne sont pas remplis, Orange ne peut pas fermer le réseau cuivre de la commune et doit reporter la date de fermeture annoncée ». C’est justement ce qu’il s’est passé avec le report d’un an des 8 000 communes. L’Arcep ajoute que cela n’exclut « pas de nouveaux reports selon les avancées de ce chantier ».

La fermeture du cuivre dépend donc du déploiement de la fibre, un chantier qui avance vite : « La France fait aujourd’hui partie des pays les mieux fibrés d’Europe avec une couverture supérieure de 20 points à la moyenne de l’UE. Fin septembre 2025, près de 94 % des locaux étaient éligibles à la fibre et 80 % des abonnements internet fixe étaient en fibre optique (contre 16 % en 2015) ».

Mais cette réalité ne doit pas en cacher une autre : « il reste encore environ 3 millions de locaux à rendre éligibles à la fibre ». Dans le lot, forcément, une bonne partie de locaux difficiles d’accès, de raccordements longs et complexes… donc couteux.

Alors que la fin du cuivre est programmée pour 2030 et annoncée depuis des années, l’Arcep note que l’information a encore du mal à passer. En septembre, 28 % des abonnés xDSL déclaraient « ne pas avoir connaissance de la fermeture prochaine du cuivre ». Ils sont par contre prêts à sauter le pas : « 93 % des consommateurs sondés ont indiqué leur intention de s’abonner à la fibre si elle était disponible ».

Une fois la fermeture commerciale et technique du cuivre en place, une autre question va se poser : que faire du million de km de câbles (sous-terrain, en pleine terre, aériens…) de cuivre ? Cela représente pour rappel une manne financière pour Orange étant donné le prix élevé de ce matériau.

  •  

L’Arduino Uno Q face aux Raspberry Pi 4 et 5 : notre analyse des perfs et de la conso

Que le moins mauvais gagne
L’Arduino Uno Q face aux Raspberry Pi 4 et 5 : notre analyse des perfs et de la conso

Arduino Uno Q, Raspberry Pi 4 et 5 : les trois micro-ordinateurs vendus moins de 80 euros se valent-ils ? Nous avons comparé les performances du CPU, du GPU, de la mémoire et du stockage pour en avoir le cœur net. Nous nous sommes aussi penchés sur la consommation et la température après une session de burn.

Maintenant que l’Arduino Uno Q dans sa version avec 4 Go de mémoire et 32 Go de stockage est arrivé dans les labos, nous l’avons passé au crible d’une série de tests, notamment en utilisant les outils de sysbench, geekbench et glmark2. Nous l’avons mis en face des Raspberry Pi 4 et 5, également dans leurs versions avec 4 Go de mémoire vive.

Les trois machines sont animées par un SoC avec quatre cœurs Arm, cadencés entre 3,6 et 4 GHz suivant les cas. Sur les deux Raspberry Pi, nous utilisons une carte microSD SanDisk Ultra de 32 Go (nous l’avons achetée avec les kits officiels), alors que le stockage est directement soudé sur l’Arduino Uno Q. Cela va d’ailleurs lui conférer un avantage certain.

CPU et GPU : que le meilleur gagne (spoiler : c’est pas l’Uno Q)


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ iPhone 5s, 6, 7, 8 et X : une mise à jour pour éviter une coupure en janvier… 2027

Cette semaine, Apple a déployé des mises à jour pour iOS 26.2.1 et 18.7.4, sans oublier les déclinaisons iPad OS. Mais le fabricant a aussi mis à jour d’anciens systèmes, un très ancien même avec iOS 12.5.8 puisque cette 12ᵉ déclinaison a été lancée en septembre 2018.

Cela concerne les iPhone 5 s, iPhone 6 (Plus), mais aussi les iPad Air, iPad mini 2 et 3 pour iPadOS 12.5.8. Il ne s’agit pas d’une mise à jour de sécurité, d’autant que ces terminaux sont depuis longtemps en fin de vie, mais de préparer une échéance qui arrivera dans un an :

« Cette mise à jour prolonge la validité du certificat requis par des fonctionnalités telles que iMessage, FaceTime et l’activation de l’appareil afin qu’elles continuent de fonctionner après janvier 2027 ».

La précédente mise à jour 12.5.7 date de janvier 2023, soit cinq ans après l’arrêt du support. Elle concernait cette fois-ci une vilaine faille de sécurité : la simple lecture d’une page web spécialement conçue permettait l’exécution d’un code arbitraire et malveillant.

Toujours sur de vieux smartphones dont la fin du support logiciel a été actée, Apple déploie une mise à jour pour iOS 15.8.6 (iPhone 6 s, 7 et SE de 1ʳᵉ génération, iPad Air 2, mini de 4e génération), mais aussi iOS 16.7.13 (iPhone 8 (Plus) et X, iPad 5ᵉ génération, iPad Pro de 1ʳᵉ génération). Les notes de version ne font état que de la correction « d’importants bugs ».

Apple ne corrige donc pas de faille de sécurité, mais fait en sorte que ces smartphones ne cessent pas de fonctionner à cause d’un certificat invalide à partir de 2027.

  •  

☕️ iPhone 5s, 6, 7, 8 et X : une mise à jour pour éviter une coupure en janvier… 2027

Cette semaine, Apple a déployé des mises à jour pour iOS 26.2.1 et 18.7.4, sans oublier les déclinaisons iPad OS. Mais le fabricant a aussi mis à jour d’anciens systèmes, un très ancien même avec iOS 12.5.8 puisque cette 12ᵉ déclinaison a été lancée en septembre 2018.

Cela concerne les iPhone 5 s, iPhone 6 (Plus), mais aussi les iPad Air, iPad mini 2 et 3 pour iPadOS 12.5.8. Il ne s’agit pas d’une mise à jour de sécurité, d’autant que ces terminaux sont depuis longtemps en fin de vie, mais de préparer une échéance qui arrivera dans un an :

« Cette mise à jour prolonge la validité du certificat requis par des fonctionnalités telles que iMessage, FaceTime et l’activation de l’appareil afin qu’elles continuent de fonctionner après janvier 2027 ».

La précédente mise à jour 12.5.7 date de janvier 2023, soit cinq ans après l’arrêt du support. Elle concernait cette fois-ci une vilaine faille de sécurité : la simple lecture d’une page web spécialement conçue permettait l’exécution d’un code arbitraire et malveillant.

Toujours sur de vieux smartphones dont la fin du support logiciel a été actée, Apple déploie une mise à jour pour iOS 15.8.6 (iPhone 6 s, 7 et SE de 1ʳᵉ génération, iPad Air 2, mini de 4e génération), mais aussi iOS 16.7.13 (iPhone 8 (Plus) et X, iPad 5ᵉ génération, iPad Pro de 1ʳᵉ génération). Les notes de version ne font état que de la correction « d’importants bugs ».

Apple ne corrige donc pas de faille de sécurité, mais fait en sorte que ces smartphones ne cessent pas de fonctionner à cause d’un certificat invalide à partir de 2027.

  •  

☕️ #LIDD M8SBC-486 : une carte mère 486 maison « from scratch »

Sur son site, maniek86 présente son projet M8SBC-486, « une carte mère maison 486 fabriquée à partir de zéro. Du schéma et du PCB jusqu’au chipset, [le projet] ne s’appuie pas sur des conceptions existantes ». C’est pour la partie hardware ; au niveau logiciel, le BIOS a été repris du projet de b-dmitry1.

Bien évidemment, la carte mère maison (PCB à quatre couches, de 150 x 150 mm) dispose d’un socket PGA avec 168 broches. Tous les documents et liens sont disponibles dans ce dépôt GitHub, comme le présente Tom’s Hardware.

Il prévient d’emblée que le résultat est une machine « “un peu compatible PC” parce qu’il a beaucoup en commun avec les anciens PC x86 standards. Les principales choses qui manquent ici sont le PIC [Contrôleur d’interruption programmable, ndlr] secondaire et le DMA [accès direct à la mémoire, ndlr] qui supprime notamment le support des cartes son ».

maniek86 précise que c’est un projet personnel, avec donc des limitations, et il reconnait même qu’il ne « s’attendait pas à ce que cet ordinateur fonctionne sous DOS au départ », mais c’est bien le cas. 

Une vidéo de démonstration a aussi été mise en ligne :

  •  

☕️ #LIDD M8SBC-486 : une carte mère 486 maison « from scratch »

Sur son site, maniek86 présente son projet M8SBC-486, « une carte mère maison 486 fabriquée à partir de zéro. Du schéma et du PCB jusqu’au chipset, [le projet] ne s’appuie pas sur des conceptions existantes ». C’est pour la partie hardware ; au niveau logiciel, le BIOS a été repris du projet de b-dmitry1.

Bien évidemment, la carte mère maison (PCB à quatre couches, de 150 x 150 mm) dispose d’un socket PGA avec 168 broches. Tous les documents et liens sont disponibles dans ce dépôt GitHub, comme le présente Tom’s Hardware.

Il prévient d’emblée que le résultat est une machine « “un peu compatible PC” parce qu’il a beaucoup en commun avec les anciens PC x86 standards. Les principales choses qui manquent ici sont le PIC [Contrôleur d’interruption programmable, ndlr] secondaire et le DMA [accès direct à la mémoire, ndlr] qui supprime notamment le support des cartes son ».

maniek86 précise que c’est un projet personnel, avec donc des limitations, et il reconnait même qu’il ne « s’attendait pas à ce que cet ordinateur fonctionne sous DOS au départ », mais c’est bien le cas. 

Une vidéo de démonstration a aussi été mise en ligne :

  •  

[Test] Cables USB Type-C Amazon, Anker, Belkin, Cable Matters, Ikea, Ugreen…

3…2…1… Chargez !!!!
[Test] Cables USB Type-C Amazon, Anker, Belkin, Cable Matters, Ikea, Ugreen…

Des câbles USB de sept marques et vendus moins de 10 euros : tous sont conformes, voilà qui fait plaisir ! Seul bémol, un câble de chez Ikea dont l’impédance est élevée. Nous avons également testé des câbles livrés avec des chargeurs.

Après avoir passé en revue toute une panoplie de chargeurs USB et de câbles achetés sur des marketplaces (c’était une hécatombe avec 15 non conformes sur les 26 achetés…), nous testons une dizaine de câbles USB Type-C de « marque » cette fois-ci. Comme avec les chargeurs de « marques », les résultats sont plutôt bons.

10 câbles, 7 marques, deux types de connecteurs

Il s’agit de modèles provenant de chez Amazon Basics, Cable Matters, Ikea, Ugreen… Nous avons également ajouté des câbles USB livrés avec des chargeurs Belkin et Anker, ainsi qu’un câble livré avec un chargeur Vuohoeg de 140 watts (qui tient bien la charge, lui).

À titre de comparaison, nous avons aussi ajouté notre câble USB Type-C de référence pour nos tests de chargeurs, qui a une impédance de moins de 70 milliohms. Nous l’avons acheté sur la marketplace d’AliExpress pour quatre euros.

Il s’agit d’un câble « no-name », mais qui tient parfaitement la route. Nous ne mettons pas de lien car la fiche produit n’est pas disponible. Mais, même si c’était le cas, c’est trop souvent au petit bonheur la chance avec ce genre de revendeurs. Rien ne dit que la même qualité de câble aurait été livrée par la suite.

Voici sans plus tarder notre tableau récapitulatif des 10 câbles USB du jour :


Il reste 57% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

ClawdBot : un agent IA personnel et multicanal… qui peut accéder à toutes vos données

Loi de Murphy : tout ce qui est susceptible d'aller mal ira mal
ClawdBot : un agent IA personnel et multicanal… qui peut accéder à toutes vos données

Vous avez envie de disposer d’un agent IA capable de vous répondre sur de nombreux canaux de communication et d’accéder à vos données ? Le projet ClawdBot (licence MIT) pourrait répondre à vos besoins… mais attention à bien savoir ce que vous faites avec ce genre d’outils.

ClawdBot n’est pas un nouveau projet (il date de fin 2025) mais sa popularité a explosé sur GitHub depuis mi-janvier et il fait beaucoup parler de lui ces derniers jours.

ClawdBot, un agent à votre service (vous avez le choix dans le modèle)

Commençons par les présentations. ClawdBot est disponible depuis deux mois sur GitHub, sous licence MIT. Il se définit comme « un assistant personnel IA que vous utilisez sur vos machines. Il vous répond sur les canaux que vous utilisez déjà », notamment WhatsApp, Telegram, Slack, Discord, Google Chat, Signal, iMessage, Teams… Vous pouvez utiliser l’un ou l’autre des canaux (et aussi les mélanger), le bot est agnostique de la plateforme. De la documentation est disponible par ici.

Pour la partie IA, plusieurs solutions sont également possibles avec Claude (Anthropic est recommandé par les développeurs), mais aussi d’autres modèles comme ChatGPT (OpenAI), Gemini (Google) et Copilot (Microsoft). Les développeurs mettent aussi en avant sa mémoire persistante. Il est conseillé d’avoir une formule payante, faute de quoi les limitations de la version gratuite devraient rapidement se faire sentir. Même avec une version payante, les « tokens » filent relativement vite, attention.

La Gateway est le cœur de l’agent IA, c’est ici que vous configurez les modèles et les interfaces accessibles. Elle peut être locale ou à distance, pour ne pas dépendre de votre machine par exemple. En effet, si ClawdBot est installé localement, vous ne pourrez pas l’appeler si votre ordinateur est éteint. Moins pratique selon vos usages.

Avec autorisation, ClawdBot peut accéder à vos données


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Oui, Microsoft donne les clés BitLocker aux forces de l’ordre. Non, ce n’est pas nouveau

Surprise ! (Ou pas…)
Oui, Microsoft donne les clés BitLocker aux forces de l’ordre. Non, ce n’est pas nouveau

Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.

BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».

BitLocker : « Microsoft a donné des clés au FBI »…

Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.

Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.

Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».

… car elles sont sauvegardées en ligne par défaut

Sur cette page, Microsoft rappelle que « votre clé de récupération peut se trouver à plusieurs endroits, en fonction du choix effectué lors de l’activation de BitLocker ». Le plus courant et le choix largement poussé par Microsoft (c’est celui par défaut) est le compte maison, automatiquement sauvegardé en ligne. Nous en parlions il y a déjà près de deux ans par exemple.

Les clés BitLocker sont ainsi rattachées à votre compte Microsoft (vous pouvez les retrouver sur cette page) et donc facilement récupérables… mais aussi accessibles à Microsoft, qui peut donc les transmettre aux autorités. Afin d’éviter d’envoyer la clé sur des serveurs tiers, vous pouvez aussi l’imprimer ou la sauvegarder en local, sur une clé USB.

Microsoft rappelle que, « si vous ne trouvez pas la clé de récupération BitLocker et que vous ne parvenez pas à annuler les modifications qui en ont causé la nécessité, vous devez réinitialiser votre appareil. [Cela] entraîne la suppression de tous vos fichiers ».

Pour Microsoft, « les clients sont les mieux placés pour décider »

« Bien que la récupération de clés offre de la commodité, elle comporte aussi un risque d’accès indésirable, donc Microsoft estime que les clients sont les mieux placés pour décider… comment gérer leurs clés », explique un porte-parole de Microsoft à Forbes. Sur la vingtaine de demandes par an, l’utilisateur n’a dans « de nombreux cas », pas stocké sa clé dans le cloud de Microsoft, qui ne peut ainsi pas la transmettre aux autorités. L’entreprise ne donne pas de chiffre précis.

Sauvegarder la clé par défaut dans le cloud et la laisser accessible à Microsoft (et donc aux autorités) est un choix de Microsoft, d’autres n’ont pas fait le même. Apple, par exemple, ne peut pas accéder aux données chiffrées sur les terminaux de ses clients. Nous en avions longuement parlé avec l’iPhone retrouvé sur un terroriste après la fusillade de San Bernardino. Les autorités étaient finalement passé par une faille pour accéder aux données, au grand dam d’Apple.

« Si Apple peut le faire, si Google peut le faire, alors Microsoft peut le faire. Microsoft est la seule entreprise qui ne fait pas cela », explique Matt Green, expert en cryptographie et professeur à l’université Johns Hopkins, à nos confrères. Microsoft propose cette fonctionnalité, mais par défaut les clés sont envoyées sur le cloud lié à votre compte Microsoft, il faut donc une action de l’utilisateur, là où c’est le comportement par défaut sur Apple. De plus, Microsoft restreint toujours plus la possibilité de créer et d’utiliser un compte local sur Windows.

Pour protéger vos données, n’envoyez jamais la clé en clair sur un « cloud »

Bref, rien de vraiment nouveau dans cette histoire de BitLocker, si ce n’est la confirmation de la transmission des clés par Microsoft sur demande d’une autorité judiciaire, et l’accès aux données par les autorités. En termes de cybersécurité de toute façon, laisser ses clés accessibles à un tiers signifie qu’il peut accéder à vos données.

BitLocker reste une protection contre le vol d’un périphérique de stockage – Microsoft ne va pas donner les clés à n’importe qui –, mais n’est pas une protection absolue contre l’accès d’un tiers et notamment les autorités… mais on le sait déjà depuis des années. Si tel est votre besoin, il ne faut JAMAIS envoyer les clés en clair sur un cloud.

Microsoft rappelle aussi que, « en plus du TPM, BitLocker peut verrouiller le processus de démarrage normal jusqu’à ce que l’utilisateur fournisse un numéro d’identification personnel (PIN) ou insère un appareil amovible contenant une clé de démarrage. Ces mesures de sécurité fournissent une authentification multifacteur et l’assurance que l’appareil ne peut pas démarrer ou reprendre sa mise en veille prolongée tant que le code confidentiel ou la clé de démarrage approprié n’est pas présenté ».

  •  

Oui, Microsoft donne les clés BitLocker aux forces de l’ordre. Non, ce n’est pas nouveau

Surprise ! (Ou pas…)
Oui, Microsoft donne les clés BitLocker aux forces de l’ordre. Non, ce n’est pas nouveau

Le sujet fait parler depuis quelques jours : Microsoft a transmis aux autorités des clés BitLocker en réponse à une ordonnance judiciaire. La surprise n’est pas dans la réponse de Microsoft, mais sur le fait que des utilisateurs semblent découvrir qu’envoyer ses clés de chiffrement en clair sur le cloud de Microsoft permette à ce dernier d‘y accéder.

BitLocker est un outil de Microsoft pour chiffrer les données de votre périphérique de stockage. Il est intégré dans Windows et chiffre des volumes entiers. Microsoft présente cette fonctionnalité comme une « réponse aux menaces de vol de données ou d’exposition d’appareils perdus, volés ou mis hors service de manière inappropriée ».

BitLocker : « Microsoft a donné des clés au FBI »…

Pour résumer, si une personne dérobe un disque dur ou un SSD chiffré avec BitLocker, elle ne pourra pas accéder aux données sans la clé de déchiffrement. La fonction est pensée pour être la plus transparente possible pour les utilisateurs, notamment ceux qui disposent d’un module TPM sur leur machine. Il s’assure en effet « qu’un appareil n’a pas été falsifié pendant que le système est hors connexion » avant de déverrouiller l’accès aux données.

Dans le cas contraire, une clé de récupération BitLocker, « qui est un nombre à 48 chiffres, est utilisée pour récupérer l’accès au lecteur », explique Microsoft. Cela arrive parfois lorsque Windows « plante » pour une raison ou une autre (après une mise à jour par exemple). Si le périphérique de stockage est enlevé de l’ordinateur pour être lu depuis une autre machine, la clé BitLocker sera également nécessaire pour déchiffrer les données.

Dans un article, Forbes titre : « Microsoft a donné des clés au FBI pour déverrouiller des données chiffrées, révélant une grave faille de confidentialité ». So what ? Serions-nous presque tentés de dire, tant la situation n’est pas nouvelle. Nos confrères ajoutent d’ailleurs que Microsoft reçoit une vingtaine de demandes de clés BitLocker par an, et que l’entreprise « la fournit aux gouvernements en réponse à des ordonnances judiciaires valides ».

… car elles sont sauvegardées en ligne par défaut

Sur cette page, Microsoft rappelle que « votre clé de récupération peut se trouver à plusieurs endroits, en fonction du choix effectué lors de l’activation de BitLocker ». Le plus courant et le choix largement poussé par Microsoft (c’est celui par défaut) est le compte maison, automatiquement sauvegardé en ligne. Nous en parlions il y a déjà près de deux ans par exemple.

Les clés BitLocker sont ainsi rattachées à votre compte Microsoft (vous pouvez les retrouver sur cette page) et donc facilement récupérables… mais aussi accessibles à Microsoft, qui peut donc les transmettre aux autorités. Afin d’éviter d’envoyer la clé sur des serveurs tiers, vous pouvez aussi l’imprimer ou la sauvegarder en local, sur une clé USB.

Microsoft rappelle que, « si vous ne trouvez pas la clé de récupération BitLocker et que vous ne parvenez pas à annuler les modifications qui en ont causé la nécessité, vous devez réinitialiser votre appareil. [Cela] entraîne la suppression de tous vos fichiers ».

Pour Microsoft, « les clients sont les mieux placés pour décider »

« Bien que la récupération de clés offre de la commodité, elle comporte aussi un risque d’accès indésirable, donc Microsoft estime que les clients sont les mieux placés pour décider… comment gérer leurs clés », explique un porte-parole de Microsoft à Forbes. Sur la vingtaine de demandes par an, l’utilisateur n’a dans « de nombreux cas », pas stocké sa clé dans le cloud de Microsoft, qui ne peut ainsi pas la transmettre aux autorités. L’entreprise ne donne pas de chiffre précis.

Sauvegarder la clé par défaut dans le cloud et la laisser accessible à Microsoft (et donc aux autorités) est un choix de Microsoft, d’autres n’ont pas fait le même. Apple, par exemple, ne peut pas accéder aux données chiffrées sur les terminaux de ses clients. Nous en avions longuement parlé avec l’iPhone retrouvé sur un terroriste après la fusillade de San Bernardino. Les autorités étaient finalement passé par une faille pour accéder aux données, au grand dam d’Apple.

« Si Apple peut le faire, si Google peut le faire, alors Microsoft peut le faire. Microsoft est la seule entreprise qui ne fait pas cela », explique Matt Green, expert en cryptographie et professeur à l’université Johns Hopkins, à nos confrères. Microsoft propose cette fonctionnalité, mais par défaut les clés sont envoyées sur le cloud lié à votre compte Microsoft, il faut donc une action de l’utilisateur, là où c’est le comportement par défaut sur Apple. De plus, Microsoft restreint toujours plus la possibilité de créer et d’utiliser un compte local sur Windows.

Pour protéger vos données, n’envoyez jamais la clé en clair sur un « cloud »

Bref, rien de vraiment nouveau dans cette histoire de BitLocker, si ce n’est la confirmation de la transmission des clés par Microsoft sur demande d’une autorité judiciaire, et l’accès aux données par les autorités. En termes de cybersécurité de toute façon, laisser ses clés accessibles à un tiers signifie qu’il peut accéder à vos données.

BitLocker reste une protection contre le vol d’un périphérique de stockage – Microsoft ne va pas donner les clés à n’importe qui –, mais n’est pas une protection absolue contre l’accès d’un tiers et notamment les autorités… mais on le sait déjà depuis des années. Si tel est votre besoin, il ne faut JAMAIS envoyer les clés en clair sur un cloud.

Microsoft rappelle aussi que, « en plus du TPM, BitLocker peut verrouiller le processus de démarrage normal jusqu’à ce que l’utilisateur fournisse un numéro d’identification personnel (PIN) ou insère un appareil amovible contenant une clé de démarrage. Ces mesures de sécurité fournissent une authentification multifacteur et l’assurance que l’appareil ne peut pas démarrer ou reprendre sa mise en veille prolongée tant que le code confidentiel ou la clé de démarrage approprié n’est pas présenté ».

  •  

☕️ Les Core Ultra Series 4 (Nova Lake) arriveront à la fin de l’année

Cette annonce a été faite par Lip-Bu Tan, le CEO d’Intel, pendant la conférence de présentation des résultats de l’entreprise (une retranscription est disponible sur Seeking Alpha). Il revient évidemment sur le lancement de Panther Lake (Core Ultra Series 3) avec les premières machines attendues dès le 27 janvier.

Mais il annonce surtout la couleur pour la suite : « Avec l’arrivée de notre processeur Nova Lake de nouvelle génération fin 2026, nous disposons désormais d’une feuille de route client qui allie performances de pointe et solutions optimisées en termes de coûts ».

Nova Lake sera donc la gamme des processeurs Core Ultra Series 4 pour les ordinateurs fixes et portables, sur un nouveau socket LGA 1954. Selon les dernières rumeurs reprises par Videocardz, cette famille de CPU pourrait intégrer jusqu’à 52 cœurs (16 cœurs performances, 32 cœurs efficacité et 4 cœurs basse consommation).

Il serait aussi question de nouvelles architectures Coyote Cove pour les P-cores et Arctic Wolf pour les E-cores. Un NPU de nouvelle génération est aussi annoncé, avec toujours plus de puissance de calcul pour des IA locales.

Nous devrions donc avoir deux générations de CPU cette année, alors que 2025 était une année « blanche ». Les Core Ultra Series 3 ont en effet été annoncés en septembre 2024. Intel est, pour rappel, revenu à une gravure maison pour ses Core Ultra Series 3 avec la technologie 18A.

La suite arrive avec la technologie 14A, dont « le développement est en bonne voie », affirme Lip-Bu Tan. Il ajoute que les premières puces devraient arriver en 2027, tandis que la production en volume est prévue pour 2028, bien après les Core Ultra Series 3 donc (qui seront en Intel 18A).

  •  

☕️ Les Core Ultra Series 4 (Nova Lake) arriveront à la fin de l’année

Cette annonce a été faite par Lip-Bu Tan, le CEO d’Intel, pendant la conférence de présentation des résultats de l’entreprise (une retranscription est disponible sur Seeking Alpha). Il revient évidemment sur le lancement de Panther Lake (Core Ultra Series 3) avec les premières machines attendues dès le 27 janvier.

Mais il annonce surtout la couleur pour la suite : « Avec l’arrivée de notre processeur Nova Lake de nouvelle génération fin 2026, nous disposons désormais d’une feuille de route client qui allie performances de pointe et solutions optimisées en termes de coûts ».

Nova Lake sera donc la gamme des processeurs Core Ultra Series 4 pour les ordinateurs fixes et portables, sur un nouveau socket LGA 1954. Selon les dernières rumeurs reprises par Videocardz, cette famille de CPU pourrait intégrer jusqu’à 52 cœurs (16 cœurs performances, 32 cœurs efficacité et 4 cœurs basse consommation).

Il serait aussi question de nouvelles architectures Coyote Cove pour les P-cores et Arctic Wolf pour les E-cores. Un NPU de nouvelle génération est aussi annoncé, avec toujours plus de puissance de calcul pour des IA locales.

Nous devrions donc avoir deux générations de CPU cette année, alors que 2025 était une année « blanche ». Les Core Ultra Series 3 ont en effet été annoncés en septembre 2024. Intel est, pour rappel, revenu à une gravure maison pour ses Core Ultra Series 3 avec la technologie 18A.

La suite arrive avec la technologie 14A, dont « le développement est en bonne voie », affirme Lip-Bu Tan. Il ajoute que les premières puces devraient arriver en 2027, tandis que la production en volume est prévue pour 2028, bien après les Core Ultra Series 3 donc (qui seront en Intel 18A).

  •  

La Poste revient sur sa cyberattaque, « inédite par sa sophistication » et son intensité

2,14 milliards de colis par seconde !
La Poste revient sur sa cyberattaque, « inédite par sa sophistication » et son intensité

Trois semaines après une cyberattaque d’envergure, La Poste revient sur le sujet. À défaut d’un post-mortem technique, l’entreprise distille quelques chiffres et affirme aussi qu’« aucune entreprise française n’a subi, à ce jour, une cyberattaque en déni de services d’une telle intensité ». Dans le monde, il y a déjà eu bien pire.

Le 22 décembre, La Poste était la cible d’une cyberattaque d’ampleur qui a rendu indisponibles ses services en ligne pendant plusieurs jours. Le 24 décembre, le groupe annonçait un retour partiel à la normale, puis les choses allaient de mieux en mieux après Noël. Le 1ᵉʳ janvier, rebelote avec de nouveau des services indisponibles à cause d’une cyberattaque DDoS.

Dans tous les cas, aucune fuite de données n’a eu lieu, affirme l’entreprise. Le but de ce genre d’attaques par déni de service n’est pas de pénétrer les systèmes pour récupérer des données, mais de les rendre indisponibles en les bombardant de requêtes pour complètement les submerger. Sur ce point, c’était gagné.

« Inédite par sa sophistication technique »

Trois semaines plus tard, Philippe Bertrand, directeur de la sécurité globale du groupe, revient sur cette période compliquée dans un jeu de questions et réponses réalisé en interne. Une manière de mener une « interview » mais de pouvoir choisir aussi bien les questions que les réponses et donc de parfaitement maitriser la communication.

Il affirme que cette cyberattaque est « inédite par sa sophistication technique », sans entrer dans les détails. Il assure qu’elle « s’est révélée d’une grande complexité car nos assaillants s’adaptaient en permanence aux réponses défensives que nous mettions en place ».

Cette cyberattaque serait aussi « inédite aussi par son intensité […] Pour vous donner une idée du volume massif de requêtes dirigés vers nos services en ligne, nous avons enregistré jusqu’à 2,5 milliards de paquets de données par seconde ».

Pour rappel, en octobre 2024, Cloudflare annonçait une attaque DDoS record avec 2,14 milliards de paquets par seconde, et un pic de trafic à 3,8 Tb/s. Ces « records » sont toujours éphémères et rapidement de nouvelles attaques encore plus puissantes sont lancées. Un an plus tard, en septembre 2025, le géant américain explosait les compteurs avec 22,2 Tb/s en pointe et jusqu’à 10,6 milliards de paquets par seconde.

Il n’en reste pas moins que 2,5 milliards de paquets par seconde est une attaque extrêmement massive. D’ailleurs, le groupe français affirme qu’« aucune autre entreprise en France n’a subi, à ce jour, une cyberattaque en DDoS d’une telle intensité ».

La puissance des pirates augmente de jour en jour

Il ajoute que cette cyberattaque est aussi « inédite par sa durée car elle a commencé le 22 décembre et a perduré jusqu’à début janvier ». Selon le patron de la cybersécurité, « il y a deux ans, une attaque de cette ampleur n’était techniquement pas envisageable. À mesure que la puissance informatique progresse, les acteurs malveillants deviennent aussi plus dangereux ».

En France, cela fait maintenant plus d’un an que les cyberattaques et fuites de données s’enchainent à vitesse grand V. De très nombreuses enseignes et associations sont touchées, mais aussi des institutions officielles.

Sur la question de l’augmentation de la puissance des attaquants, nous parlions récemment du cas des pirates qui se lancent dans la pêche au chalut quand une nouvelle faille est identifiée : ils scannent tout Internet. Ce n’était pas aussi facile et abordable il y a quelques années.

Quoi qu’il en soit, La Poste rappelle à juste titre que, peu importe « les moyens mis en place, aucune organisation ne peut empêcher les cyberattaques ». La Poste se félicite au passage de n’avoir « jamais été à l’arrêt » : ses sites industriels et bureaux de poste « ont continué leur activité ». Le groupe affirme avoir distribué pas moins de 180 millions de colis pendant les fêtes

Dans son interview maison, La Poste évite soigneusement plusieurs sujets, notamment la provenance de la cyberattaque et d’éventuelles demandes ou rançons qui auraient pu lui être adressées par les pirates. Le groupe se contente en effet de rappeler des généralités : « Nous ne sommes plus face à des hackers isolés à la recherche d’un coup d’éclat mais à des organisations criminelles de plus en plus structurées, parfois diligentées par des États, qui disposent de moyens colossaux ».

L’attaque a été revendiquée par le groupe NoName057(016), mais la prudence est toujours de mise face à ce genre de communication. Les pincettes sont toujours de rigueur dans ce genre de situation, mais encore plus cette fois-ci puisque le groupe pro-russe n’avait revendiqué l’attaque que le lendemain.

  •  

La Poste revient sur sa cyberattaque, « inédite par sa sophistication » et son intensité

2,14 milliards de colis par seconde !
La Poste revient sur sa cyberattaque, « inédite par sa sophistication » et son intensité

Trois semaines après une cyberattaque d’envergure, La Poste revient sur le sujet. À défaut d’un post-mortem technique, l’entreprise distille quelques chiffres et affirme aussi qu’« aucune entreprise française n’a subi, à ce jour, une cyberattaque en déni de services d’une telle intensité ». Dans le monde, il y a déjà eu bien pire.

Le 22 décembre, La Poste était la cible d’une cyberattaque d’ampleur qui a rendu indisponibles ses services en ligne pendant plusieurs jours. Le 24 décembre, le groupe annonçait un retour partiel à la normale, puis les choses allaient de mieux en mieux après Noël. Le 1ᵉʳ janvier, rebelote avec de nouveau des services indisponibles à cause d’une cyberattaque DDoS.

Dans tous les cas, aucune fuite de données n’a eu lieu, affirme l’entreprise. Le but de ce genre d’attaques par déni de service n’est pas de pénétrer les systèmes pour récupérer des données, mais de les rendre indisponibles en les bombardant de requêtes pour complètement les submerger. Sur ce point, c’était gagné.

« Inédite par sa sophistication technique »

Trois semaines plus tard, Philippe Bertrand, directeur de la sécurité globale du groupe, revient sur cette période compliquée dans un jeu de questions et réponses réalisé en interne. Une manière de mener une « interview » mais de pouvoir choisir aussi bien les questions que les réponses et donc de parfaitement maitriser la communication.

Il affirme que cette cyberattaque est « inédite par sa sophistication technique », sans entrer dans les détails. Il assure qu’elle « s’est révélée d’une grande complexité car nos assaillants s’adaptaient en permanence aux réponses défensives que nous mettions en place ».

Cette cyberattaque serait aussi « inédite aussi par son intensité […] Pour vous donner une idée du volume massif de requêtes dirigés vers nos services en ligne, nous avons enregistré jusqu’à 2,5 milliards de paquets de données par seconde ».

Pour rappel, en octobre 2024, Cloudflare annonçait une attaque DDoS record avec 2,14 milliards de paquets par seconde, et un pic de trafic à 3,8 Tb/s. Ces « records » sont toujours éphémères et rapidement de nouvelles attaques encore plus puissantes sont lancées. Un an plus tard, en septembre 2025, le géant américain explosait les compteurs avec 22,2 Tb/s en pointe et jusqu’à 10,6 milliards de paquets par seconde.

Il n’en reste pas moins que 2,5 milliards de paquets par seconde est une attaque extrêmement massive. D’ailleurs, le groupe français affirme qu’« aucune autre entreprise en France n’a subi, à ce jour, une cyberattaque en DDoS d’une telle intensité ».

La puissance des pirates augmente de jour en jour

Il ajoute que cette cyberattaque est aussi « inédite par sa durée car elle a commencé le 22 décembre et a perduré jusqu’à début janvier ». Selon le patron de la cybersécurité, « il y a deux ans, une attaque de cette ampleur n’était techniquement pas envisageable. À mesure que la puissance informatique progresse, les acteurs malveillants deviennent aussi plus dangereux ».

En France, cela fait maintenant plus d’un an que les cyberattaques et fuites de données s’enchainent à vitesse grand V. De très nombreuses enseignes et associations sont touchées, mais aussi des institutions officielles.

Sur la question de l’augmentation de la puissance des attaquants, nous parlions récemment du cas des pirates qui se lancent dans la pêche au chalut quand une nouvelle faille est identifiée : ils scannent tout Internet. Ce n’était pas aussi facile et abordable il y a quelques années.

Quoi qu’il en soit, La Poste rappelle à juste titre que, peu importe « les moyens mis en place, aucune organisation ne peut empêcher les cyberattaques ». La Poste se félicite au passage de n’avoir « jamais été à l’arrêt » : ses sites industriels et bureaux de poste « ont continué leur activité ». Le groupe affirme avoir distribué pas moins de 180 millions de colis pendant les fêtes

Dans son interview maison, La Poste évite soigneusement plusieurs sujets, notamment la provenance de la cyberattaque et d’éventuelles demandes ou rançons qui auraient pu lui être adressées par les pirates. Le groupe se contente en effet de rappeler des généralités : « Nous ne sommes plus face à des hackers isolés à la recherche d’un coup d’éclat mais à des organisations criminelles de plus en plus structurées, parfois diligentées par des États, qui disposent de moyens colossaux ».

L’attaque a été revendiquée par le groupe NoName057(016), mais la prudence est toujours de mise face à ce genre de communication. Les pincettes sont toujours de rigueur dans ce genre de situation, mais encore plus cette fois-ci puisque le groupe pro-russe n’avait revendiqué l’attaque que le lendemain.

  •  

[MàJ] Olvid publie le code source de la partie serveur de sa messagerie chiffrée

L’open source ça paye pas les factures
[MàJ] Olvid publie le code source de la partie serveur de sa messagerie chiffrée

Olvid va lancer des serveurs autonomes pour les clients qui veulent les héberger eux-mêmes. Ils peuvent être ou non reliés à Internet et permettent à des clients de gérer leur messagerie, de bout en bout. Le lancement est prévu pour début 2026.

Mise à jour du 23 janvier à 18h15. Alors que la question était encore en suspens il y a quelques semaines, Olvid a finalement pris une décision concernant le code source de la partie serveur : il vient d’être publié sur GitHub sous licence AGPL 3.0. Le code source des applications est disponible depuis 2021.

« Ce dépôt contient le code source des fonctions Lambda utilisées dans le serveur de distribution de messages Olvid hébergé chez AWS. Ce code a été dépouillé de certains éléments liés à la version payante », explique la messagerie chiffrée.

L’entreprise rappelle qu’elle travaille « actuellement sur une autre version de ce serveur de distribution de messages, qui sera portable et facilement déployable sur n’importe quel fournisseur de cloud, voire sur un serveur domestique ».


Article original du 10 octobre à 8h12. Il y a deux ans, aux Assises de la cybersécurité de Monaco, la messagerie sécurisée Olvid lançait ses applications pour ordinateur (Windows, macOS et Linux), en plus des applications mobiles pour Android et iOS qui existaient déjà. Encore deux ans auparavant, fin 2021, leur code source était mis en ligne.

Olvid toujours chez AWS à cause de DynamoDB… so what ?

La société nous expliquait aussi les raisons du choix d’Amazon Web Services (AWS) pour héberger la partie serveur de son application. Une raison principale : DynamoDB. L’avantage de cette base de données est qu’elle est « scalable » quasiment à l’infini (la limite est celle de l’infrastructure d’Amazon), permettant d’absorber les pics de trafic quels qu’ils soient. L’architecture est prévue pour tenir une charge de « plusieurs centaines de milliers d’utilisateurs (voire plus) » nous expliquait l’entreprise en 2023.


Il reste 65% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

#Nextpresso Arduino Uno Q (4 Go) : prise en main et premiers benchs du micro-ordinateur

Les deux facettes d’un même Q
#Nextpresso Arduino Uno Q (4 Go) : prise en main et premiers benchs du micro-ordinateur

L’Arduino Uno Q est arrivé au labo, l’occasion de découvrir la partie microcontrôleur et de profiter d’une distribution Linux intégré (Debian). On en profite pour lancer quelques benchmarks sur le SoC du micro-ordinateur.

En octobre dernier, Arduino se faisait manger par Qualcomm et dévoilait au passage une nouvelle plateforme avec « deux cerveaux » : l’Uno Q. Il peut fonctionner comme un microcontrôleur branché à un PC ou bien de manière autonome comme un micro-ordinateur sous Linux avec son SoC Qualcomm Dragonwing QRB2210.

Arduino Uno Q : Docteur Microcontrôleur et Mister Linux

Cette semaine, la version avec 4 Go de mémoire et 32 Go de stockage était annoncée. C’était l’occasion de prendre en main cette machine deux en un. Nous en avons donc acheté un exemplaire (53 euros chez Amazon) afin de voir comment tout cela fonctionne.

Le micro-ordinateur est livré dans une petite boite en carton avec une notice, rien de plus. Niveau connectique, la carte dispose de « headers » pour brancher des accessoires ou des cartes d’extension (shields et carriers), d’un groupe de LED Matrix pilotables et d’un unique port USB Type-C.

À la découverte de l’Arduino App Lab et des exemples Python

Pour la partie microcontrôleur, c’est simple : on branche l’Uno Q sur un ordinateur avec un câble USB. Téléchargez l’Arduino App Lab (Windows, Linux ou macOS et laissez-vous guider par le programme d’installation). Il faut ensuite configurer votre Arduino Uno Q : nom de l’ordinateur, mot de passe et réseau Wi-Fi. Rien de sorcier.


Il reste 90% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

L’explosion des prix de la mémoire, des SSD et même des HDD, sur 6 et 12 mois

COMBIEN ???
L’explosion des prix de la mémoire, des SSD et même des HDD, sur 6 et 12 mois

Sur certains composants informatiques, les hausses de prix se répandent comme une trainée de poudre. Mais de combien parle-t-on exactement ? Jusqu’à 300 % de plus sur la mémoire selon nos relevés. Le stockage (SSD et HDD) n’est pas épargné, contrairement aux CPU et GPU, mais d’autres soucis les guettent.

Si vous avez récemment eu l’idée de monter un nouvel ordinateur, vous avez certainement remarqué une explosion des tarifs de la mémoire et, dans une moindre mesure du stockage. Les SSD sont les premiers touchés, mais les disques durs ne sont pas en reste.

L’IA en aspirateur à puces, la DDR en paye le prix fort

Sans mémoire vive, point d’ordinateur utilisable. Dans les machines grand public on trouve généralement entre 16 et 32 Go de mémoire, mais cela peut être bien plus selon les besoins. Les modules de DDR4 ou DDR5 sont enfichables facilement dans les cartes mères, permettant une évolution facile et rapide… mais actuellement très couteuse.

Dans le monde, on retrouve trois principaux fabricants de puces : Micron, Samsung et SK hynix. Les trois étant avant tout des sociétés commerciales, elles se tournent évidemment vers les secteurs les plus rentables. Actuellement, c’est l’intelligence artificielle, dopée par la GenAI. Moins de puces pour le grand public, mais toujours une demande forte… l’équation est simple, le résultat tout autant : les prix grimpent.

Vous voulez un exemple ? LDLC proposait il y a un an une barrette de 8 Go de DDR4 de chez G.Skill pour moins de 20 euros, contre… plus de 85 euros aujourd’hui. Le prix a été multiplié par cinq en 12 mois ! Une autre manière de le dire : 8 Go de DDR4 début 2026 coutent aussi cher que… 40 Go de DDR4 fin 2024.

Ce n’est pas un cas isolé : un kit Corsair est passé de 80 à 320 euros, un autre de la marque Textorm de LDLC de 64 Go était vendu 135 euros il y a un an et maintenant 580 euros. Les SSD suivent la même tendance avec des tarifs multipliés par deux dans l’ensemble. Du côté des disques durs, c’est aussi à la hausse.

Les CPU sont épargnés, comme les GPU au moins sur les tarifs. Les fortes marges de NVIDIA sur le monde de l’intelligence artificielle poussent visiblement l’entreprise à ralentir dans le monde du grand public, moins lucratif. Les versions « Super » de sa série RTX 50 seraient ainsi repoussées sine die pour le moment et des rumeurs relatent une baisse de production et de disponibilité des GeForce RTX, ce qui pourrait faire grimper les prix.

Une cinquantaine de relevés sur cinq catégories de produit

Mais revenons aux prix actuels, de quelles hausses parle-t-on exactement ? Pour le savoir, nous avons comparé les tarifs d’une dizaine de kits de DDR4 et DDR5 avec des relevés cette semaine, durant l’été dernier et fin 2024/début 2025. Nous avons fait de même avec des SSD, des disques durs, des processeurs et des cartes graphiques.


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Pub, sécurité, cookies : 3,5 millions d’euros d’amende pour Intersport (oups, Société X)

Signez ici : X
Pub, sécurité, cookies : 3,5 millions d’euros d’amende pour Intersport (oups, Société X)

La CNIL condamne Intersport – pardon, une « société X » – à 3,5 millions d’euros d’amende pour des manquements au RGPD et à la loi Informatique et libertés. Le nom de l’entreprise n’est pas donné pour ne pas « fragiliser son équilibre commercial ainsi que la confiance de ses adhérents », mais la piste est relativement facile à remonter. On vous explique comment.

La CNIL, qui enchaine les amendes ces derniers temps, vient d’en annoncer une nouvelle : « une sanction de 3,5 millions d’euros à une société pour avoir transmis les données de membres de son programme de fidélité à un réseau social à des fins de ciblage publicitaire, sans consentement valable ».

Depuis février 2018, et pendant des années, « l’entreprise transmettait les adresses électroniques et/ou les numéros de téléphone des membres de son programme de fidélité à un réseau social. Ces données étaient utilisées afin d’afficher, sur ce réseau, des publicités ciblées visant à promouvoir les articles vendus par la société ».

Intersport : cachez ce nom que je ne saurais voir

De quelle entreprise parle-t-on et vers quel réseau social ? Ce n’est pas précisé car la formation restreinte de la CNIL a décidé de leur accorder l’anonymat. Alors que la raporteure proposait « que cette décision soit rendue publique mais qu’il ne soit plus possible d’identifier nommément la société à l’expiration d’un délai de deux ans à compter de sa publication », la formation restreinte a décidé de suivre les demandes de l’entreprise condamnée sur ce point.

Pourquoi ? « Au motif notamment qu’une telle publicité risque de fragiliser son équilibre commercial ainsi que la confiance de ses adhérents, sans pour autant apporter de bénéfice à l’intérêt général et tout en favorisant ses concurrents ».

La formation restreinte enchaine avec un numéro d’équilibriste pour justifier sa décision. D’un côté, elle « considère que la publicité de la présente décision est justifiée au regard des manquements en cause et du nombre de personnes concernées » et qu’il est donc important « d’informer les personnes concernées sur les règles applicables en matière de consentement ». Mais de l’autre, elle « considère toutefois que, dans cette perspective, une publication de la décision sans que la société y soit nommément identifiée est suffisante ».

Dans sa longue délibération publiée sur Légifrance, le nom des entités est donc anonymisé… mais le texte contient suffisamment d’éléments pour remonter à la source : il s’agit d’Intersport pour la société qui a « transmis les données » et de Facebook (Meta) pour le « réseau social Z ».

Comment en sommes-nous arrivés à cette conclusion ? Avec un rapide « voyage dans le temps » et en lisant attentivement la décision de la CNIL. Vous embarquez avec nous ?

La CNIL en mode petit poucet…


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

TeraWave de Blue Origin : jusqu’à 6 Tb/s en débit symétrique… « n’importe où sur Terre »

Ça va être TeraCher non ?
TeraWave de Blue Origin : jusqu’à 6 Tb/s en débit symétrique… « n’importe où sur Terre »

En plus de Leo, Blue Origin va lancer une autre constellation avec plus de 5 400 satellites : TeraWave. L’entreprise veut proposer 144 Gb/s symétriques via les ondes Q/V à ses clients et même jusqu’à 6 Tb/s symétrique en optique (laser) avec des satellites plus haut.

Blue Origin, une société de Jeff Bezos, vient jouer sur les platebandes de SpaceX. Elle annonce TeraWave, un « nouveau réseau spatial de 6 Tb/s ». Il sera accessible à rien de moins que « des dizaines de milliers d’entreprises, de centres de données et d’utilisateurs gouvernementaux qui ont besoin d’une connectivité fiable pour des opérations critiques ».

De 520 à 24 000 km : 5 280 satellites LEO et 128 MEO

Les principales cibles sont des « zones isolées, rurales et suburbaines » où le déploiement de la fibre optique est complexe, couteux voire impossible. TeraWave est une nouvelle constellation en orbite basse et moyenne (LEO et MEO), avec pas moins de 5 408 satellites interconnectés via des liaisons optiques. Elle viendra donc rejoindre Leo (anciennement Kuiper) qui doit disposer de plus de 3 000 satellites au terme de sa première phase.

Dans les faits, deux groupes de satellites sont à distinguer au sein de TeraWave : 5 280 sont en orbite basse (LEO), les 128 autres sur une orbite moyenne (MEO). Dans le premier cas, les satellites évoluent généralement à moins de 1 000 km d’altitude, dans le second cas, ils « évoluent à des altitudes de 19 000 à 23 000 km », mais peuvent aussi descendre plus bas. À 36 000 km, on arrive, pour rappel, aux satellites géostationnaires, ceux qui ne bougent pas dans le ciel.

Blue Origin ne donne pas beaucoup de précisions, mais comme l’entreprise a déposé une demande à la FCC, nous pouvons en apprendre davantage. Le document a également été partagé par Christian Frhr. von der Ropp dans le groupe LinkedIn Megaconstellations | Low-Earth Orbit High-Throughput Satellite Constellations (LEO-HTS).

C’est la théorie. Dans la pratique, les satellites LEO seront situés entre 520 et 540 km, c’est-à-dire dans les mêmes eaux que les satellites Starlink de SpaceX. Les MEO seront bien plus éparpillés avec des orbites entre 8 000 et 24 200 km. 104 des 128 satellites seront entre 8 000 et 8 100 km, les 24 derniers seront à plus de 24 000 km.

Les milliers de satellites LEO proposeront une connectivité dans les bandes Q (download) et V (upload), avec un débit maximum de 144 Gb/s pour les clients. Les 128 satellites MEO pour leur part proposent une liaison optique (très certainement via laser) avec un débit de 6 Tb/s maximum. Dans les deux cas, c’est du symétrique, c’est-à-dire que la vitesse est aussi bien en download qu’en upload.

Les enjeux autour de l’altitude : latence et période orbitale

L’altitude joue deux rôles importants pour la partie des télécommunications. Tout d’abord, la latence, c’est-à-dire le temps pour le signal de faire un aller/retour : 250 ms pour les satellites géostationnaires. Dans la pratique, c’est même le double (500 ms) pour une requête : le terminal l’envoie au satellite, le satellite la retourne à une station de base au sol, qui à son tour envoie la réponse au satellite, qui la transfère au terminal.

Ici la limite est la vitesse de la lumière dans le vide, qu’on ne peut pas dépasser. Si on passe de 36 000 km à 500 km environ, la distance est 72 fois moins importante, le temps de trajet aussi. De 250 ms pour un aller/retour, on descend à 3 ou 4 ms. À 8 000 km, la latence est de 55 ms environ et de 170 ms à 24 000 km, toujours pour un aller/retour. C’est la théorie, en pratique c’est toujours plus. Starlink par exemple est entre 20 et 40 ms.

L’autre point important est la vitesse orbitale permettant de maintenir un satellite dans son orbite. On vous épargne les calculs et formules, mais plus l’orbite est basse, plus la vitesse est importante.

À 36 000 km, la période orbitale du satellite est de 24 h, comme la rotation de la Terre, le satellite parait donc immobile. À 24 000 km, la période orbitale est de 13 heures environ, puis on descend à 4/5 heures aux alentours des 8 000 km et seulement quelques minutes à 500 km.

Pour résumer, plus les satellites sont hauts, plus ils peuvent couvrir une même zone longtemps. Dans le cas contraire, il faut donc établir des communications entre les satellites pour assurer la continuité. C’est le rôle des satellites placés plus haut. En effet, comme indiqué dans le schéma ci-dessous, les 128 satellites MEO serviront aussi de liaison pour les satellites de l’orbite basse.

Blue Origin affirme être capable de servir une centaine de milliers de clients avec TeraWave. Il y a le temps de voir venir puisque le déploiement ne devrait débuter qu’au 4ᵉ trimestre 2027.

Blue Origin va donc largement occuper l’espace en orbite basse avec 5 000 nouveaux satellites, alors que SpaceX est aussi présent. Le problème étant que, si le nombre de places est virtuellement illimité (l’espace c’est surtout du vide), en pratique ça sera plus compliqué, car il y a six places à prendre dans la course mondiale, expliquait l’ANFR : « Il faut en prendre au moins une, peut-être plus, pour l’Europe », expliquait Gilles Brégant (directeur général de l’ANFR).

  •  
❌