Olvid va lancer des serveurs autonomes pour les clients qui veulent les héberger eux-mêmes. Ils peuvent être ou non reliés à Internet et permettent à des clients de gérer leur messagerie, de bout en bout. Le lancement est prévu pour début 2026.
Mise à jour du 23 janvier à 18h15. Alors que la question était encore en suspens il y a quelques semaines, Olvid a finalement pris une décision concernant le code source de la partie serveur : il vient d’être publié sur GitHub sous licence AGPL 3.0. Le code source des applications est disponible depuis 2021.
« Ce dépôt contient le code source des fonctions Lambda utilisées dans le serveur de distribution de messages Olvid hébergé chez AWS. Ce code a été dépouillé de certains éléments liés à la version payante », explique la messagerie chiffrée.
L’entreprise rappelle qu’elle travaille « actuellement sur une autre version de ce serveur de distribution de messages, qui sera portable et facilement déployable sur n’importe quel fournisseur de cloud, voire sur un serveur domestique ».
Article original du 10 octobre à 8h12. Il y a deux ans, aux Assises de la cybersécurité de Monaco, la messagerie sécurisée Olvid lançait ses applications pour ordinateur (Windows, macOS et Linux), en plus des applications mobiles pour Android et iOS qui existaient déjà. Encore deux ans auparavant, fin 2021, leur code source était mis en ligne.
Olvid toujours chez AWS à cause de DynamoDB… so what ?
La société nous expliquait aussi les raisons du choix d’Amazon Web Services (AWS) pour héberger la partie serveur de son application. Une raison principale : DynamoDB. L’avantage de cette base de données est qu’elle est « scalable » quasiment à l’infini (la limite est celle de l’infrastructure d’Amazon), permettant d’absorber les pics de trafic quels qu’ils soient. L’architecture est prévue pour tenir une charge de « plusieurs centaines de milliers d’utilisateurs (voire plus) » nous expliquait l’entreprise en 2023.
Il reste 65% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’Arduino Uno Q est arrivé au labo, l’occasion de découvrir la partie microcontrôleur et de profiter d’une distribution Linux intégré (Debian). On en profite pour lancer quelques benchmarks sur le SoC du micro-ordinateur.
En octobre dernier, Arduino se faisait manger par Qualcomm et dévoilait au passage une nouvelle plateforme avec « deux cerveaux » : l’Uno Q. Il peut fonctionner comme un microcontrôleur branché à un PC ou bien de manière autonome comme un micro-ordinateur sous Linux avec son SoC Qualcomm Dragonwing QRB2210.
Arduino Uno Q : Docteur Microcontrôleur et Mister Linux
Cette semaine, la version avec 4 Go de mémoire et 32 Go de stockage était annoncée. C’était l’occasion de prendre en main cette machine deux en un. Nous en avons donc acheté un exemplaire (53 euros chez Amazon) afin de voir comment tout cela fonctionne.
Le micro-ordinateur est livré dans une petite boite en carton avec une notice, rien de plus. Niveau connectique, la carte dispose de « headers » pour brancher des accessoires ou des cartes d’extension (shields et carriers), d’un groupe de LED Matrix pilotables et d’un unique port USB Type-C.
À la découverte de l’Arduino App Lab et des exemples Python
Pour la partie microcontrôleur, c’est simple : on branche l’Uno Q sur un ordinateur avec un câble USB. Téléchargez l’Arduino App Lab (Windows, Linux ou macOS et laissez-vous guider par le programme d’installation). Il faut ensuite configurer votre Arduino Uno Q : nom de l’ordinateur, mot de passe et réseau Wi-Fi. Rien de sorcier.
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Sur certains composants informatiques, les hausses de prix se répandent comme une trainée de poudre. Mais de combien parle-t-on exactement ? Jusqu’à 300 % de plus sur la mémoire selon nos relevés. Le stockage (SSD et HDD) n’est pas épargné, contrairement aux CPU et GPU, mais d’autres soucis les guettent.
Si vous avez récemment eu l’idée de monter un nouvel ordinateur, vous avez certainement remarqué une explosion des tarifs de la mémoire et, dans une moindre mesure du stockage. Les SSD sont les premiers touchés, mais les disques durs ne sont pas en reste.
L’IA en aspirateur à puces, la DDR en paye le prix fort
Sans mémoire vive, point d’ordinateur utilisable. Dans les machines grand public on trouve généralement entre 16 et 32 Go de mémoire, mais cela peut être bien plus selon les besoins. Les modules de DDR4 ou DDR5 sont enfichables facilement dans les cartes mères, permettant une évolution facile et rapide… mais actuellement très couteuse.
Dans le monde, on retrouve trois principaux fabricants de puces : Micron, Samsung et SK hynix. Les trois étant avant tout des sociétés commerciales, elles se tournent évidemment vers les secteurs les plus rentables. Actuellement, c’est l’intelligence artificielle, dopée par la GenAI. Moins de puces pour le grand public, mais toujours une demande forte… l’équation est simple, le résultat tout autant : les prix grimpent.
Vous voulez un exemple ? LDLC proposait il y a un an une barrette de 8 Go de DDR4 de chez G.Skill pour moins de 20 euros, contre… plus de 85 euros aujourd’hui. Le prix a été multiplié par cinq en 12 mois ! Une autre manière de le dire : 8 Go de DDR4 début 2026 coutent aussi cher que… 40 Go de DDR4 fin 2024.
Ce n’est pas un cas isolé : un kit Corsair est passé de 80 à 320 euros, un autre de la marque Textorm de LDLC de 64 Go était vendu 135 euros il y a un an et maintenant 580 euros. Les SSD suivent la même tendance avec des tarifs multipliés par deux dans l’ensemble. Du côté des disques durs, c’est aussi à la hausse.
Les CPU sont épargnés, comme les GPU au moins sur les tarifs. Les fortes marges de NVIDIA sur le monde de l’intelligence artificielle poussent visiblement l’entreprise à ralentir dans le monde du grand public, moins lucratif. Les versions « Super » de sa série RTX 50 seraient ainsi repoussées sine die pour le moment et des rumeurs relatent une baisse de production et de disponibilité des GeForce RTX, ce qui pourrait faire grimper les prix.
Une cinquantaine de relevés sur cinq catégories de produit
Mais revenons aux prix actuels, de quelles hausses parle-t-on exactement ? Pour le savoir, nous avons comparé les tarifs d’une dizaine de kits de DDR4 et DDR5 avec des relevés cette semaine, durant l’été dernier et fin 2024/début 2025. Nous avons fait de même avec des SSD, des disques durs, des processeurs et des cartes graphiques.
Il reste 78% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La CNIL condamne Intersport – pardon, une « société X » – à 3,5 millions d’euros d’amende pour des manquements au RGPD et à la loi Informatique et libertés. Le nom de l’entreprise n’est pas donné pour ne pas « fragiliser son équilibre commercial ainsi que la confiance de ses adhérents », mais la piste est relativement facile à remonter. On vous explique comment.
La CNIL, qui enchaine les amendes ces derniers temps, vient d’en annoncer une nouvelle : « une sanction de 3,5 millions d’euros à une société pour avoir transmis les données de membres de son programme de fidélité à un réseau social à des fins de ciblage publicitaire, sans consentement valable ».
Depuis février 2018, et pendant des années, « l’entreprise transmettait les adresses électroniques et/ou les numéros de téléphone des membres de son programme de fidélité à un réseau social. Ces données étaient utilisées afin d’afficher, sur ce réseau, des publicités ciblées visant à promouvoir les articles vendus par la société ».
Intersport : cachez ce nom que je ne saurais voir
De quelle entreprise parle-t-on et vers quel réseau social ? Ce n’est pas précisé car la formation restreinte de la CNIL a décidé de leur accorder l’anonymat. Alors que la raporteure proposait « que cette décision soit rendue publique mais qu’il ne soit plus possible d’identifier nommément la société à l’expiration d’un délai de deux ans à compter de sa publication », la formation restreinte a décidé de suivre les demandes de l’entreprise condamnée sur ce point.
Pourquoi ? « Au motif notamment qu’une telle publicité risque de fragiliser son équilibre commercial ainsi que la confiance de ses adhérents, sans pour autant apporter de bénéfice à l’intérêt général et tout en favorisant ses concurrents ».
La formation restreinte enchaine avec un numéro d’équilibriste pour justifier sa décision. D’un côté, elle « considère que la publicité de la présente décision est justifiée au regard des manquements en cause et du nombre de personnes concernées » et qu’il est donc important « d’informer les personnes concernées sur les règles applicables en matière de consentement ». Mais de l’autre, elle « considère toutefois que, dans cette perspective, une publication de la décision sans que la société y soit nommément identifiée est suffisante ».
Dans sa longue délibération publiée sur Légifrance, le nom des entités est donc anonymisé… mais le texte contient suffisamment d’éléments pour remonter à la source : il s’agit d’Intersport pour la société qui a « transmis les données » et de Facebook (Meta) pour le « réseau social Z ».
Comment en sommes-nous arrivés à cette conclusion ? Avec un rapide « voyage dans le temps » et en lisant attentivement la décision de la CNIL. Vous embarquez avec nous ?
La CNIL en mode petit poucet…
Il reste 77% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En plus de Leo, Blue Origin va lancer une autre constellation avec plus de 5 400 satellites : TeraWave. L’entreprise veut proposer 144 Gb/s symétriques via les ondes Q/V à ses clients et même jusqu’à 6 Tb/s symétrique en optique (laser) avec des satellites plus haut.
Blue Origin, une société de Jeff Bezos, vient jouer sur les platebandes de SpaceX. Elle annonce TeraWave, un « nouveau réseau spatial de 6 Tb/s ». Il sera accessible à rien de moins que « des dizaines de milliers d’entreprises, de centres de données et d’utilisateurs gouvernementaux qui ont besoin d’une connectivité fiable pour des opérations critiques ».
De 520 à 24 000 km : 5 280 satellites LEO et 128 MEO
Les principales cibles sont des « zones isolées, rurales et suburbaines » où le déploiement de la fibre optique est complexe, couteux voire impossible. TeraWave est une nouvelle constellation en orbite basse et moyenne (LEO et MEO), avec pas moins de 5 408 satellites interconnectés via des liaisons optiques. Elle viendra donc rejoindre Leo (anciennement Kuiper) qui doit disposer de plus de 3 000 satellites au terme de sa première phase.
Dans les faits, deux groupes de satellites sont à distinguer au sein de TeraWave : 5 280 sont en orbite basse (LEO), les 128 autres sur une orbite moyenne (MEO). Dans le premier cas, les satellites évoluent généralement à moins de 1 000 km d’altitude, dans le second cas, ils « évoluent à des altitudes de 19 000 à 23 000 km », mais peuvent aussi descendre plus bas. À 36 000 km, on arrive, pour rappel, aux satellites géostationnaires, ceux qui ne bougent pas dans le ciel.
Blue Origin ne donne pas beaucoup de précisions, mais comme l’entreprise a déposé une demande à la FCC, nous pouvons en apprendre davantage. Le document a également été partagé par Christian Frhr. von der Ropp dans le groupe LinkedIn Megaconstellations | Low-Earth Orbit High-Throughput Satellite Constellations (LEO-HTS).
C’est la théorie. Dans la pratique, les satellites LEO seront situés entre 520 et 540 km, c’est-à-dire dans les mêmes eaux que les satellites Starlink de SpaceX. Les MEO seront bien plus éparpillés avec des orbites entre 8 000 et 24 200 km. 104 des 128 satellites seront entre 8 000 et 8 100 km, les 24 derniers seront à plus de 24 000 km.
Les milliers de satellites LEO proposeront une connectivité dans les bandes Q (download) et V (upload), avec un débit maximum de 144 Gb/s pour les clients. Les 128 satellites MEO pour leur part proposent une liaison optique (très certainement via laser) avec un débit de 6 Tb/s maximum. Dans les deux cas, c’est du symétrique, c’est-à-dire que la vitesse est aussi bien en download qu’en upload.
Les enjeux autour de l’altitude : latence et période orbitale
L’altitude joue deux rôles importants pour la partie des télécommunications. Tout d’abord, la latence, c’est-à-dire le temps pour le signal de faire un aller/retour : 250 ms pour les satellites géostationnaires. Dans la pratique, c’est même le double (500 ms) pour une requête : le terminal l’envoie au satellite, le satellite la retourne à une station de base au sol, qui à son tour envoie la réponse au satellite, qui la transfère au terminal.
Ici la limite est la vitesse de la lumière dans le vide, qu’on ne peut pas dépasser. Si on passe de 36 000 km à 500 km environ, la distance est 72 fois moins importante, le temps de trajet aussi. De 250 ms pour un aller/retour, on descend à 3 ou 4 ms. À 8 000 km, la latence est de 55 ms environ et de 170 ms à 24 000 km, toujours pour un aller/retour. C’est la théorie, en pratique c’est toujours plus. Starlink par exemple est entre 20 et 40 ms.
L’autre point important est la vitesse orbitale permettant de maintenir un satellite dans son orbite. On vous épargne les calculs et formules, mais plus l’orbite est basse, plus la vitesse est importante.
À 36 000 km, la période orbitale du satellite est de 24 h, comme la rotation de la Terre, le satellite parait donc immobile. À 24 000 km, la période orbitale est de 13 heures environ, puis on descend à 4/5 heures aux alentours des 8 000 km et seulement quelques minutes à 500 km.
Pour résumer, plus les satellites sont hauts, plus ils peuvent couvrir une même zone longtemps. Dans le cas contraire, il faut donc établir des communications entre les satellites pour assurer la continuité. C’est le rôle des satellites placés plus haut. En effet, comme indiqué dans le schéma ci-dessous, les 128 satellites MEO serviront aussi de liaison pour les satellites de l’orbite basse.
Blue Origin affirme être capable de servir une centaine de milliers de clients avec TeraWave. Il y a le temps de voir venir puisque le déploiement ne devrait débuter qu’au 4ᵉ trimestre 2027.
Blue Origin va donc largement occuper l’espace en orbite basse avec 5 000 nouveaux satellites, alors que SpaceX est aussi présent. Le problème étant que, si le nombre de places est virtuellement illimité (l’espace c’est surtout du vide), en pratique ça sera plus compliqué, car il y a six places à prendre dans la course mondiale, expliquait l’ANFR : « Il faut en prendre au moins une, peut-être plus, pour l’Europe », expliquait Gilles Brégant (directeur général de l’ANFR).
En plus de Leo, Blue Origin va lancer une autre constellation avec plus de 5 400 satellites : TeraWave. L’entreprise veut proposer 144 Gb/s symétriques via les ondes Q/V à ses clients et même jusqu’à 6 Tb/s symétrique en optique (laser) avec des satellites plus haut.
Blue Origin, une société de Jeff Bezos, vient jouer sur les platebandes de SpaceX. Elle annonce TeraWave, un « nouveau réseau spatial de 6 Tb/s ». Il sera accessible à rien de moins que « des dizaines de milliers d’entreprises, de centres de données et d’utilisateurs gouvernementaux qui ont besoin d’une connectivité fiable pour des opérations critiques ».
De 520 à 24 000 km : 5 280 satellites LEO et 128 MEO
Les principales cibles sont des « zones isolées, rurales et suburbaines » où le déploiement de la fibre optique est complexe, couteux voire impossible. TeraWave est une nouvelle constellation en orbite basse et moyenne (LEO et MEO), avec pas moins de 5 408 satellites interconnectés via des liaisons optiques. Elle viendra donc rejoindre Leo (anciennement Kuiper) qui doit disposer de plus de 3 000 satellites au terme de sa première phase.
Dans les faits, deux groupes de satellites sont à distinguer au sein de TeraWave : 5 280 sont en orbite basse (LEO), les 128 autres sur une orbite moyenne (MEO). Dans le premier cas, les satellites évoluent généralement à moins de 1 000 km d’altitude, dans le second cas, ils « évoluent à des altitudes de 19 000 à 23 000 km », mais peuvent aussi descendre plus bas. À 36 000 km, on arrive, pour rappel, aux satellites géostationnaires, ceux qui ne bougent pas dans le ciel.
Blue Origin ne donne pas beaucoup de précisions, mais comme l’entreprise a déposé une demande à la FCC, nous pouvons en apprendre davantage. Le document a également été partagé par Christian Frhr. von der Ropp dans le groupe LinkedIn Megaconstellations | Low-Earth Orbit High-Throughput Satellite Constellations (LEO-HTS).
C’est la théorie. Dans la pratique, les satellites LEO seront situés entre 520 et 540 km, c’est-à-dire dans les mêmes eaux que les satellites Starlink de SpaceX. Les MEO seront bien plus éparpillés avec des orbites entre 8 000 et 24 200 km. 104 des 128 satellites seront entre 8 000 et 8 100 km, les 24 derniers seront à plus de 24 000 km.
Les milliers de satellites LEO proposeront une connectivité dans les bandes Q (download) et V (upload), avec un débit maximum de 144 Gb/s pour les clients. Les 128 satellites MEO pour leur part proposent une liaison optique (très certainement via laser) avec un débit de 6 Tb/s maximum. Dans les deux cas, c’est du symétrique, c’est-à-dire que la vitesse est aussi bien en download qu’en upload.
Les enjeux autour de l’altitude : latence et période orbitale
L’altitude joue deux rôles importants pour la partie des télécommunications. Tout d’abord, la latence, c’est-à-dire le temps pour le signal de faire un aller/retour : 250 ms pour les satellites géostationnaires. Dans la pratique, c’est même le double (500 ms) pour une requête : le terminal l’envoie au satellite, le satellite la retourne à une station de base au sol, qui à son tour envoie la réponse au satellite, qui la transfère au terminal.
Ici la limite est la vitesse de la lumière dans le vide, qu’on ne peut pas dépasser. Si on passe de 36 000 km à 500 km environ, la distance est 72 fois moins importante, le temps de trajet aussi. De 250 ms pour un aller/retour, on descend à 3 ou 4 ms. À 8 000 km, la latence est de 55 ms environ et de 170 ms à 24 000 km, toujours pour un aller/retour. C’est la théorie, en pratique c’est toujours plus. Starlink par exemple est entre 20 et 40 ms.
L’autre point important est la vitesse orbitale permettant de maintenir un satellite dans son orbite. On vous épargne les calculs et formules, mais plus l’orbite est basse, plus la vitesse est importante.
À 36 000 km, la période orbitale du satellite est de 24 h, comme la rotation de la Terre, le satellite parait donc immobile. À 24 000 km, la période orbitale est de 13 heures environ, puis on descend à 4/5 heures aux alentours des 8 000 km et seulement quelques minutes à 500 km.
Pour résumer, plus les satellites sont hauts, plus ils peuvent couvrir une même zone longtemps. Dans le cas contraire, il faut donc établir des communications entre les satellites pour assurer la continuité. C’est le rôle des satellites placés plus haut. En effet, comme indiqué dans le schéma ci-dessous, les 128 satellites MEO serviront aussi de liaison pour les satellites de l’orbite basse.
Blue Origin affirme être capable de servir une centaine de milliers de clients avec TeraWave. Il y a le temps de voir venir puisque le déploiement ne devrait débuter qu’au 4ᵉ trimestre 2027.
Blue Origin va donc largement occuper l’espace en orbite basse avec 5 000 nouveaux satellites, alors que SpaceX est aussi présent. Le problème étant que, si le nombre de places est virtuellement illimité (l’espace c’est surtout du vide), en pratique ça sera plus compliqué, car il y a six places à prendre dans la course mondiale, expliquait l’ANFR : « Il faut en prendre au moins une, peut-être plus, pour l’Europe », expliquait Gilles Brégant (directeur général de l’ANFR).
Ce processeur avait été annoncé au CES de Las Vegas par AMD. Il s’agit, pour rappel, de donner un coup de boost au Ryzen 7 9800X3D. On retrouve donc toujours 8 cœurs et 16 threads Zen 5, mais avec une fréquence plus élevée : 5,6 GHz au lieu de 5,2 GHz en mode boost, contre 4,7 GHz de base dans les deux cas.
Comme son nom l’indique (X3D), ce processeur dispose d’un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le CPU. AMD met en avant les performances dans les jeux : « Sur une moyenne de plus de 30 jeux, la différence de FPS entre la DDR5-4800 et la DDR5-6000 s’est avérée inférieure à 1 % ».
AMD indique un tarif conseillé de 499 dollars pour le Ryzen 7 9850X3D, mais ne le donne pas en euros. Le Ryzen 7 9800X3D se trouve actuellement autour de 450 euros sur les marketplaces (par exemple chez Cdiscount), contre 465 à 500 euros sur les boutiques classiques en ligne.
À voir maintenant le prix en euros du Ryzen 7 9850X3D (nous l’avons demandé à AMD). Il sera disponible à partir du 29 janvier. En attendant, certains en profitent pour afficher des tarifs farfelus, comme un revendeur à… plus de 1 000 euros chez PC Componentes.
Ce processeur avait été annoncé au CES de Las Vegas par AMD. Il s’agit, pour rappel, de donner un coup de boost au Ryzen 7 9800X3D. On retrouve donc toujours 8 cœurs et 16 threads Zen 5, mais avec une fréquence plus élevée : 5,6 GHz au lieu de 5,2 GHz en mode boost, contre 4,7 GHz de base dans les deux cas.
Comme son nom l’indique (X3D), ce processeur dispose d’un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le CPU. AMD met en avant les performances dans les jeux : « Sur une moyenne de plus de 30 jeux, la différence de FPS entre la DDR5-4800 et la DDR5-6000 s’est avérée inférieure à 1 % ».
AMD indique un tarif conseillé de 499 dollars pour le Ryzen 7 9850X3D, mais ne le donne pas en euros. Le Ryzen 7 9800X3D se trouve actuellement autour de 450 euros sur les marketplaces (par exemple chez Cdiscount), contre 465 à 500 euros sur les boutiques classiques en ligne.
À voir maintenant le prix en euros du Ryzen 7 9850X3D (nous l’avons demandé à AMD). Il sera disponible à partir du 29 janvier. En attendant, certains en profitent pour afficher des tarifs farfelus, comme un revendeur à… plus de 1 000 euros chez PC Componentes.
Alerte générale ! En théorie, il n’y a pas de raison de paniquer, mais en pratique… C’est, en creux, un peu le sens du dernier bulletin du CERT-FR. Une faille triviale a été identifiée dans Telnet ; elle permet de se connecter en root. En théorie, un serveur Telnet ne devrait jamais être accessible… mais c’est la théorie.
Le CERT-FR a publié un bulletin d’alerte pour informer que « les détails de la vulnérabilité CVE-2026-24061, affectant telnetd, ont été publiés ». Ils sont en effet disponibles sur un fil de discussion Openwall, dans la liste de diffusion oss-security.
Une faille et hop, vous voilà connecté en root sur le serveur
Telnetd – ou Telnet daemon – est la partie serveur du protocole Telnet (terminal network), « permettant de communiquer avec un serveur distant en échangeant des lignes de texte et en recevant des réponses également sous forme de texte » pour reprendre Wikipédia.
« Cette vulnérabilité permet à un attaquant de contourner l’authentification et de se connecter à une machine vulnérable en tant que l’utilisateur root ». Autant dire que c’est le scénario catastrophe, puisque root est l’utilisateur avec tous les droits, d’autant plus que le CERT-FR ajoute que cette faille a été « introduite en mars 2015 et affecte GNU InetUtils versions 1.9.3 à 2.7 », soit la dernière version disponible actuellement.
« Aucun correctif officiel n’est disponible pour l’instant », ajoute le CERT-FR. Vous en voulez encore ? « Un code d’exploitation est publiquement disponible ». Cette vilaine faille est référencée sous le nom CVE-2026-24061 et son score CVSS 3.1 est de 9,8 sur 10.
#Fear Des serveurs telnet sont accessibles sur Internet
Selon les constatations du CERT-FR, des services telnet sont accessibles sur Internet, « ce qui est contraire aux bonnes pratiques »… Au-delà de la faille, il y a depuis toujours une bonne raison de ne pas exposer Telnet sur le Net : « Les mots de passe Telnet ne sont pas chiffrés lorsqu’ils sont envoyés entre le client traditionnel et le serveur », comme le rappelle IBM.
Le CERT-FR recommande donc de supprimer les services telnet et, si c’est impossible, de ne pas exposer le service directement sur Internet, ou a minima d’en restreindre l’accès à certaines adresses IP (liste blanche). Évidemment, il faudra appliquer les correctifs dès que possible une fois ces derniers disponibles.
Telnet est remplacé par SSH depuis longtemps
Telnet est un vieux protocole, remplacé depuis longtemps par d’autres plus récents, dont SSH, ce qui devrait (en théorie) limiter les risques. En cybersécurité, on n’est jamais à l’abri d’une mauvaise nouvelle et/ou configuration.
Comme le rappelait déjà l’ANSSI en 2015, « SSH, ou Secure SHell, est un protocole applicatif qui vise à corriger les déficiences connues dans les protocoles FTP, RSH, RCP et Telnet ». L’Agence ajoutait que « l’avantage évident apporté par SSH est sa sécurité ».
« Là où Telnet n’apporte ni authentification du serveur ni création d’un canal chiffré et authentifié, SSH va permettre de le faire dès lors que quelques règles d’hygiène simples sont appliquées », détaillait l’ANSSI. Les recommandations d’il y a 10 ans étaient claires : utiliser SSH à la place des protocoles historiques pour des accès shell distants, mais aussi désinstaller Telnet comme service d’accès à distance.
Pour rappel, SSH est par défaut sur le port 22, Telnet sur le 23. Si, côté client, vous avez un doute, regardez la configuration de votre PUTTY : Connection type doit être sur SSH (port 22) et pas sur Other: Telnet (port 23).
Alerte générale ! En théorie, il n’y a pas de raison de paniquer, mais en pratique… C’est, en creux, un peu le sens du dernier bulletin du CERT-FR. Une faille triviale a été identifiée dans Telnet ; elle permet de se connecter en root. En théorie, un serveur Telnet ne devrait jamais être accessible… mais c’est la théorie.
Le CERT-FR a publié un bulletin d’alerte pour informer que « les détails de la vulnérabilité CVE-2026-24061, affectant telnetd, ont été publiés ». Ils sont en effet disponibles sur un fil de discussion Openwall, dans la liste de diffusion oss-security.
Une faille et hop, vous voilà connecté en root sur le serveur
Telnetd – ou Telnet daemon – est la partie serveur du protocole Telnet (terminal network), « permettant de communiquer avec un serveur distant en échangeant des lignes de texte et en recevant des réponses également sous forme de texte » pour reprendre Wikipédia.
« Cette vulnérabilité permet à un attaquant de contourner l’authentification et de se connecter à une machine vulnérable en tant que l’utilisateur root ». Autant dire que c’est le scénario catastrophe, puisque root est l’utilisateur avec tous les droits, d’autant plus que le CERT-FR ajoute que cette faille a été « introduite en mars 2015 et affecte GNU InetUtils versions 1.9.3 à 2.7 », soit la dernière version disponible actuellement.
« Aucun correctif officiel n’est disponible pour l’instant », ajoute le CERT-FR. Vous en voulez encore ? « Un code d’exploitation est publiquement disponible ». Cette vilaine faille est référencée sous le nom CVE-2026-24061 et son score CVSS 3.1 est de 9,8 sur 10.
#Fear Des serveurs telnet sont accessibles sur Internet
Selon les constatations du CERT-FR, des services telnet sont accessibles sur Internet, « ce qui est contraire aux bonnes pratiques »… Au-delà de la faille, il y a depuis toujours une bonne raison de ne pas exposer Telnet sur le Net : « Les mots de passe Telnet ne sont pas chiffrés lorsqu’ils sont envoyés entre le client traditionnel et le serveur », comme le rappelle IBM.
Le CERT-FR recommande donc de supprimer les services telnet et, si c’est impossible, de ne pas exposer le service directement sur Internet, ou a minima d’en restreindre l’accès à certaines adresses IP (liste blanche). Évidemment, il faudra appliquer les correctifs dès que possible une fois ces derniers disponibles.
Telnet est remplacé par SSH depuis longtemps
Telnet est un vieux protocole, remplacé depuis longtemps par d’autres plus récents, dont SSH, ce qui devrait (en théorie) limiter les risques. En cybersécurité, on n’est jamais à l’abri d’une mauvaise nouvelle et/ou configuration.
Comme le rappelait déjà l’ANSSI en 2015, « SSH, ou Secure SHell, est un protocole applicatif qui vise à corriger les déficiences connues dans les protocoles FTP, RSH, RCP et Telnet ». L’Agence ajoutait que « l’avantage évident apporté par SSH est sa sécurité ».
« Là où Telnet n’apporte ni authentification du serveur ni création d’un canal chiffré et authentifié, SSH va permettre de le faire dès lors que quelques règles d’hygiène simples sont appliquées », détaillait l’ANSSI. Les recommandations d’il y a 10 ans étaient claires : utiliser SSH à la place des protocoles historiques pour des accès shell distants, mais aussi désinstaller Telnet comme service d’accès à distance.
Pour rappel, SSH est par défaut sur le port 22, Telnet sur le 23. Si, côté client, vous avez un doute, regardez la configuration de votre PUTTY : Connection type doit être sur SSH (port 22) et pas sur Other: Telnet (port 23).
En l’espace de quelques minutes, Bouygues Telecom, Orange et Free (iliad) ont envoyé par e-mail un communiqué de presse commun (.pdf) : « Le consortium composé des trois opérateurs Bouygues Telecom, Free-Groupe iliad et Orange, confirme l’existence de discussions avec le Groupe Altice en vue de l’acquisition potentielle d’une grande partie des activités de télécommunications du groupe Altice en France ».
Ce n’est pas un scoop, loin de là. Mi-octobre, les trois concurrents annonçaient officiellement le dépôt d’une offre de rachat pour SFR, en traçant les grandes lignes du partage. Sitôt déposée, sitôt refusée par Altice. Selon BFM Business, Bouygues Telecom, Free et Orange envisageraient de réhausser leur offre à 20 milliards d’euros (soit trois milliards de plus). La partie de poker menteur continue donc et pourrait encore durer longtemps.
Le communiqué du jour n’indique rien de neuf, si ce n’est que « des travaux de due diligence ont été engagés depuis début janvier 2026 », c’est-à-dire des audits pour sonder plus en profondeur la santé économique de SFR. C’est tout de même un signe que le dossier avance, doucement. Quoi qu’il en soit, « les conditions juridiques et financières de la transaction ne font l’objet d’aucun accord à date », précisent les trois compères.
Ils ajoutent qu’il « n’y a aucune certitude que ce processus aboutisse à un accord qui devra en toute hypothèse être soumis à l’approbation des organes de gouvernance des sociétés concernées et restera sous réserve des conditions usuelles en la matière ». L’Autorité de la concurrence aura du pain sur la planche si un accord devait être trouvé.
Son président, Benoît Cœuré, avait ouvert la porte pour un retour à trois opérateurs : « Si cette opération devait être notifiée, nous la regarderions sans camper sur nos positions d’il y a neuf ans ». L’Autorité nous indiquait par contre en octobre qu’aucun projet ne lui avait été notifié ; c’est le point de départ de l’instruction.
En l’espace de quelques minutes, Bouygues Telecom, Orange et Free (iliad) ont envoyé par e-mail un communiqué de presse commun (.pdf) : « Le consortium composé des trois opérateurs Bouygues Telecom, Free-Groupe iliad et Orange, confirme l’existence de discussions avec le Groupe Altice en vue de l’acquisition potentielle d’une grande partie des activités de télécommunications du groupe Altice en France ».
Ce n’est pas un scoop, loin de là. Mi-octobre, les trois concurrents annonçaient officiellement le dépôt d’une offre de rachat pour SFR, en traçant les grandes lignes du partage. Sitôt déposée, sitôt refusée par Altice. Selon BFM Business, Bouygues Telecom, Free et Orange envisageraient de réhausser leur offre à 20 milliards d’euros (soit trois milliards de plus). La partie de poker menteur continue donc et pourrait encore durer longtemps.
Le communiqué du jour n’indique rien de neuf, si ce n’est que « des travaux de due diligence ont été engagés depuis début janvier 2026 », c’est-à-dire des audits pour sonder plus en profondeur la santé économique de SFR. C’est tout de même un signe que le dossier avance, doucement. Quoi qu’il en soit, « les conditions juridiques et financières de la transaction ne font l’objet d’aucun accord à date », précisent les trois compères.
Ils ajoutent qu’il « n’y a aucune certitude que ce processus aboutisse à un accord qui devra en toute hypothèse être soumis à l’approbation des organes de gouvernance des sociétés concernées et restera sous réserve des conditions usuelles en la matière ». L’Autorité de la concurrence aura du pain sur la planche si un accord devait être trouvé.
Son président, Benoît Cœuré, avait ouvert la porte pour un retour à trois opérateurs : « Si cette opération devait être notifiée, nous la regarderions sans camper sur nos positions d’il y a neuf ans ». L’Autorité nous indiquait par contre en octobre qu’aucun projet ne lui avait été notifié ; c’est le point de départ de l’instruction.
Fin 2022, la première mission Artemis décollait et plaçait le vaisseau spatial Orion en orbite autour de la Lune. La capsule était inhabitée, c’était une répétition générale grandeur nature avant d’envoyer des humains.
Artemis II est prévue pour avoir « un plan de vol similaire » selon l’ESA, mais avec quatre astronautes à son bord. C’est désormais à son tour d’être sur le pas de tir, en position verticale. Il a fallu une douzaine d’heures à la fusée (et son convoi, totalisant 5 500 tonnes) pour parcourir les 6 km entre son hall d’assemblage et son pas de tir.
Selon la NASA, 16 fenêtres de tir seront possibles entre les 6 février et 30 avril ; la mission doit durer une dizaine de jours. Comme le rappelle la Cité de l’Espace, ce sera la « première mission habitée autour de la Lune depuis plus de 50 ans ».
Comme l’expliquent nos confrères, la répétition générale avant le décollage n’est pas terminée. Il reste encore la procédure « WDR pour Wet Dress Rehearsal où Wet (humide) fait référence au remplissage des réservoirs pour une Dress Rehearsal (répétition générale) ». Elle doit être faite avant le 2 février. La NASA a prévenu que « des répétitions générales supplémentaires peuvent être nécessaires pour s’assurer que le lanceur est entièrement vérifié et prêt pour le vol ».
En 2020, le calendrier de l’Agence spatiale américaine envisageait déjà Artemis III : « En 2024, la troisième mission Artemis emmènera des astronautes jusqu’au satellite naturel de la Terre ; ils seront les premiers à s’y poser depuis l’équipage d’Apollo 17, après une interruption de plus de cinquante ans ».
Nous sommes début 2026 et ce n’est finalement que la deuxième mission qui est dans les starting-blocks. Artemis III est pour le moment prévue pour 2028.
Fin 2022, la première mission Artemis décollait et plaçait le vaisseau spatial Orion en orbite autour de la Lune. La capsule était inhabitée, c’était une répétition générale grandeur nature avant d’envoyer des humains.
Artemis II est prévue pour avoir « un plan de vol similaire » selon l’ESA, mais avec quatre astronautes à son bord. C’est désormais à son tour d’être sur le pas de tir, en position verticale. Il a fallu une douzaine d’heures à la fusée (et son convoi, totalisant 5 500 tonnes) pour parcourir les 6 km entre son hall d’assemblage et son pas de tir.
Selon la NASA, 16 fenêtres de tir seront possibles entre les 6 février et 30 avril ; la mission doit durer une dizaine de jours. Comme le rappelle la Cité de l’Espace, ce sera la « première mission habitée autour de la Lune depuis plus de 50 ans ».
Comme l’expliquent nos confrères, la répétition générale avant le décollage n’est pas terminée. Il reste encore la procédure « WDR pour Wet Dress Rehearsal où Wet (humide) fait référence au remplissage des réservoirs pour une Dress Rehearsal (répétition générale) ». Elle doit être faite avant le 2 février. La NASA a prévenu que « des répétitions générales supplémentaires peuvent être nécessaires pour s’assurer que le lanceur est entièrement vérifié et prêt pour le vol ».
En 2020, le calendrier de l’Agence spatiale américaine envisageait déjà Artemis III : « En 2024, la troisième mission Artemis emmènera des astronautes jusqu’au satellite naturel de la Terre ; ils seront les premiers à s’y poser depuis l’équipage d’Apollo 17, après une interruption de plus de cinquante ans ».
Nous sommes début 2026 et ce n’est finalement que la deuxième mission qui est dans les starting-blocks. Artemis III est pour le moment prévue pour 2028.
Apple vient de remporter des manches dans deux batailles judiciaires. La première en France, sur son dispositif App Tracking Transparency qu’elle peut continuer à utiliser. La seconde aux États-Unis, avec un recours collectif sur la collecte de données personnelles, qui prend (encore) du plomb dans l’aile.
C’est une victoire pour Apple : le tribunal judiciaire de Paris n’impose pas à l’entreprise de suspendre ou de modifier son dispositif App Tracking Transparency (ATT). Ce dernier n’est toutefois pas totalement tiré d’affaire puisqu’une autre procédure au fond est toujours en cours.
Il reste 96% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En octobre, Arduino annonçait deux grosses nouveautés. La première, son rachat par Qualcomm, un séisme dans le monde des microcontrôleurs, soulevant des inquiétudes malgré des promesses de laisser à Arduino « sa marque, ses outils et sa mission indépendants ».
La deuxième annonce était l’Arduino Uno Q et un SoC Qualcomm Dragonwing (d’où le Q dans le nom), avec une conception hybride. Ce produit peut se brancher à un ordinateur ou bien fonctionner de manière autonome grâce à un SoC et Linux.
Seule la version avec 2 Go de mémoire et 16 Go de stockage était disponible, celle avec respectivement 4 et 32 Go devait arriver plus tard. Elle était prévue pour novembre, mais vient seulement d’arriver, comme annoncé par Arduino. Pas de changement au niveau du cœur de la machine : SoC Qualcomm Dragonwing QRB2210 et microcontrôleur STM32U58.
Arduino annonçait à l’époque un tarif de 59 euros, alors que la carte est vendue 64,66 euros aujourd’hui, sur la boutique officielle d’Arduino. Elle est vendue 64 euros chez RS, 64 euros aussi chez Kubii, 61 euros chez Farnell, mais seulement 53 euros chez Amazon.
En octobre, Arduino annonçait deux grosses nouveautés. La première, son rachat par Qualcomm, un séisme dans le monde des microcontrôleurs, soulevant des inquiétudes malgré des promesses de laisser à Arduino « sa marque, ses outils et sa mission indépendants ».
La deuxième annonce était l’Arduino Uno Q et un SoC Qualcomm Dragonwing (d’où le Q dans le nom), avec une conception hybride. Ce produit peut se brancher à un ordinateur ou bien fonctionner de manière autonome grâce à un SoC et Linux.
Seule la version avec 2 Go de mémoire et 16 Go de stockage était disponible, celle avec respectivement 4 et 32 Go devait arriver plus tard. Elle était prévue pour novembre, mais vient seulement d’arriver, comme annoncé par Arduino. Pas de changement au niveau du cœur de la machine : SoC Qualcomm Dragonwing QRB2210 et microcontrôleur STM32U58.
Arduino annonçait à l’époque un tarif de 59 euros, alors que la carte est vendue 64,66 euros aujourd’hui, sur la boutique officielle d’Arduino. Elle est vendue 64 euros chez RS, 64 euros aussi chez Kubii, 61 euros chez Farnell, mais seulement 53 euros chez Amazon.
C’est via un message sur LinkedIn que le principal intéressé confirme son changement de crémerie. Le monde des GPU, il connait puisque cela fait plus de 25 ans qu’il baigne dedans.
Au début des années 2000, il est chez ATI, puis il passe chez AMD après le rachat. Il part ensuite pour un voyage de 14 ans chez Qualcomm pour finir vice-président senior de l’ingénierie, en charge du développement des GPU de Qualcomm, la gamme de produits Adreno.
Chez Intel, il occupe le poste de vice-président senior (des vice-présidents, il y en a à la pelle) en charge de l’architecture GPU. Il précise à CRN que, dans ses missions, il y a un « focus sur l’IA ». Intel a, pour rappel, annoncé récemment une nouvelle série de CPU pour le mobile : les Core Ultra Series 3, notamment avec la gamme « X » équipée d’un GPU Arc B390. Rendez-vous le 27 janvier pour les premiers tests indépendants.
Dans un message sur LinkedIn, il explique que cette décision vient d’une discussion avec sa femme sur l’avenir et de rencontres avec Lip-Bu Tan (le patron d’Intel) : « Il m’a impressionné. Charmant, intelligent et clairement stratégique dans ses opinions sur Intel ». Pas un mot par contre sur Qualcomm, son ancien employeur.
C’est via un message sur LinkedIn que le principal intéressé confirme son changement de crémerie. Le monde des GPU, il connait puisque cela fait plus de 25 ans qu’il baigne dedans.
Au début des années 2000, il est chez ATI, puis il passe chez AMD après le rachat. Il part ensuite pour un voyage de 14 ans chez Qualcomm pour finir vice-président senior de l’ingénierie, en charge du développement des GPU de Qualcomm, la gamme de produits Adreno.
Chez Intel, il occupe le poste de vice-président senior (des vice-présidents, il y en a à la pelle) en charge de l’architecture GPU. Il précise à CRN que, dans ses missions, il y a un « focus sur l’IA ». Intel a, pour rappel, annoncé récemment une nouvelle série de CPU pour le mobile : les Core Ultra Series 3, notamment avec la gamme « X » équipée d’un GPU Arc B390. Rendez-vous le 27 janvier pour les premiers tests indépendants.
Dans un message sur LinkedIn, il explique que cette décision vient d’une discussion avec sa femme sur l’avenir et de rencontres avec Lip-Bu Tan (le patron d’Intel) : « Il m’a impressionné. Charmant, intelligent et clairement stratégique dans ses opinions sur Intel ». Pas un mot par contre sur Qualcomm, son ancien employeur.
Bouygues Telecom vient d’annoncer deux nouveaux produits utilisant son réseau mobile 5G : du « WiFi de secours 5G et la Bbox 5G WiFi 7 avec répéteur et TV ». La première joue sur la peur de la coupure, la seconde vise les oubliés de la fibre optique.
Avec son Extra Bbox, Bouygues Telecom cible les clients qui ont peur de subir une coupure sur leur connexion fixe à la maison.
Bouygues Telecom réinvente en quelque sorte les dongle et autres Hot Spot Wi-Fi avec de la 4G/5G permettant de partager une connexion mobile en Wi-Fi. C’est, pour rappel, aussi faisable avec son smartphone depuis de très nombreuses années, aussi bien sur Android qu’iOS.
Extra Bbox : 12,99 euros par mois, pour 100 Go de data
Pour mettre en avant son offre, Bouygues Telecom « joue » clairement sur la peur de la coupure, avec une statistique maison : « en 2025, 56% des Français déclarent avoir observé une coupure ou un ralentissement de leur connexion fibre ». Ce chiffre vient en effet d’une étude de… « Bouygues Telecom menée par Ipsos-BVA, 2025 ».
Les débits maximums théoriques sont de 1,1 Gb/s en téléchargement et de 58 Mb/s en upload. L’offre sera disponible dès le 26 janvier, pour 12,99 euros par mois avec 100 Go de data (bloqué au-delà). Il faut également ajouter 29 euros de frais de mise en service et autant de résiliation.
Bouygues Telecom propose aussi un forfait avec 120 Go de 5G pour 11,99 euros par mois, soit un euro de moins… Si vous avez déjà un Hot Spot 4G/5G qui traine à la maison ou un smartphone, cela vous coutera donc moins cher, avec plus de data.
Backup Freebox, prêt d’Airbox chez Orange, Internet Garanti SFR
Free propose, pour rappel, une option Backup Freebox qui « permet de conserver un accès à internet et aux services TV en cas de coupure ou perte de connexion à votre domicile ». Cette option est mise « à disposition sur demande et après diagnostic » pour 4,99 euros par mois, selon la fiche d’information standardisée. Il était pendant un temps question de la rendre disponible en standalone pour les Freebox Delta et Pop, mais il n’en est rien actuellement. Seuls les abonnés Freebox Ultra semblent pouvoir le commander, selon cette page de l’assistance. Pour les autres, il faut attendre la panne avant d’en faire la demande.
Sosh propose de son côté un service de continuité de connexion, avec « 200 Go internet mobile par mois, pendant 2 mois sur votre forfait forfait Sosh mobile ou Orange mobile ou offre Let’s Go ». Attention, seulement sur une ligne mobile Sosh ou Orange !
Orange aussi propose ce genre d’option à ses clients (200 Go en plus sur un maximum de cinq forfaits), mais vous pouvez aussi avoir un prêt d’Airbox, un routeur Wi-Fi 4G, avec 200 Go de data. Il est possible de le retirer en boutique pour l’avoir plus rapidement. Cette offre n’est pas disponible de manière préventive, il faut avoir une coupure pour en faire la demande.
Chez SFR, une option Internet Garanti est proposée à l’ensemble des clients, pour 5 euros par mois (incluse dans Box SFR Premium). Vous pouvez y souscrire avant d’avoir une panne. Cette offre permet d’avoir une box de poche 4G avec 30 Go par mois en temps normal. En cas de panne, et après avoir contacté SFR, vous bénéficiez « de data illimité via votre box de poche ».
Et une Bbox 5G à 44,99 euros par mois, avec Wi-Fi 7
La seconde offre du jour concerne une « Bbox 5G et son répéteur certifiés WiFi 7, avec une clé TV pour une expérience TV inédite ». L’opérateur annonce « des débits jusqu’à 1,1 Gb/s en descendant et 175 Mb/s en débit montant, un design vertical intégrant 4 antennes par bande de fréquence ».
Le répéteur Wi-Fi 7, bi-bandes lui aussi, est disponible sur commande. Là encore, il faudra attendre le 26 janvier pour en profiter, pour 44,99 euros par mois. De nouveau, des frais de mise en service de 29 euros et de résiliation de 29 euros également sont de la partie. L’accès se fait « sous réserve de couverture 5G (3,5 GHz) » et d’éligibilité de votre adresse de souscription. L’ensemble des opérateurs imposent des conditions pour souscrire à une telle offre.
Free propose lui aussi une Box 5G avec du Wi-Fi 7, mais sans la certification par la Wi-Fi Alliance (cela n’empêche évidemment pas le box de fonctionner en Wi-Fi 7 avec d’autres appareils), ce qui provoque quelques tensions avec Bouygues Telecom. Elle est proposée à 39,99 euros par mois (après un an à 29,99 euros par mois), avec « accès à la télévision avec l’application Free TV ». Les débits sont de 1,5 Gb/s en téléchargement et 130 Mb/s dans l’autre sens.
Comptez 42,99 euros chez Orange pour une box 5G+ Home avec elle aussi du Wi-Fi 7. Chez Orange, les débits sont plus élevés : « jusqu’à 1,5 Gb/s en téléchargement et 250 Mb/s en envoi ». L’application TV d’Orange permet d’accéder à « 200 chaînes incluses sur PC, mobile, tablette ».
Chez SFR, la Box 5G est à 39,99 euros par mois, sans engagement mais avec du Wi-Fi 6 « seulement ». Les débits sont de 1,1 Gb/s et 150 Mb/s respectivement, avec 200 chaines de télévision via l’application SFR.
Free, Orange et Bouygues Telecom proposent l’accès aux chaînes de télévision via une application, comme Bouygues Telecom avec BTV+. Mais l’opérateur propose aussi sa clé HDMI b.tv avec sa Bbox 5G WiFi 7… à condition de l’acheter pour 20 euros. Elle prend en charge « les derniers standards audio et vidéo (dont Dolby Atmos), l’assistant vocal Google et la fonction Cast ».