Vue normale

Linus Torvalds: Someone 'More Competent Who Isn't Afraid of Numbers Past the Teens' Will Take Over Linux One Day

Par : msmash
23 février 2026 à 19:36
Linus Torvalds has pondered his professional mortality in a self-deprecating post to mark the release of the first release candidate for version 7.0 of the Linux kernel. From a report: "You all know the drill by now: two weeks have passed, and the kernel merge window is closed," he wrote in the post announcing Linux 7.0 rc1. "We have a new major number purely because I'm easily confused and not good with big numbers." Torvalds pointed out that the numbers he applies to new kernel releases are essentially meaningless. "We haven't done releases based on features (or on "stable vs unstable") for a long, long time now. So that new major number does *not* mean that we have some big new exciting feature, or that we're somehow leaving old interfaces behind. It's the usual "solid progress" marker, nothing more.â He then reiterated his plan to end each series of kernels to end at x.19, before the next release becomes y.0 -- a process that takes about 3.5 years -- and then pondered what happens when the next version of Linux reaches a number he finds uncomfortable. "I don't have a solid plan for when the major number itself gets big," he admitted, "by that time, I expect that we'll have somebody more competent in charge who isn't afraid of numbers past the teens. So I'm not going to worry about it."

Read more of this story at Slashdot.

AsteroidOS 2.0 : une dose de libre pour montres connectées

20 février 2026 à 10:38

La version 2.0 d’AsteroidOS débarque huit ans après le lancement de la version 1.0 et dix ans après le début de son développement. Ce système vise à remplacer celui installé par défaut sur des montres lancées par différentes marques.

Dans la liste des montres compatibles avec AsteroidOS 2.0, on retrouve des solutions Asus, TicWatch, Oppo, Huawei, LG, Fossil, Moto mais aussi Samsung, Sony et Casio de manière plus expérimentale.

Le système reprend les fonctions les plus classiques de ces différentes montres dans pas moins de 49 langues. Il supporte évidemment les spécificités de chaque montre suivant leur déploiement. Boutons, écrans tactiles capacitifs, pilotage de l’écran pour adapter sa luminosité, contrôle des alarmes et des vibrations. Mais la version 2.0 apporte également son lot de nouvelles fonctionnalités utiles.

AsteroidOS

Affichage permanent de l’heure, détection des mouvements de poignet pour réveiller la montre, mise en veille avec la paume de la main, lecture du rythme cardiaque, contrôle de la musique, Bluetooth, boussole, mode nuit, podomètre et fonction « lampe de poche » avec l’écran. On retrouve évidemment les basiques avec des fonctions d’alarme, de chronomètre, de météo ou de calculatrice. Les notifications et le dialogue avec votre smartphone seront possibles. Certaines de ces fonctions semblent évidentes mais manquaient cruellement à AsteroidOS 1.0.

Evidemment, il faut prendre en compte l’étendue du travail demandé pour porter ces éléments sur un panel si différent de montres. Chaque constructeur a sa propre recette matérielle. Tant sur le plan des composants embarqués que sur la manière dont ils communiquent avec le système. AsteroidOS cherche à faire correspondre un tableau de bord logiciel unique sur différentes solutions. Ce qui ne doit pas être une mince affaire mais plutôt un travail exploratoire de fourmi qui demande aux développeurs d’avoir accès à chaque modèle de montre. 

Le reste doit être du gâteau en comparaison et quand AsteroidOS propose un nouveau menu de gestion interne baptisé QuickPanel pour piloter des raccourcis et adapter l’interface à son goût, cela doit sonner comme une récréation bien méritée.

AsteroidOS

À quoi sert AsteroidOS ?

C’est la bonne question. Qui voudrait changer le système de sa montre connectée ? On se demande bien à quoi cela pourrait servir ? La réponse à cette question est assez simple en réalité. Il suffit d’avoir porté une montre de ce type depuis un moment pour y répondre. Il se trouve que le secteur des montres de ce type est souvent concerné par le fléau de l’enshitification. Plus le temps passe et plus votre produit devient lent et désagréable. Au fil des mises à jour, la montre qui était super fluide à ses débuts se transforme en un outil peu pratique, voire désagréable.

Certes, ce système propose une nouvelle fonction commune avec les nouveaux modèles sortis deux ou trois ans plus tard, mais au prix d’une autonomie divisée par deux ou d’un défilement façon diapositive. J’ai ainsi porté une montre de marque qui a rajouté une fonction parfaitement inutile en transformant radicalement le confort globalement proposé. Il a été possible de revenir en arrière, de réinstaller l’ancien système au prix de quelques manipulations hasardeuses. En revanche, cela n’a plus empêché la montre de me proposer chaque matin au réveil de télécharger une mise à jour dont je ne voulais pas. Ici, le système propose même une option d’installation « temporaire » pour vérifier que votre montre va bien supporter une nouvelle fonctionnalité.

Une autre raison pour avoir envie de basculer vers un outil comme AsteroidOS ? Se détacher d’un possible mouchard technique qui sait où vous allez, vos horaires et peut même relever des éléments concernant votre santé. Avec un système Linux que l’on peut contrôler, dont on peut adapter les outils et l’interface. On est à même de retrouver les éléments de son choix et même de les afficher comme bon nous semble. Il suffit de regarder la vidéo de présentation ci-dessus pour comprendre à quel point l’interface proposée est plus malléable que celle des fabricants.

Comment installer AsteroidOS ?

Pour chaque montre compatible, un énorme travail de prise en main est réalisé. Bien mieux fait que beaucoup de solutions commerciales d’ailleurs. Cela commence par un listing des éléments supportés par chaque montre comme ci-dessus. Le site vous demande ensuite de choisir quelle version du système vous souhaitez, sur quel système tourne actuellement votre montre et depuis quel système vous l’installez. 

Le téléchargement adapté est proposé puis le détail de la méthode d’installation pas à pas. L’idée est de rendre l’opération très facile et sans mauvaises surprises techniques. Vous savez dès le début ce qui risque de marcher ou non.

Le point négatif actuel de ce système est son absence de store, vous ne trouverez pas l’équivalent de ce que propose un WearOS par exemple. Pas de jeux, pas d’applications, aucun loisir de se balader dans un choix de centaines de cadrans. L’équipe en charge du projet y réfléchit mais ce n’est pas pour maintenant.

Le site du projet.

AsteroidOS 2.0 : une dose de libre pour montres connectées © MiniMachines.net. 2026

Linus Torvalds on How Linux Went From One-Man Show To Group Effort

Par : msmash
18 février 2026 à 18:45
Linus Torvalds has told The Register how Linux went from a solo hobby project on a single 386 PC in Helsinki to a genuinely collaborative effort, and the path involved crowdsourced checks, an FTP mirror at MIT, and a licensing decision that opened the floodgates. Torvalds released the first public snapshot, Linux 0.02, on October 5, 1991, on a Finnish FTP server -- about 10,000 lines of code that he had cross-compiled under Minix. He originally wanted to call it "Freax," but his friend Ari Lemmke, who set up the server, named the directory "Linux" instead. Early contributor Theodore Ts'o set up the first North American mirror on his VAXstation at MIT, since the sole 64 kbps link between Finland and the US made downloads painful. That mirror gave developers on this side of the Atlantic their first practical access to the kernel. Another early developer, Dirk Hohndel, recalled that Torvalds initially threw away incoming patches and reimplemented them from scratch -- a habit he eventually dropped because it did not scale. When Torvalds could not afford to upgrade his underpowered 386, developer H. Peter Anvin collected checks from contributors through his university mailbox and wired the funds to Finland, covering the international banking fees himself. Torvalds got a 486DX/2. In 1992, he moved the kernel to the GPL, and the first full distributions appeared in 1992-1993, turning Linux from a kernel into installable systems.

Read more of this story at Slashdot.

'I Tried Running Linux On an Apple Silicon Mac and Regretted It'

16 février 2026 à 08:34
Installing Linux on a MacBook Air "turned out to be a very underwhelming experience," according to the tech news site MakeUseOf: The thing about Apple silicon Macs is that it's not as simple as downloading an AArch64 ISO of your favorite distro and installing it. Yes, the M-series chips are ARM-based, but that doesn't automatically make the whole system compatible in the same way most traditional x86 PCs are. Pretty much everything in modern MacBooks is custom. The boot process isn't standard UEFI like on most PCs. Apple has its own boot chain called iBoot. The same goes for other things, like the GPU, power management, USB controllers, and pretty much every other hardware component. It is as proprietary as it gets. This is exactly what the team behind Asahi Linux has been working toward. Their entire goal has been to make Linux properly usable on M-series Macs by building the missing pieces from the ground up. I first tried it back in 2023, when the project was still tied to Arch Linux and decided to give it a try again in 2026. These days, though, the main release is called Fedora Asahi Remix, which, as the name suggests, is built on Fedora rather than Arch... For Linux on Apple Silicon, the article lists three major disappointments: "External monitors don't work unless your MacBook has a built-in HDMI port." "Linux just doesn't feel fully ready for ARM yet. A lot of applications still aren't compiled for ARM, so software support ends up being very hit or miss." (And even most of the apps tested with FEX "either didn't run properly or weren't stable enough to rely on.") Asahi "refused to connect to my phone's hotspot," they write (adding "No, it wasn't an iPhone").

Read more of this story at Slashdot.

Is Linux Mint Burning Out? Developers Consider Longer Release Cycle

Par : msmash
11 février 2026 à 22:45
BrianFagioli writes: The Linux Mint developers say they are considering adopting a longer development cycle, arguing that the project's current six month cadence plus LMDE releases leaves too little room for deeper work. In a recent update, the team reflected on its incremental philosophy, independence from upstream decisions like Snap, and heavy investment in Cinnamon and XApp. While the release process "works very well" and delivers steady improvements, they admit it consumes significant time in testing, fixing, and shipping, potentially capping ambition. Mint's next release will be based on a new Ubuntu LTS, and the team says it is seriously interested in stretching the development window. The stated goal is to free up resources for more substantial development rather than constant release management. Whether this signals bigger technical changes or simply acknowledges bandwidth limits for a small team remains unclear, but it marks a notable rethink of one of desktop Linux's most consistent release rhythms.

Read more of this story at Slashdot.

Linux 7.0 Kernel Confirmed By Linus Torvalds, Expected In Mid-April 2026

Par : msmash
9 février 2026 à 22:45
An anonymous reader writes: Linus Torvalds has confirmed the next major kernel series as Linux 7.0, reports Linux news website 9to5Linux.com: "So there you have it, the Linux 6.x era has ended with today's Linux 6.19 kernel release, and a new one will begin with Linux 7.0, which is expected in mid-April 2026. The merge window for Linux 7.0 will open tomorrow, February 9th, and the first Release Candidate (RC) milestone is expected on February 22nd, 2026."

Read more of this story at Slashdot.

Proton 10 pousse encore plus loin le jeu Windows sous Linux

2 février 2026 à 13:01

Proton 10 est disponible, pour être exact, c’est la version 10.0-4 qui vient de débarquer. Proton est la couche logicielle qui traduit les instructions de programmation des jeux sous Linux afin qu’ils puissent être interprétés par Linux. Développé par Valve sur la base des travaux de Wine, le code a offert au Steam Deck la possibilité de lancer des milliers de jeux Windows sous SteamOS. 

Les travaux effectués sur Proton 10 et ses prédécesseurs ont évidemment débordé de la petite console de Valve et touchent aujourd’hui la quasi-totalité des PC sous Linux. De nombreux éléments sont mis à jour techniquement et pourront donc dialoguer avec de multiples configurations. On parle des composants SteamWorks SDK 1.63, de Wine Mono v10.4.1 et des versions VKD3D-Proton 3.0b et VKD3D 1.18. Tous ces éléments étant autant de traducteurs entre les jeux développés sous Windows et le système DirectX et le monde Linux.

C’est ce qui est amusant avec Windows aujourd’hui. DirectX a été forgé comme l’Anneau de Sauron. Un système pour unifier tous les univers du jeu PC et les rendre performant. Permettant aux différents éditeurs de profiter de toutes les ressources de Windows et de dialoguer plus facilement avec les composants proposés. Mais enfermant également ces mêmes éditeurs dans la main de Microsoft. Ce qui a été une force pour l’éditeur pendant de nombreuses années. Tout le temps où aucun constructeur n’a voulu prendre en main son destin sous Linux.

Proton 10

Parce que depuis que Valve est entré dans la course, avec le Steam Deck et SteamOS, tout a changé. Tel un Frodon motivé, épaulé par toute une communauté de développeurs, Valve s’est attelée à améliorer la compatibilité des jeux Windows sous Linux. En concentrant tout son pouvoir dans DirectX, Microsoft en a fait son talon d’Achille. Et l’arrivée d’un sortilège permettant de traduire cette unique langue qu’est DirectX offre le transfert de toute la force de Windows vers Linux.

Et Proton 10 marque une nouvelle étape dans cette voie.

Plusieurs corrections ont été mises à l’œuvre, la mise à jour détaille énormément de choses mais on retiendra notamment une solution aux écrans noirs ou vides lors du lancement de certains titres. Des corrections de nouveaux bugs portés par des mises à jour de jeux, moins d’alertes liées à des problèmes de composants graphiques et une meilleure gestion entre le passage du bureau vers les jeux à grands coups de Alt-Tab.

Autre mise à jour importante, le pilotage des applications d’éditeurs comme Ubisoft Connect est à nouveau fonctionnel. Cela reste un point faible de Proton, beaucoup de studios et d’éditeurs pensent toujours à Windows et uniquement à Windows pour leurs mises à jour. Sans s’inquiéter de l’impact de certains choix sur l’environnement Linux. Proton court donc après eux en permanence pour corriger ces bugs. Peut être que cela changera un jour.

Une nouvelle liste de jeux désormais totalement compatibles sous Proton 10 est également proposée :

  • Surgeon Simulator: Experience Reality
  • Changeling VR
  • Summoners War: RUSH
  • Quantum Threshold
  • REACH
  • Fellowship
  • Metal Slug: Awakening
  • The Obsessive Shadow
  • Drop Dead: The Cabin
  • Zero Caliber 2 Remastered
  • Lost Memories 3 Side Stories
  • Death by Scrolling
  • Stellar Reach
  • Girls’ Frontline
  • Modules
  • Distant Worlds 2
  • Ring Runner: Flight of the Sages
  • Chronology

Pour plus d’info sur Proton 10 : la note de version sous Github

Proton 10 pousse encore plus loin le jeu Windows sous Linux © MiniMachines.net. 2025

Elle peut tuer un système entier avec une seule ligne de code : qu’est-ce qu’une attaque fork bomb ?

31 janvier 2026 à 14:31

Aujourd’hui, plongeons dans le fonctionnement d’une cyberattaque reposant sur un minuscule mécanisme capable de faire surchauffer un système. L’occasion également de décortiquer un principe fondamental de l’informatique : le fork, littéralement « fourchette ».

Kernel Community Drafts a Plan For Replacing Linus Torvalds

Par : BeauHD
29 janvier 2026 à 01:25
The Linux kernel community has formalized a continuity plan for the day Linus Torvalds eventually steps aside, defining how the process would work to replace him as the top-level maintainer. ZDNet's Steven Vaughan-Nichols reports: The new "plan for a plan," drafted by longtime kernel contributor Dan Williams, was discussed at the latest Linux Kernel Maintainer Summit in Tokyo, where he introduced it as "an uplifting subject tied to our eventual march toward death." Torvalds added, in our conversation, that "part of the reason it came up this time around was that my previous contract with Linux Foundation ended Q3 last year, and people on the Linux Foundation Technical Advisory Board had been aware of that. Of course, they were also aware that we'd renewed the contract, but it meant that it had been discussed." The plan stops short of naming a single heir. Instead, it creates an explicit process for selecting one or more maintainers to take over the top-level Linux repository in a worst-case or orderly-transition scenario, including convening a conclave to weigh options and maximize long-term project health. One maintainer in Tokyo jokingly suggested that the group, like the conclave that selects a new pope, be locked in a room and that a puff of white smoke be sent out when a decision was reached. The document frames this as a way to protect against the classic "bus factor" problem. That is, what happens to a project if its leader is hit by a bus? Torvalds' central role today means the project currently assumes a bus-factor of one, where a single person's exit could, in theory, destabilize merges and final releases. In practice, as Torvalds and other top maintainers have discussed, the job of top penguin would almost certainly currently go to Greg Kroah-Hartman, the stable-branch Linux kernel maintainer. Responding to the suggestion that the backup replacement would be Greg KH, Torvalds said: "But the thing is, Greg hasn't always been Greg. Before Greg, there was Andrew Morton and Alan Cox. After Greg, there will be Shannon and Steve. The real issue is you have to have a person or a group of people that the development community can trust, and part of trust is fundamentally about having been around for long enough that people know how you work, but long enough does not mean to be 30 years."

Read more of this story at Slashdot.

Former Canonical Developer Advocate Warns Snap Store Isn't Safe After Slow Responses to Malware Reports

25 janvier 2026 à 08:44
An anonymous reader shared this article from the blog Linuxiac In a blog post, Alan Pope, a longtime Ubuntu community figure and former Canonical employee who remains an active Snap publisher... [warns of] a persistent campaign of malicious snaps impersonating cryptocurrency wallet applications. These fake apps typically mimic well-known projects such as Exodus, Ledger Live, or Trust Wallet, prompting users to enter wallet recovery phrases, which are then transmitted to attackers, resulting in drained funds. The perpetrators had originally used similar-looking characters from other alphabets to mimic other app listings, then began uploading "revisions" to other innocuous-seeming (approved) apps that would transform their original listing into that of a fake crypto wallet app. But now they're re-registering expired domains to take over existing Snap Store accounts, which Pope calls "a significant escalation..." I worked for Canonical between 2011 and 2021 as an Engineering Manager, Community Manager, and Developer Advocate. I was a strong advocate for snap packages and the Snap Store. While I left the company nearly five years ago, I still maintain nearly 50 packages in the Snap Store, with thousands of users... Personally, I want the Snap Store to be successful, and for users to be confident that the packages they install are trustworthy and safe. Currently, that confidence isn't warranted, which is a problem for desktop Linux users who install snap packages. I report every bad snap I encounter, and I know other security professionals do the same — even though doing so results in no action for days sometimes... To be clear: none of this should be seen as an attack on the Snap Store, Canonical, or the engineers working on these problems. I'm raising awareness of an issue that exists, because I want it fixed... But pretending there isn't a problem helps nobody.

Read more of this story at Slashdot.

MeshCentral, alternative à TeamViewer et RustDesk

20 janvier 2026 à 06:49

Ce qui suit est une mise en œuvre basique de l’outil de prise en main à distance MeshCentral. Adapté pour les petits dépannages mais conçu pour les organisations, c’est une solution à évaluer face aux logiciels plus connus comme TeamViewer, AnyDesk ou RustDesk. Je (NdM: YvanM) me garderai cependant de faire un comparatif des fonctionnalités, car je ne connais pas assez cet outil et ses « concurrents ».

Capture d’écran

Sommaire

MeshCentral c’est quoi ?

MeshCentral propose des fonctionnalités similaires à TeamViewer ou AnyDesk. C’est à ma connaissance le seul outil complètement libre de ce type (il est sous licence Apache 2.0). RustDesk est également régulièrement cité sur LinuxFR, mais c’est un logiciel « open core », on peut donc être rapidement limité avec la version libre selon les usages souhaités.

Le projet était, si ma mémoire est bonne, sponsorisé par Intel dans ses débuts. Il est toujours en développement, mais il n’y a visiblement qu’un seul mainteneur actif. Cette personne semble proposer le développement sponsorisé de fonctionnalités.

Malgré cette confidentialité, MeshCentral propose presque toutes les fonctionnalités qui me semblent nécessaires pour une utilisation en entreprise. Il est également adapté à mes besoins en tant que particulier qui dépanne ponctuellement la famille et les amis :

  • La partie serveur est libre et s’installe sur un serveur Linux (on peut aussi sur Windows) ;
  • Le client supporte Windows, Linux, MacOS, FreeBSD et Android, sur plusieurs architectures matérielles ;
  • La personne qui « prend la main » n’a pas de client à installer, tout se fait par l’interface web du serveur (ce n’est pas forcément un avantage, c’est juste pour expliquer comment ça s’utilise) ;
  • Il n’y a pas besoin de configurer le client pour qu’il pointe vers votre serveur, il suffit de le lancer ou de l’installer ;
  • Quand on prend la main sur les clients, on a accès :
  • Au bureau ;
  • À un shell ;
  • À une fonctionnalité de transfert de fichiers ;
  • Des informations sur le matériel ;
  • On peut se servir d’une machine sur laquelle le client est installé comme « rebond » pour accéder en RDP, VNC, HTTP et HTTPS aux autres machines qui sont sur le réseau du client ;
  • Le client permet un accès permanent ou à la demande ;
  • On peut créer des groupes de machines ;
  • On peut avoir plusieurs utilisateurs sur le serveur, avec des permissions différentes ;
  • Il permet l’authentification multi-facteur ;
  • Il supporte l’authentification locale, SAML, JumpCloud, Azure, GitHub, Google, SSO avec OpenID Connect… ;
  • On peut personnaliser le client et l’interface web ;
  • Il est multitenant ;
  • Il peut utiliser Intel AMT (je n’ai jamais essayé) : « when available, administrators can remotely power on, boot to BIOS and manage a system regardless ofthe operating system state. ». Je m’étais d’ailleurs dit que ça devait être une raison du support d’Intel pour ce projet ;
  • Et un paquet d’autres choses que je ne détaillerai pas.

J’ai une utilisation très restreinte de l’outil, mais j’ai quand même constaté des limitations embêtantes :

  • Il n’est pas possible d’accéder au bureau distant si celui-ci utilise Wayland. Si je comprends bien il faudrait un développeur C qui connaisse Wayland, à bon entendeur ;-). Plusieurs contournements sont possibles :
  • Utiliser l’accès en ligne de commande uniquement, c’est parfois suffisant ;
  • Expliquer à l’utilisateur de rouvrir sa session sous Xorg ;
  • Lancer un serveur RDP ou VNC sur le client, et utiliser le client RDP ou VNC intégré à l’interface web de MeshCentral (voir les suggestions en bas de cette dépêche).
  • En mode « à la demande » sous Windows, je n’arrivais pas à avoir la main sur les fenêtres lancées en tant qu’administrateur. Ça a peut-être changé depuis la dernière fois où j’ai testé (en 2023) ;
  • Je trouve que la documentation n’est pas super, il ne faut donc pas hésiter à aller voir les vidéos qui couvrent beaucoup de sujets.

Installation du serveur

La méthode d’installation dépendra forcément du contexte. Voilà le mien :

  • Je veux que le serveur soit sur mon ordinateur portable (actuellement sous Debian 13). Je n’ai pas de serveur à la maison et je n’ai pas envie de gérer une machine en plus. L’inconvénient c’est que je ne pourrais utiliser MeshCentral qu’à la maison, car j’aurais un enregistrement DNS qui pointera vers l’IP de ma box ;
  • Je veux faire tourner le serveur avec Podman dans un conteneur « utilisateur » (parce que même si j’ai pris l’habitude de Docker, j’ai envie de tester Podman).

En termes de RAM et d’utilisation CPU je ne me fais pas de soucis : pour les petites installations c’est censé tourné sur Raspberry Pi. Effectivement, le serveur démarré et un client connecté, le serveur consomme 90 Mo de RAM et 1 % de CPU (j’ai un i5-4300U, soit 4 cœurs à 1.90GHz)

Premier lancement

On installe podman :

sudo apt install podman

On crée l’utilisateur dédié nommé meshcentral (je trouve intéressant sur le principe d’avoir un utilisateur par service) qui fera tourner le conteneur, et on en profite pour mettre son home dans /srv (car ce n’est pas un utilisateur « normal ») :

sudo useradd --base-dir /srv \
--create-home \
--shell /bin/bash \
--user-group \
meshcentral

On note que par défaut useradd (tout comme adduser d’ailleurs) ajoute automatiquement une plage de sous-UID et sous-GID dans /etc/subuid et /etc/subgid : ces plages seront utilisées par les conteneurs que l’utilisateur meshcentral lancera (voir man 5 subuid).

Dans mon cas je démarrerai le service à la main quand j’en ai besoin, mais si on voulait que notre service puisse démarrer automatiquement à l’allumage de la machine il faudrait en plus exécuter la commande suivante :

sudo loginctl enable-linger meshcentral

On se connecte en tant que meshcentral :

sudo --login --user meshcentral

Il existe sur le Docker Hub des images de MeshCentral, mais je n’en vois pas d’officielles et j’ai envie de bricoler :-). En me basant sur la documentation d’installation, on crée donc un fichier /home/meshcentral/Containerfile (équivalent d’un Dockerfile) avec le contenu suivant :

# On se base sur Debian Trixie en version slim
FROM docker.io/library/debian:trixie-slim

# On définit que la version « latest » de MeshCentral sera installée par défaut
ARG MESHCENTRAL_VERSION="latest"

# On fait les mises à jour, on installe les logiciels nécessaires, puis on
# supprime le cache des paquets
RUN apt-get update \
&& DEBIAN_FRONTEND=noninteractive apt-get full-upgrade --assume-yes \
&& DEBIAN_FRONTEND=noninteractive apt-get install --no-install-recommends --assume-yes nodejs npm tini \
&& rm -r /var/cache/apt/*
# On crée un utilisateur dédié pour lancer le service
RUN useradd --shell /usr/sbin/nologin --user-group --create-home meshcentral
# On utilise ce nouvel utilisateur
USER meshcentral
# On se place dans le bon répertoire
WORKDIR /home/meshcentral
# On installe les dépendances de MeshCentral dans ce répertoire
RUN npm install meshcentral@${MESHCENTRAL_VERSION}
# On définit la variable d’environnement conseillée pour faire tourner node
# en production
ENV NODE_ENV=production
# On lance tini pour qu’il prenne en charge et relaie SIGTERM
ENTRYPOINT ["tini","--"]
# Et finalement on lance meshcentral
CMD ["node","./node_modules/meshcentral"]

On construit ensuite l’image, ici en précisant la version stable de MeshCentral qu’on veut récupérer du dépôt NPM et en appliquant un tag :

podman image build --build-arg MESHCENTRAL_VERSION=1.1.55 --tag meshcentral:1.1.55.

L’image est stockée dans ~/.local/share/containers/storage/overlay/. podman image ls m’indique qu’elle fait 976 Mo.

On crée les volumes :

podman volume create meshcentral-files # pour les fichiers qu’on veut transmettre depuis ou vers les clients
podman volume create meshcentral-data # pour la configuration, les certificats, etc.

Ils se trouvent comme on peut s’y attendre dans ~/.local/share/containers/storage/volumes/.

On fait un premier lancement à la main, ce qui permet de créer le fichier de configuration par défaut et de tester si ça marche. On n’est pas root, donc on ne pourra pas utiliser le port 443. De plus, dans le conteneur MeshCentral ne tourne pas en tant que root et utilisera donc par défaut le port 1025 :

podman run --rm \
--volume=meshcentral-data:/home/meshcentral/meshcentral-data \
--volume=meshcentral-files:/home/meshcentral/meshcentral-files \
--publish 1025:1025/tcp \
--hostname meshcentral \
--name meshcentral \
localhost/meshcentral:1.1.55

Depuis le navigateur web, on peut aller sur https://127.0.0.1:1025 pour s’assurer que le service est accessible. Mais revenons pour l’instant dans le terminal et arrêtons notre conteneur avec Ctrl+C

Comme MeshCentral n’est pas joignable sur le port 80, on ne peut pas utiliser le client Let's Encrypt intégré pour obtenir un certificat. On va donc obtenir un certificat manuellement avec certbot.

Configuration DNS et IP

Sur mon nom de domaine, j’ajoute un enregistrement A aide.domain.example qui pointe vers l’adresse IPv4 de ma box. J’aurais bien aimé faire de l’IPv6 aussi, mais avec le pare-feu IPv6 de ma box Free c’est soit on ouvre tout, soit on ferme tout…

Côté box, j’ajoute une redirection de ports pour que les ports TCP 80 et 1025 arrivent sur l’adresse IPv4 de mon laptop. J’ai également configuré un bail statique sur ma box pour que mon ordinateur portable ait toujours la même adresse IP.

Installation du certificat TLS

On reprend notre utilisateur standard pour installer certbot :

sudo apt install certbot

On lance la commande suivante pour tester l’obtention d’un certificat. Il faudra renseigner une adresse e-mail (utilisée pour prévenir lorsque le certificat expire bientôt) et valider les conditions d’utilisation :

sudo certbot certonly --standalone --domain aide.domain.example --dry-run --test-cert

Si ce premier essai marche, on peut demander un certificat de test. C’est utile pour s’assurer qu’on a bien tous les bons paramètres, car Let's Encrypt applique des limites pour les demandes de certificats valides. On doit demander un certificat RSA (et non ECDSA par défaut) car MeshCentral ne sait pas encore gérer ECDSA. On va aussi utiliser l’option --deploy-hook pour copier le certificat au bon emplacement et avec les bonnes permissions. Le propriétaire de ces fichiers doit correspondre avec l’UID de l’utilisateur à l’intérieur de notre conteneur, sinon la clé privée ne sera pas lisible par MeshCentral. On peut pour cela regarder quel est l’UID des fichiers dans notre volume (/srv/meshcentral/.local/share/containers/storage/volumes/meshcentral-data/_data/), pour le reporter 4 fois dans la commande ci-dessous (dans mon cas 232071). Attention également à adapter le nom de domaine (à 3 endroits) :

sudo certbot certonly --test-cert \
--key-type rsa \
--standalone \
--domain aide.domain.example \
--deploy-hook 'install --verbose --owner=232071 --group=232071 --mode=644 /etc/letsencrypt/live/aide.domain.example/fullchain.pem /srv/meshcentral/.local/share/containers/storage/volumes/meshcentral-data/_data/webserver-cert-public.crt; install --verbose --owner=232071 --group=232071 --mode=600 /etc/letsencrypt/live/aide.domain.example/privkey.pem /srv/meshcentral/.local/share/containers/storage/volumes/meshcentral-data/_data/webserver-cert-private.key'

Si tout se passe bien, on peut exécuter la même commande mais sans l’option --test-cert et on aura cette fois un certificat valide. Celui-ci est valable 3 mois, et par défaut est renouvelé automatiquement par le service systemd certbot.service déclenché par le timer certbot.timer. Comme je suis sur un laptop et que ce renouvellement ne peut fonctionner que si je suis chez moi, je désactive l’exécution automatique :

sudo systemctl disable certbot.timer

Quand j’aurais besoin de renouveler le certificat et que je serai à la maison, j’aurais simplement à faire sudo systemctl start certbot.service (enfin c’est comme ça que j’ai compris le mécanisme, je n’ai pas testé).

Configuration textuelle de MeshCentral

On va maintenant modifier le fichier de configuration qui a été généré au premier démarrage de MeshCentral. Depuis l’hôte, en tant que l’utilisateur meshcentral, la solution la plus simple est de lancer podman unshare vim ~/.local/share/containers/storage/volumes/meshcentral-data/_data/config.json. Ça permet d’être dans le bon namespace pour avoir les droits d’écriture sur le fichier. On pourrait aussi utiliser notre compte root de l’hôte mais c’est intéressant de connaître l’existence de podman unshare qui semble bien utile pour comprendre et résoudre des problèmes.

Dans mon cas j’ajoute simplement les directives suivantes sous settings. On peut laisser les commentaires déjà présents dans le fichier. Les curieux iront lire la documentation (par exemple ici) pour voir tout ce qu’il est possible de faire :

  • "cert": "aide.domain.example" pour indiquer comment MeshCentral est joignable ;
  • "port": "1025" pour spécifier le port plutôt que de prendre le premier disponible ;
  • "WANonly": true parce que les fonctionnalités de LAN ne m’intéressent pas ;
  • "amtManager": false parce que je ne vais pas me servir d’AMT (je ne sais pas si ça marche vraiment parce qu’il écoute toujours sur le port 4433, mais ça n’est pas gênant, car le port n’est pas exposé sur l’hôte).

On peut relancer MeshCentral pour s’assurer que ça fonctionne.

Création du quadlet

Bien que Podman supporte les fichiers docker-compose.yml (si on installe le paquet Debian podman-compose), il cherche avant tout à s’intégrer au mieux avec systemd. Pour ça il propose les quadlets (voir man 5 quadlet), qui sont un type d’unités systemd qui permettent de faire à peu près la même chose qu’un fichier docker-compose.yml. On va utiliser cette méthode pour faciliter le lancement ultérieur de notre conteneur. Ici, je vais placer mon unité systemd dans le répertoire de mon utilisateur meshcentral. On crée le bon répertoire :

mkdir --parents ~/.config/containers/systemd/

Et on y crée le fichier ~/.config/containers/systemd/meshcentral.container avec le contenu suivant :

[Unit]
Description=Meshcentral in a Podman container
# C’est déjà une dépendance implicite, mais je la mets pour que ce soit explicite
After=networking.target

[Container]
Image=localhost/meshcentral:1.1.55
ContainerName=meshcentral
HostName=meshcentral
PublishPort=1025:1025
Volume=meshcentral-files:/home/meshcentral/meshcentral-files
Volume=meshcentral-data:/home/meshcentral/meshcentral-data
# Je ne sais pas si c’est c’est vraiment utile mais ça ne coûte rien
DropCapability=all

On indique à systemd de prendre en compte ce nouveau fichier :

systemctl --user daemon-reload

Et on peut démarrer notre service simplement :

systemctl --user start meshcentral.service

Utilisation de MeshCentral

Première connexion

Passons enfin à l’utilisation de MeshCentral. Depuis la page d’accueil de l’interface web, cliquer sur le lien pour créer un premier compte utilisateur.

Une fois connecté, cliquer sur le lien « Créer un nouveau groupe d’appareils ». Pour mon usage basique, je laisse comme type « Gérer à l’aide d’un agent logiciel ».

Installation de l’agent

Il faut maintenant obtenir et installer le client (ici appelé « agent ») sur les postes, et quand on clique sur « Ajouter un agent » à côté du nom du groupe il y a pléthore de choix.

Pour Windows

Pour Windows, je ne saurais pas dire exactement quels choix permettent quelles fonctionnalités (installation en tant que service, assistance à la demande sans que l’utilisateur ait les droits d’administration…) car je n’ai plus de machine pour tester, désolé.

À noter que par défaut l’agent n’est pas signé, donc Windows demande une confirmation avant d’exécuter le binaire.

Pour Linux

Pour Linux, on obtient un agent à installer en tant que service en choisissant « Exécutable d’installation Linux / BSD / macOS », avec « Type d’installation » « Ligne de commande & bureau distant » ou « Ligne de commande uniquement », puis en cliquant sur le lien nommé « MeshAgent ». Il faudra alors faire une commande du type chmod +x && sudo./meshagent pour l’installer (ajouter l’option -install à meshagent pour éviter la pop-up graphique qui demande quoi faire).

L’agent sera installé dans /usr/local/mesh_services/meshagent/meshagent et sera lancé automatiquement par le service meshagent.service. Pour le désinstaller il est possible de supprimer ces fichiers, ou d’utiliser le binaire de désinstallation téléchargeable également depuis l’interface web, toujours via le lien « Ajouter un agent », ou de lancer le binaire installé avec l’option -uninstall.

On obtient un agent que l’utilisateur sans droit root pourra utiliser en choisissant « Exécutable d’installation Linux / BSD / macOS », avec « Type d’installation » « Interactif seulement » (pas vraiment instinctif…). Il faudra dans tous les cas bien expliquer à cet utilisateur comment démarrer ce binaire (car ça dépend de l’environnement qu’il utilise et parce qu’il faut ajouter les droits d’exécution), mais une solution est de lui donner par e-mail une commande toute prête à copier-coller dans son terminal, du type :

cd /tmp/ && wget -O meshagent « https://aide.domain.example:1025/meshagents?id=pYWSORfgTMN%2IdKohzytKQePtv8DzNzbTZcqB2m%24h7MuA4bzXSWJRt6vLN9VBILW&installflags=1&meshinstall=6 » && chmod +x meshagent &&./meshagent

Pour une utilisation à la demande, je m’étais créé un paquet Debian qui une fois installé, permettait par un clic de l’utilisateur de télécharger le binaire et de le lancer, le tout avec une interface graphique basique. C’était de loin le plus simple pour les utilisateurs, mais c’est pas mal de travail.

Avec une invitation

Les méthodes d’installation ci-dessus nécessitent que vous transmettiez le binaire (ou le lien de téléchargement précis) aux utilisateurs. Une autre méthode consiste à inviter les utilisateurs ce qui crée une URL spécifique, accessible sans identifiant, pour qu’ils puissent eux-mêmes télécharger le binaire et obtenir les instructions d’installation. Pour cela, depuis la page d’accueil, cliquer sur le lien « Inviter » à côté du nom du groupe.

C’est à mon sens particulièrement intéressant pour les utilisateurs Windows, puisqu’il suffit de leur transmettre le lien par courriel. (NdM: attention à ne pas habituer les utilisateurs à installer tout et n'importe quoi en un clic sur un lien, en particulier un outil de prise en main à distance. Optez pour un canal de confiance, un courriel signé, etc.)

Mise à jour de l’agent

La mise à jour des agents se fait automatiquement (si nécessaire) après redémarrage du serveur sur une nouvelle version.

Utilisation avec Wayland

Comme dit plus haut, l’agent MeshCentral n’est pas encore compatible Wayland. Voici quelques idées de contournement qui peuvent convenir à votre cas d’usage, ou pas.

Pour avoir accès au gestionnaire de session, j’imagine qu’il suffirait de lancer ce dernier avec Xorg, mais je n’ai jamais testé.

Pour avoir accès à la session on peut en général indiquer à l’utilisateur comment rouvrir sa session avec Xorg. Mais rappelons-nous également que MeshCentral peut se connecter à un serveur RDP ou VNC qui tourne sur la machine, ce qu’on peut faire assez facilement.

Avec Gnome

Si c’est Gnome qui tourne on peut simplement lancer le serveur VNC intégré. On peut indiquer à l’utilisateur de le faire, mais on peut aussi le faire nous-même depuis l’accès en ligne de commande proposé par MeshCentral. À noter que ce serveur VNC écoute sur toutes les interfaces réseau et que même si un mot de passe aléatoire est défini, il est recommandé de l’arrêter lorsque l’accès distant au bureau n’est plus nécessaire :

# on enregistre comment accéder à dbus (nécessaire pour dconf et systemctl
export DBUS_SESSION_BUS_ADDRESS=unix:path=/run/user/"$(id --user)"/bus
# on désactive l’accès RDP qui est activé par défaut
dconf write /org/gnome/desktop/remote-desktop/rdp/enable false
# on active l’accès VNC qui est désactivé par défaut
dconf write /org/gnome/desktop/remote-desktop/vnc/enable true
# on démarre le service utilisateur de partage du bureau
systemctl --user start gnome-remote-desktop.service

Avec KDE

Une solution est d’utiliser le serveur VNC Krfb, qu’on installera avec une commande du type sudo apt install krfb. Il suffit ensuite de demander à l’utilisateur de démarrer ce logiciel depuis le menu (il se trouve dans la rubrique « Internet » et qu’il vous communique le mot de passe.

Comme pour le cas de Gnome juste au-dessus, je recommande également d’arrêter Krfb une fois la prise en main à distance terminée (depuis le menu « Fichier -> Quitter », parce que cliquer sur la croix ferme juste la fenêtre).

Commentaires : voir le flux Atom ouvrir dans le navigateur

Revue de presse de l’April pour la semaine 2 de l’année 2026

12 janvier 2026 à 13:29

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Monde.fr] «Les Gafam ont colonisé progressivement nos imaginaires» (€)

✍ Fabrizio Defilippi, le samedi 10 janvier 2026.

TRIBUNE. L’essor de l’intelligence artificielle, et avec elle d’images produites rapidement, a entraîné un appauvrissement de la créativité en ligne, au point de susciter une vague de nostalgie pour le Web tel qu’il existait auparavant, souligne Fabrizio Defilippi, spécialiste des cultures numériques, dans une tribune au «Monde».

[Le Monde.fr] «La domination de la Chine dans l'IA open source est un défi pour les Etats-Unis» (€)

✍ Alexandre Piquard, le jeudi 8 janvier 2026.

CHRONIQUE. La concurrence entre modèles propriétaires et modèles ouverts et gratuits d’intelligence artificielle est au cœur de l’affrontement économique et idéologique entre l’Amérique de Trump et la Chine de Xi Jinping, explique Alexandre Piquard dans sa chronique.

Et aussi:

[EurActiv] La Commission européenne veut commercialiser l'open source pour en faire un levier de souveraineté numérique FR

✍ Maximilian Henning, le mercredi 7 janvier 2026.

La Commission européenne entend renforcer la souveraineté numérique de l’UE en favorisant la commercialisation des logiciels open source développés en Europe, selon une consultation publiée mardi 6 janvier.

[ZDNET] Linux sera invincible en 2026

✍ Steven Vaughan-Nichols, le lundi 5 janvier 2026.

Linux et l’open source s’apprêtent à connaître une année faste, avec la croissance de PDM sur les ordinateurs de bureau, la montée en puissance de Rust et toujours plus de sécurité.

[France Info] Arrêter la dépendance à Google: Côte-d'Or Street, première numérisation des routes proposée par un département, 'un véritable enjeu de souveraineté'

✍ Auberi Verne, le mercredi 31 décembre 2025.

Le Département de Côte-d’Or a lancé, fin décembre, son propre service de navigation virtuelle sur le réseau routier. Une façon d’assurer son indépendance face à l’hégémonie du géant Google Street View.

Et aussi:

[ZDNET] Libre et open source express (1/2): dons aux assos, exclusion numérique, Acteurs du Libre, Science ouverte, collectivités

✍ Thierry Noisette, le mardi 30 décembre 2025.

En bref. Et vous, qui soutenez-vous? Ce que peuvent faire les entreprises contre l’exclusion numérique, par Emmaüs Connect. Lyon, Grenoble et d’autres villes, retours d’expérience sur l’adoption de solutions libres

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

Linux Hit a New All-Time High for Steam Market Share in December

12 janvier 2026 à 12:34
A year ago the Steam Survey showed a 2.29% marketshare for Linux. Last May it reached 2.69%, its highest level since 2018. November saw another all-time high of 3.2%. But December brought a surprise, reports Phoronix: Back on the 1st Valve published the Steam Survey results for December 2025 and they put the Linux gaming marketshare at 3.19%, a 0.01% dip from November. But now the December results have been revised... [and] put the Linux marketshare at 3.58%, a 0.38% increase over November. Valve didn't publish any explanation for the revision but occasionally they do put out monthly revised data. This is easily an all-time high... both in percentage terms and surely in absolute terms too.

Read more of this story at Slashdot.

Même Linus Torvalds s’est mis au vibe coding, et il a une excellente raison

12 janvier 2026 à 10:20

linus torvalds vibe code

Le mythe du développeur puriste travaillant à la dure dans son terminal vient de prendre un coup de vieux. Début 2026, Linus Torvalds, le créateur du noyau Linux et de Git, a admis utiliser l'IA pour générer du code sur ses projets personnels.

❌