Vue lecture

Sortie du noyau Linux 6.17

Nous vous avons entendu. Les dépêches noyaux me manquent aussi. Et entre Google qui veut les attraper tous, sudo qui n’est plus sudo sûr que ça, des pays qui sortent d’Internet, les chats qu’on veut surveiller parce qu’ils ne miaulent pas droit et le rythme de travail pour bien vivre, il est temps de revenir aux fondamentaux.

Alors sans plus attendre, quoi de neuf dans la 6.17 ? D’après Linus Torvalds lui-même, It's not exciting — ce n’est pas intéressant. Ce qui, pour lui, est un gage de qualité. Le noyau Linux 6.17 a été officiellement publié le 28 septembre, après la RC7.

Points marquants de la version

  • Des corrections de sécurité et de stabilité dans la pile Bluetooth (beaucoup de bugs de type use-after-free).
  • Des corrections pour les pilotes GPU et réseau (beaucoup de petites corrections).
  • Prise en charge de patch à la volée (live patching) sur ARM 64 bits.
  • Meilleur contrôle sur les atténuations de Spectre/x86.
  • Suppression officielle de la gestion des architectures monoprocesseur, (nous y reviendrons).
  • Introduction de nouveaux syscalls file_getattr() et file_setattr(), permettant la manipulation directe des attributs d’inodes via l’espace utilisateur.
  • Gestion du protocole DualPI2 pour la gestion de congestion TCP.

Sommaire

Architecture

Résumé

  • Intégration et mise à jour de la prise en charge de nombreux SoC ARM, Intel, AMD et RISC-V, dont :
  • Ajout de nouveaux contrôleurs mémoire, avec prise en charge étendue de divers matériels industriels.
  • Pilotes GPU : beaucoup de patchs pour amdgpu, i915/xe (options de debug et prise en charge de nouveaux formats colorimétrique).
  • Les cartes Realtek 8851BU/8852BU sont désormais prises en compte sur le bus USB.
  • Suppression officielle de la gestion des architectures monoprocesseur.

En détails

La suppression de la gestion spécifique des architectures monoprocesseur dans Linux 6.17 concerne toutes les architectures (x86, ARM, RISC-V, MIPS, etc.) où le noyau pouvait jusqu’ici être compilé et exécuté en mode UP (pour Uni Processor), opposé au mode SMP (Symmetric MultiProcessing).

Désormais, même les machines avec un seul cœur ou un seul processeur utiliseront des noyaux compilés avec gestion SMP activée. Cette modernisation simplifie le code de l’ordonnanceur (scheduler) et d’autres sous-systèmes internes du noyau, qui peuvent désormais partir du postulat que le système est au moins SMP, même si physiquement un seul cœur est présent. Cela permet un énorme nettoyage du code spécifique à cette fonctionnalité, et donc, à terme, une meilleure maintenance et une plus grande cohérence.

Néanmoins, l’impact, même très léger et invisible sur beaucoup de systèmes modernes, est réel. Le coût mémoire et processeur (dû à la gestion des locks) va augmenter légèrement, et impactera plus fortement les systèmes embarqués très contraints.

Pour les chiffres (et des explications), les tests effectués sur des systèmes monoprocesseurs avec un noyau SMP ont montré une baisse de performance de 5 %, et une augmentation de 0,3 % de la taille. Ingo Molnar, à l’initiative de ce changement, avait pointé le fait qu’il y avait, dans l’ordonnanceur actuel, 175 #ifdef dépendant de #CONFIG_SMP qui ont pu être nettoyés, et avec, plus de 1000 lignes de code supprimées.

Systèmes de fichiers et stockage

Résumé

  • Btrfs : la gestion de large folios est ajoutée (expérimental), tout comme des options étendues pour la défragmentation et la compression intelligente des extents. Les premiers tests de performance montrent un gain de 20 % pour la création de fichiers et diverses améliorations…
  • Ext4 : introduction du flag RWF_DONTCACHE permettant la purge automatique des données du cache après écriture, ce qui améliore certains workloads orientés I/O.
  • NFS : prise en charge des délégations d’écriture même en mode write-only, accélérant des cas d’usage précis.
  • Introduction de nouveaux syscalls file_getattr() et file_setattr(), permettant la manipulation directe des attributs d’inodes via l’espace utilisateur.
  • Bcachefs : Les relations entre le développeur de ce système de fichiers (Kent Overstreet) et les autres mainteneurs du noyau se sont largement dégradés. Plusieurs mainteneurs ont fait part de leur refus de travailler à l’avenir avec Kent ce qui a conduit Linus a ne plus accepter les demandes de mises à jour (pull requests). Bcachefs est donc figé dans cette version 6.17 du noyau (et il a été complètement retiré de la future version 6.18). Un module DKMS externe est maintenant disponible pour les utilisateurs voulant continuer à utiliser ce système de fichiers.

En détails

Pour ceux qui s’intéressent aux performances et comparatifs des différents systèmes de fichiers avec le kernel, Phoronix a testé ces FS sur ce noyau 6.17. Pas de comparatif avec les précédents noyaux, mais un comparatif entre les FS.

Le flag RWF_DONTCACHE permet des opérations de lecture ou d’écriture passant par le cache mais où les données lues ou écrites ne sont pas conservées dans ce cache une fois l’opération terminée. Autrement dit, les données ne « polluent » pas le cache mémoire, ce qui est utile pour certains types d’I/O où l’on ne veut pas fatiguer le cache avec des données temporaires ou volumineuses qui ne seront pas réutilisées rapidement. Ce flag est une option pour les appels systèmes preadv2() et pwritev2()

    ret = pwritev2(fd, &iov, 1, 0, RWF_DONTCACHE);

En ce qui concerne les délégations d’écriture, cela permet de réduire les appels réseaux (jusqu’à 90 % dans certains cas d’usages — rapport)

Les syscalls file_getattr() et file_setattr() introduits dans Linux 6.16/6.17 permettent la manipulation directe des attributs d’inode depuis l’espace utilisateur, avec une interface plus simple et plus complète que les méthodes existantes.

Réseau et connectivité

Résumé

  • Plusieurs nouveaux flags et options : SO_INQ pour AF_UNIX, extension de la gestion de MSG_MORE pour les paquets TCP volumineux et application plus stricte de la fenêtre TCP.
  • Introduction de la prise en charge du protocole de congestion DualPI2 (RFC 9332) pour TCP/IP, notamment sur IPv6.
  • Nouveau sysctl force_forwarding sur IPv6 permettant l’activation du mode forwarding.
  • Remplacement progressif de la gestion des pages réseau par des descripteurs spécialisés (struct netmem_desc), préparant l’évolution vers les folios.

En détails

Le nouveau sysctl force_forwarding permet de forcer l’activation du forwarding indépendamment d’autres configurations potentiellement conflictuelles. (En particulier sur des profils limitatifs ou locaux)

    sudo sysctl -w net.ipv6.conf.all.force_forwarding=1

Petits rappels sur les folios (aussi utilisés dans ce noyau pour Btrfs). Historiquement, le noyau Linux gère la mémoire en unités appelées « pages » (généralement 4K octets). Un folio est un regroupement logique de pages (souvent 2^N pages, comme 16 pages de 4K pour former un folio de 64K). Les folios permettent une gestion mémoire plus efficace, évitent les appels redondants liés aux pages individuelles et optimisent les copies. netmem_desc sert d’abstraction générique pour la mémoire réseau, et utilisant les folios, remplace progressivement le struct page d’origine.

L’algorithme DualPI2 est un exemple d’algorithme de gestion active de file d’attente à double file couplée (AQM) spécifié dans la RFC 9332. Il sert de composant de base AQM au sein du cadre DualQ Coupled AQM conçu pour gérer deux files d’attente : une file « Classique » pour les contrôles de congestion compatibles Reno et une file « L4S » pour les contrôles de congestion Scalables. Vous trouverez plus de détails dans l'article en lien, avec, page 6 un ensemble de tests de performance en ce qui concerne DualPI2.

Virtualisation

Résumé

  • Gestion de GSO (Generic Segmentation Offload) sur tunnel UDP dans virtio
  • KVM : Unicité des enregistrements irqfd
  • vhost-net : Prise en charge de VIRTIO_F_IN_ORDER
  • vsock : Introduction de la prise en charge ioctl SIOCINQ
  • iommu : Révision complète de la prise en charge des IRQs postées
  • vfio/qat : Prise en charge des function virutelle Intel QAT 6xxx

En détails

La prise en charge des GSO permet d’améliorer les performances des machines virtuelles en réduisant la charge CPU liée au traitement des paquets UDP.

L’irqfd (interrupt request fd) a été modifié pour être globalement unique, ce qui améliore la gestion des interruptions virtuelles et évite des collisions ou conflits dans la gestion des événements d’interruption, renforçant la stabilité et sécurité des VM.

VIRTIO_F_IN_ORDER permet de gérer un ordre strict pour les paquets pour les cartes réseaux virtuelles.

vfio, qui expose des périphériques aux machines virtuelles, ajoute la prise en charge des fonctions virtuelles des accélérateurs Intel QAT 6xxx (QuickAssist Technology), améliorant ainsi les capacités de calcul cryptographique et compression dans les environnements virtualisés.

Sécurité et cryptographie

Résumé

  • AppArmor peut désormais contrôler l’accès aux sockets AF_UNIX.
  • Ajout de nouvelles fonctions pour SHA-1, SHA-256 et SHA-512 dans la bibliothèque crypto.
  • Optimisation de CRC32c sur les CPU récents (AVX-512).
  • La gestion de la profondeur de pile via GCC/Clang permet désormais l’effacement automatisé de la stack (voir SafeStack pour plus de détails).
  • Meilleur contrôle sur les atténuations (mitigations) de Spectre/x86.
  • Ajout d’un délai de 5 secondes sur /sys/fs/selinux/user.
  • Introduction des types neversaudit dans le contexte SELinux.

En détails

Pour rappel, AF_UNIX est une classe de socket Unix permettant la communication interprocessus. Avant cet ajout, AppArmor ne gérait pas la sécurité avec ce niveau de finesse pour ces sockets. Désormais, il est possible de restreindre dans les profils AppArmor, la communication via ces sockets, entre deux applications.

Phoronix a testé les améliorations sur CRC32C sur différentes architectures récentes, qui sont résumées dans le graphique ci-dessous.
Performances CRC32C

Le noyau 6.17 introduit un meilleur contrôle sur les atténuations Spectre, grâce à un mécanisme appelé Attack Vector Controls (AVC). Le principe est simple, plutôt que d’activer ou désactiver des dizaines de protections individuelles contre les bugs d’exécution spéculative (Spectre, variantes de Meltdown, etc.), il est désormais possible de les piloter par groupes, selon la portée des attaques. Le noyau classe les atténuations en cinq catégories :

  • attaques utilisateur-vers-noyau (user-to-kernel)
  • attaques utilisateur-vers-utilisateur (user-to-user)
  • attaques invité-vers-hôte (guest-to-host)
  • attaques invité-vers-invité (guest-to-guest)
  • attaques inter-threads (cross-thread)

Avec un seul paramètre de démarrage mitigations=, il devient possible d’exclure une catégorie entière d’attaques (par exemple, désactiver toutes les protections invité-vers-invité si aucune VM non fiable n’est utilisée) et ainsi récupérer des performances.

Example: disable user-to-kernel attack mitigations, keep others at auto defaults
GRUB_CMDLINE_LINUX="... mitigations=auto,no_user_kernel ..."

Cette page liste l’ensemble des vulnérabilités CPU, et est une bonne source d’informations à ce propos.

Changements internes et outils

Résumé

  • L'ordonnanceur ajoute le cgroup v2 cpu.max pour gérer de manière plus fine l’utilisation du CPU.
  • Ajout de DAMON_STAT pour le monitoring.
  • Le montage automatique de tracefs sur /sys/kernel/debug/tracing est devenu obsolète au profit de /sys/kernel/tracing.
  • La migration vers des outils plus modernes : l’outil gconfig bascule sur GTK3.
  • Toujours plus de Rust avec de nouvelles abstractions pour la gestion du matériel et des propriétés firmware.

En détails

cpu.max est plus précis et global que les précédentes méthodes (utilisant cpu.cfs_quota_us et cpu.cfs_period_us ou cpu.shares), en s’appuyant sur l’extension CFS Bandwidth Control de CFS (Completely Fair Scheduler)

# Limite de 50ms d’utilisation CPU toutes les 100ms (50%)
echo "50000 100000" > /sys/fs/cgroup/cpu.max

DAMON_STAT est un module noyau statique de surveillance de l’espace d’adressage mémoire beaucoup plus léger que les précédentes méthodes

    # Si DAMON_STAT est compilé en module
    $ sudo modprobe damon_stat

    # Activation du monitoring 
    $ echo 1 | sudo tee /sys/kernel/mm/damon/stat/enable

    # lecture des informations
    $ cat /sys/kernel/mm/damon/stat/statistics
    damon_latency_avg: 23 ms
    damon_bandwidth_bytes_per_sec: 5242880
    damon_coldness_percentile_75: 40%
    # Désactivation
    echo 0 | sudo tee /sys/kernel/mm/damon/stat/enable

Le bilan en chiffres

Statistiquement, ce n’est certes pas le noyau le plus calme de la série 6.x, comme nous pouvons le voir sur les graphiques ci-dessous, néanmoins, il reste plutôt tranquille, avec du nettoyage et peu d’ajouts.

Statistique des noyaux 6.x

Statistique des RC du noyau 6.17

Statistique des noyaux 6.x

Statistique des noyaux 6.x

Appel à volontaires

Cette dépêche est rédigée par plusieurs contributeurs dont voici la répartition :

Mainteneur Contributeur(s)
Architecture Aucun
Développeurs Aucun
Systèmes de fichiers Aucun patrick_g
Réseau Aucun
Virtualisation Aucun
Sécurité Aucun
Changements internes Aucun
Édition générale Aucun BAud - vmagnin - orfenor

Un peu de vocabulaire :

  • le mainteneur d’une section de la dépêche est responsable de l’organisation et du contenu de sa partie, il s’engage également à l’être dans le temps jusqu’à ce qu’il accepte de se faire remplacer ;
  • un contributeur est une personne qui a participé à la rédaction d’une partie d’une section de la dépêche, sans aucune forme d’engagement pour le futur.

Nous sommes particulièrement à la recherche de mainteneurs pour toutes les parties.

Si vous aimez ces dépêches et suivez tout ou partie de l’évolution technique du noyau, vous pouvez contribuer dans votre domaine d’expertise. C’est un travail important et très gratifiant qui permet aussi de s’améliorer. Il n’est pas nécessaire d’écrire du texte pour aider, simplement lister les commits intéressants dans une section aide déjà les rédacteurs à ne pas passer à côté des nouveautés. Essayons d’augmenter la couverture sur les modifications du noyau !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Lancement de la démarche NIRD

À l’heure où la fin du support de Windows 10 nous oblige à faire des choix, un collectif enseignant de la forge des communs numériques éducatifs invite les établissements scolaires à s’engager progressivement vers un Numérique qui soit davantage Inclusif, Responsable et Durable (NIRD).

Condition nécessaire mais non suffisante, l’adoption concrète et graduelle du système d’exploitation libre GNU/Linux au sein de l’établissement scolaire constitue à la fois le socle et le levier de la démarche. Pour équiper le parc informatique (mais aussi les familles ou les écoles aux alentours) en y menant notamment des projets de reconditionnement si possible avec les élèves. Pour engager petit à petit l’ensemble de l’établissement scolaire vers un usage du numérique qui soit davantage aligné avec ses missions de service public.

« La démarche NIRD est un projet très ambitieux car non seulement elle souhaite voir à terme une majorité d’écoles, collèges et lycées équipés majoritairement en Linux, mais elle souhaite aussi et surtout s’intégrer pleinement dans la stratégie numérique et écologique des établissements scolaires, ce qui implique notamment la mobilisation des collectivités et le soutien de l’institution. »

Logo NIRD

La démarche tire son nom d’une expérience réussie au lycée Carnot de Bruay-la-Buissière témoignant que c’est possible.

La forge des communs numériques éducatifs est un projet soutenu par le ministère de l’Éducation nationale mettant à disposition des enseignantes et enseignants une instance GitLab CE pour qu’ils créent et partagent eux-mêmes leurs propres logiciels et ressources éducatives libres. Ouverte en avril 2024, la forge compte à ce jour plus de 5000 dépôts.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

NVIDIA Has Been Supplying NDA'ed Docs To Red Hat For Helping NVK Driver - Phoronix

NVidia casse quand même les couilles en refusant d'ouvrir les sources de leur pilote (au contraire d'AMD), ce qui aiderait énormément Linux.
Du coup, ce sont des développeurs chez RedHat qui essaient de développer un pilote Libre pour les cartes NVidia (le seul pilote qui existait - Nouveau - n'était pas fameux).

NVidia essaie quand même d'aider en fournissant des documentations confidentielles au développeur en question chez RedHat.
C'est pas extraordinaire, mais c'est déjà ça.

Je pense que mes prochaines cartes graphiques seront des AMD.
(D'autant que NVidia commence à ne plus supporter ses anciennes cartes dans son pilote privateur.)

(Après, actuellement je ne me plains pas : Ma NVidia RTX3070 fonctionne à merveille sous Linux avec le pilote propriétaire NVidia. Tous les jeux, même les derniers jeux Windows sortis.)
(Permalink)
  •  

2,2 millions d'utilisateurs de Linux sur ordinateur en France

Une récente analyse détaillée s’est attachée à quantifier la population d’utilisateurs de systèmes d’exploitation Linux sur ordinateur (hors serveurs) en France. En se basant sur les données publiques de trafic web de Cloudflare Radar et en appliquant une modélisation des comportements, l’étude aboutit à une estimation d’environ 2,2 millions d’utilisateurs uniques. La méthodologie ne se contente pas d’une moyenne globale (3,1 %), mais distingue les usages en fonction des moments de la semaine et de leur volume de trafic respectif. La conclusion principale est que cet usage est massivement personnel : le taux d’usage à domicile (soir et week-end) atteint 4,3 %, soit plus du double du taux observé en environnement professionnel et scolaire (2,15 %).

Un communiqué du CNLL commente cette dynamique et appelle à l’amplifier. La fin de support annoncée de Windows 10 en octobre 2025 agit comme un catalyseur, menaçant de transformer des millions d’ordinateurs parfaitement fonctionnels en déchets électroniques. Ce non-sens écologique et économique va encore pousser de nombreux utilisateurs à considérer des alternatives, et Linux, par sa capacité à redonner vie à ce matériel, apparaît comme l’un des principaux bénéficiaires potentiels de ce mouvement de fond.

Cette croissance, bien que significative, place cependant la France en deçà de la moyenne européenne (3,7 %), et loin derrière des pays comme la Finlande (7,1 %) ou l’Allemagne (5,2 %), comme le révèle le récent Indice Européen de Résilience Numérique (EDRIX). Cette communauté de plus de deux millions de personnes représente donc un levier de souveraineté numérique sous-exploité et une opportunité stratégique pour les entreprises et les pouvoirs publics.

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

KDE Linux profite de l’alignement de planètes de Microsoft

KDE Linux est en embuscade. Entre un Windows 10 qui coupe les vannes de ses mises à jour, des machines jugées obsolètes par Microsoft et un Windows 11 qui n’a pas les bonnes grâces du public. La distribution Linux se propose d’être le pas de côté qui permettrait de sortir de nombreuses machines de l’ornière.

En plus de ce passage en force vers Windows 11, passage rendu difficile par un cahier des charges pointilleux, KDE Linux compte également sur l’essor du jeu sous Linux. Une évolution rendue possible notamment par Plasma et Proton, solutions employées par Valve pour ses Steam Deck.

Cet alignement est fort, visible et a de réelles conséquences dans la vie des utilisateurs. Avoir investi dans une machine il y a plusieurs années, qui suffit encore très largement au quotidien, et qui est d’un coup jugée inapte. Ce n’est pas très agréable. Savoir que le contrat passé avec Windows est caduc et que votre PC ne sera plus maintenu en termes de sécurité, est vraiment perçu comme une trahison. La confiance de beaucoup d’utilisateurs est largement ébranlée par cette décision de Microsoft. Ce n’est pas la première fois que cela arrive avec Windows, mais aujourd’hui la pilule est plus difficile à avaler. Quand Windows est passé de 95 (1995) à XP (2002) par exemple, le problème était différent. Les évolutions matérielles entre les versions étaient importantes. Les engins changeaient d’époque et d’usages, l’arrivée en masse de nouvelles technologies comme les progrès réalisés par le matériel embarqué obligeaient à de gros changements logiciels. Notamment parce que les possibilités techniques, les codecs et les protocoles évoluaient a l’époque à vitesse grand V.  Le Wi-Fi, l’USB, le SSD, l’explosion des performances des processeurs et circuits graphiques, tout cela justifiait de gros changements. Aujourd’hui, c’est différent, le passage de Windows 10 à Windows 11 est ressenti comme un aménagement plus cosmétique qu’autre chose par les utilisateurs. Le fait de pouvoir aisément outrepasser les réticences de Microsoft avec des programmes tiers, entretient cette idée.

Bref, c’est le moment de réagir. Et l’équipe en charge de l’interface KDE a bien senti qu’il était temps de proposer quelque chose. KDE c’est une des interfaces préférées du monde Linux. Un agencement efficace, rapide et agréable qui permet d’avoir des fonctionnalités de bureau avancées. Des éléments qui ont rendu l’interface hyper populaire auprès d’une large communauté d’utilisateurs. 

Armé d’une version Alpha, un des développeurs de ce KDE Linux a présenté la distribution en détails. Moderne, frais et rapide, la distribution vise donc des machines qui n’ont pas reçu le sésame vers Windows 11 comme ceux qui recherchent une alternative au monde Microsoft. Un des points forts visés par ce système est dans la robustesse de son usage. L’image du système est comme gravée dans le silicium.

KDE Linux ne veut pas que les programmes téléchargés ou l’utilisateur puissent modifier son image système, celle-ci est stable, non altérable. L’idée est de pouvoir faire une mise à jour rapide de sa machine avec un système étanche du reste des éléments. Eviter également de vivre le pourrissement du système et pouvoir revenir à une version antérieure en cas de pépin technique ou logiciel. Cette idée est clairement pensée pour éviter de se retrouver en « panne logicielle » après une mise à jour ou simplement au quotidien. Elle ne conviendra peut-être pas aux utilisateurs les plus experts et vise clairement des gens pour qui l’informatique est plus un outil qu’une passion. Ceux qui ne veulent pas commencer la rédaction d’un courrier, une session de jeu ou une séance de comptabilité par la correction de bugs pénibles.

Pas moins de cinq versions antérieures du système seront ainsi stockées dans la machine avec la possibilité de revenir à chacune d’elle d’un simple clic. La partie logicielle externe s’appuiera sur ce KDE Linux sans l’altérer. L’installation se fera au travers d’outils secondaires comme Snap et Flatpak. Une solution qui ne satisfera pas encore une fois les amoureux des gestionnaires de paquet mais qui permet de conserver ce mur entre système et outils qui colle bien avec cette distribution. Une idée qui plaira énormément à tous ceux qui gèrent un parc de machines important ouvert à de multiples utilisateurs.

Le reste est au niveau des technologies logicielles avancées du monde Linux : la gestion des fichiers, l’affichage graphique et le son exploitent l’état de l’art en la matière. KDE Linux est intéressant à suivre pour plein de profils et répondre à plein d’usages. La version Alpha est déjà jugée exploitable même si sa parfaite stabilité n’est pas garantie. Les utilisateurs de solutions Nvidia datant d’avant 2018 et la génération Turing, n’ayant pas l’habitude d’avoir du cambouis logiciel sous les ongles, sont également invités à passer leur chemin. Il reste du travail à faire… Pour les autres, c’est un système à tester. La méthode d’installation est classique et elle est détaillée sur cette page. La distribution ne demande que 1 Go de mémoire vive et 6 Go de stockage minimum. Évidemment, des engins mieux équipés offriront plus de services. Sur l’image d’illustration de ce billet, le système tourne sur un PC Home Cinéma, un portable vieux de deux ans et un autre qui souffle sa dixième bougie.

KDE Linux profite de l’alignement de planètes de Microsoft © MiniMachines.net. 2025

  •  

mpv.io

Plus le temps passe, et plus j'apprécie mpv comme lecteur vidéo à la place de VLC.
Non seulement les raccoucis clavier sont très bien faits, mais mpv consomme beaucoup moins de CPU que les autres. Avec son décodage matériel, ça fait une belle différence si vous êtes sur batterie.
Et il démarre très vite.
(Permalink)
  •  

Linus Torvalds Expresses Frustration With 'Garbage' Link Tags In Git Commits

"I have not pulled this, I'm annoyed by having to even look at this, and if you actually expect me to pull this I want a real explanation and not a useless link," Linus Torvalds posted Friday on the Linux kernel mailing list. Phoronix explains: It's become a common occurrence seeing "Link: " tags within Git commits for the Linux kernel that point to the latest Linux kernel mailing list patches of the same patch... Linus Torvalds has had enough and will be more strict against accepting pull requests that have link tags of no value. He commented yesterday on a block pull request that he pulled and then backed out of: "And dammit, this commit has that promising 'Link:' argument that I hoped would explain why this pointless commit exists, but AS ALWAYS that link only wasted my time by pointing to the same damn information that was already there. I was hoping that it would point to some oops report or something that would explain why my initial reaction was wrong. "Stop this garbage already. Stop adding pointless Link arguments that waste people's time. Add the link if it has *ADDITIONAL* information.... "Yes, I'm grumpy. I feel like my main job — really my only job — is to try to make sense of pull requests, and that's why I absolutely detest these things that are automatically added and only make my job harder." A longer discussion ensued... Torvalds: [A] "perfect" model might be to actually have some kind of automation of "unless there was actual discussion about it". But I feel such a model might be much too complicated, unless somebody *wants* to explore using AI because their job description says "Look for actual useful AI uses". In today's tech world, I assume such job descriptions do exist. Sigh... Torvalds: I do think it makes sense for patch series that (a) are more than a small handful of patches and (b) have some real "story" to them (ie a cover letter that actually explains some higher-level issues)... Torvalds also had two responses to a poster who'd said "IMHO it's better to have a Link and it _potentially_ being useful than not to have it and then need to search around for it." Torvalds: No. Really. The issue is "potentially — but very likely not — useful" vs "I HIT THIS TEN+ TIMES EVERY SINGLE F%^& RELEASE". There is just no comparison. I have literally *never* found the original submission email to be useful, and I'm tired of the "potentially useful" argument that has nothing to back it up with. It's literally magical thinking of "in some alternate universe, pigs can fly, and that link might be useful" Torvalds: And just to clarify: the hurt is real. It's not just the disappointment. It's the wasted effort of following a link and having to then realize that there's nothing useful there. Those links *literally* double the effort for me when I try to be careful about patches... The cost is real. The cost is something I've complained about before... Yes, it's literally free to you to add this cost. No, *YOU* don't see the cost, and you think it is helpful. It's not. It's the opposite of helpful. So I want commit messages to be relevant and explain what is going on, and I want them to NOT WASTE MY TIME. And I also don't want to ignore links that are actually *useful* and give background information. Is that really too much to ask for? Torvalds points out he's brought this up four times before — once in 2022. Torvalds: I'm a bit frustrated, exactly because this _has_ been going on for years. It's not a new peeve. And I don't think we have a good central place for that kind of "don't do this". Yes, there's the maintainer summit, but that's a pretty limited set of people. I guess I could mention it in my release notes, but I don't know who actually reads those either.. So I end up just complaining when I see it.

Read more of this story at Slashdot.

  •  

Kazeta, un Linux pour transformer son PC en console de jeu ?

Kazeta est une distribution Linux très particulière. Elle a été développée par le créateur de ChimeraOS, une des nombreuses distributions Linux qui s’est emparée du système d’exploitation du Steam Deck pour le porter sur d’autres matériels. Kazeta est un mot tchèque qui vient de l’italien cassetta et qui veut dire cassette ou cartouche de jeu.

Avec Kazeta, l’auteur a voulu aller plus loin dans son approche console. Le système, une fois installé sur un PC, fonctionne un peu de la même manière qu’une  Nintendo NES. Le système n’embarque pas de jeu et n’en stocke pas. A vrai dire, les spécifications minimales de la distribution se contentent de 32 Go de stockage seulement. Une fois la machine allumée, elle attend de pouvoir lire les jeux sur une carte SD. Une fois celle-ci insérée, le système lit le jeu et le démarre.

C’est une approche assez étrange puisqu’elle suppose beaucoup d’aménagements contre-intuitifs dans le monde PC. On ne profite pas des capacités de stockage de ces engins mais, au contraire, on va multiplier les supports. Chaque jeu demande sa propre carte SD, ce qui va vite couter assez cher et risque probablement d’user le lecteur de cartes et les SD elles-mêmes. 

Autre souci, les jeux doivent être « sans DRM » ce qui limite malheureusement beaucoup le  catalogue. Certains jeux indépendants ont cet état par défaut ainsi que les titres achetés sur GoG. Mais tous les catalogues classiques de jeux Steam ou EGS ne pourront pas être déplacés sur les cartes. Ce « déplacement » est également à votre charge. Il faudra préparer votre jeu vous-même et le pousser vers une carte SD en amont en suivant un protocole précis. Puis créer un fichier .kzi pour indiquer au  système le nom du jeu, ajouter une icône et le lien ver l’exécutable à lancer pour démarrer le jeu

Le fonctionnement est donc amusant, on glisse sa carte SD dans son PC qui lance ensuite le jeu. Si on a ajouté une petite étiquette sur la carte, on retrouve l’ambiance des cartouches. Cela peut rendre service à certains profils… Mais cela n’est finalement qu’assez peu pratique et fort peu économique. Sans parler du léger souci de devoir acheter de bonnes cartes SDXC… Les cartes entrée de gamme aux performances minimales demanderont un temps de démarrage des jeux totalement rédhibitoire. L’achat pour chaque titre d’une carte SDXC rapide et de belle capacité est tout de même une grosse contrainte par rapport à l’achat d’un unique SSD qui embarquera tous ses jeux sur un système classique.

Kazeta a tout de même ses avantages, il permet de jouer déconnecté, sans avoir de compte ou d’abonnement. Il n’a pas besoin d’une grosse machine et permet de contrôler ce qui va être lancé sur celle-ci. Cela peut avoir du sens pour certains utilisateurs de ne pas dépendre d’une connexion ou de ne pas y avoir accès. Cela évite également de laisser certains jeux ouverts à des microtransactions. C’est également peut être un moyen de recycler un engin un peu daté en une console en accès libre avec un pack de petites cartes SD contenant des titres « sécurisés ».

Le système est encore largement en développement et il est évidemment gratuit : https://kazeta.org/

Kazeta, un Linux pour transformer son PC en console de jeu ? © MiniMachines.net. 2025

  •  

Linus Torvalds Marks Bcachefs as Now 'Externally Maintained'

Linus Torvalds updated the kernel's MAINTAINERS file to mark Bcachefs as "externally maintained," signaling he won't accept new Bcachefs pull requests for now. "MAINTAINERS: mark bcachefs externally maintained," wrote Torvalds with the patch. "As per many long discussion threads, public and private." "The Bcachefs code is still present in the mainline Linux kernel likely to prevent users from having any immediate fall-out in Bcachefs file-systems they may already be using, but it doesn't look like Linus Torvalds will be honoring any new Bcachefs pull requests in the near future," adds Phoronix's Michael Larabel.

Read more of this story at Slashdot.

  •