Vue lecture

GLF OS, distribution Linux spécialisée dans le jeu vidéo, est disponible en bêta

Brave new world
GLF OS, distribution Linux spécialisée dans le jeu vidéo, est disponible en bêta

La distribution GLF OS, axée sur le jeu vidéo, est désormais disponible en bêta publique. Dans ce premier article, nous allons présenter les grandes lignes du système. Dans un deuxième temps, nous ferons une prise en mains de GLF OS et nous pencherons plus généralement sur le jeu vidéo sur Linux.

Le jeu vidéo représente souvent une barrière au changement d’environnement. Sur PC, l’immense majorité des titres ne sont disponibles que sous Windows, quelle que soit la boutique utilisée pour y jouer. Il est plus simple de trouver des équivalents Linux pour la plupart des applications que de faire fonctionner ses jeux préférés. Du moins, ce fut le cas pendant longtemps.

La situation a sérieusement commencé à évoluer ces dernières années, sous l’impulsion de Valve particulièrement. Le projet Proton, issu d’un fork de Wine, est désormais au cœur d’une offensive de l’éditeur dans le monde du jeu vidéo. Il est pleinement intégré à Steam OS, que l’on retrouve surtout sur la console portable Steam Deck. Celle-ci ayant connu un grand succès commercial, elle a fait des émules, entrainant une réflexion nouvelle sur la possibilité de jouer sur Linux. GLF OS arrive donc à un tournant intéressant.

Une naissance simple

Vinceff, très impliqué dans la communauté Linux avec notamment de nombreuses vidéos tutos, est l’initiateur de GLF OS (dépôt GitHub). Comme il nous le raconte, il était utilisateur de Mageia. Il avait basculé sur Linux après une énième mise à jour problématique de Windows 10 et s’était rendu compte que ses jeux principaux fonctionnaient sur la distribution. C’est dans ce contexte qu’il commence à proposer des vidéos.

Rapidement, la chaine YouTube gagne des dizaines d’abonnés. Quand le cap des 250 est franchi, Vinceff décide d’ouvrir un serveur Discord pour favoriser les discussions. Il le nomme simplement Gaming Linux FR et les personnes affluent, aussi bien des « sachants » que d’autres, intéressées par le thème et cherchant des réponses à des problèmes pratiques.

Le Discord, créé pendant la crise sanitaire, compte aujourd’hui plus de 3 300 membres. Aucune distribution n’est privilégiée, la thématique étant l’entraide sur le thème général du jeu sur Linux. L’idée est cependant venue d’une distribution qui serait entièrement tournée vers le jeu, en facilitant la prise en main et en donnant immédiatement accès aux outils courants. Le projet a été nommé GLF OS, GLF étant une simple contraction de Gaming Linux FR.

Le système est aujourd’hui le résultat d’un travail d’équipe, comprenant des contributions de plusieurs dizaines de développeurs, le cœur de l’équipe étant constitué d’une petite vingtaine de personnes. Le projet, lui, est codirigé par Vinceff et Cammi.

Une base NixOS

Un grand nombre de distributions sont basées sur Debian ou Ubuntu. GLF OS a regardé ailleurs : vers NixOS. Cette distribution Linux ne date pas d’hier, puisque le projet de recherche qui lui a donné naissance date de 2003. Le système a même sa propre fondation depuis 2015.

NixOS est avant tout basée sur le gestionnaire de paquets Nix. Tout se fait par une configuration déclarative : on écrit dans un fichier texte ce que l’on souhaite, et le gestionnaire construit le système à partir de ces informations. C’est autant le cas pour l’installation initiale que pour les mises à jour.

Comme nous l’explique Vinceff, cette approche déclarative est couplée à une gestion transactionnelle des configurations. Les mises à jour sont donc atomiques, ce qui signifie – dans les grandes lignes – que les opérations liées créent une nouvelle image du système, sur laquelle l’utilisateur ne bascule réellement qu’au redémarrage suivant, si aucune erreur n’a été détectée. Ce mécanisme permet une fiabilité généralement plus élevée, car l’image utilisée est en lecture seule. L’atomicité a particulièrement le vent en poupe depuis quelques années, notamment chez Fedora.

NixOS propose toujours deux versions par an, en mai et novembre. La numérotation des versions est la même que pour beaucoup de distributions : l’année suivie du mois. La toute fraiche version 25.05 désigne ainsi la version « mai 2025 ». Le système est disponible en deux branches, stable et unstable. Pour ses objectifs, GLF OS compose avec les deux, comme nous le verrons.

GLF OS : premier contact

L’installation de GLF OS ne réserve aucune surprise. L’environnement par défaut est GNOME, mais l’installateur permet de changer pour KDE. Pour le reste, on est sur la liste habituelle des questions pour cette étape, avec choix du partitionnement, création du temps, sélection du fuseau horaire, etc.

Il y a quand même une étape importante : le choix de l’édition. Par défaut, « Standard » installe la version complète du système pensée pour le jeu vidéo, qui réclame environ 20 Go d’espace libre. Il s’agit d’une suite complète, avec notamment Firefox en navigateur par défaut et LibreOffice pour la bureautique. On peut également choisir une installation minimale, fournie presque sans aucune application. Deux autres éditions sont proposées. La première, Studio, est orientée vers tout ce qui touche à la création graphique. La seconde est une variation intégrant Da Vinci Resolve (une licence est nécessaire).

L’installation (Standard dans notre cas) est un peu plus longue que pour une distribution ordinaire, NixOS ayant besoin d’un peu plus de temps pour construire le système, à partir des scripts propres à GLF OS. Au redémarrage, le bureau est très classique. Bien qu’il s’agisse d’une base GNOME modifiée, notamment pour avoir un dock affiché en permanence (via Dash to Dock), elle ne choquera pas longtemps une personne venant de n’importe quelle autre distribution GNOME.

L’un des éléments peut-être les plus « étranges », c’est l’absence apparente de gestion des mises à jour. Le système s’en occupe en fait seul et envoie simplement une notification pour indiquer qu’une opération est terminée. Dans ce cas, les changements ne seront pas appliqués tant que GLF OS n’aura pas redémarré. Le redémarrage n’est jamais suggéré.

En outre, l’installation d’applications supplémentaires se fait via Flatpak et passe par Easy Flatpak. L’approche générale de GLF OS se veut résolument moderne : un système atomique et des conteneurs logiciels.

Le jeu vidéo comme spécialité

GLF OS étant spécialisée dans le jeu vidéo, la distribution contient plusieurs applications dédiées à cet usage. Déjà, les personnes ayant un PC équipé d’un GPU NVIDIA auront la bonne surprise de constater que ce dernier est détecté et que l’installation des pilotes correspondants est automatique.

Côté logithèque, on retrouve bien sûr Wine et Proton, tous deux disponibles dans leur dernière révision. La distribution propose également trois applications cruciales : Steam évidemment, ainsi que Lutris et Heroic. Les deux dernières sont des clients capables de se connecter à des comptes Steam, Ubisoft, EA, Epic, GOG ou encore Amazon. De là, ils permettent l’accès aux jeux en créant un environnement préconfiguré pour permettre leur lancement grâce à Proton.

Dans cet esprit d’une plateforme pensée pour le jeu vidéo, on trouve tout un ensemble de modifications et d’ajouts. Par exemple, la base du système repose sur la branche stable de NixOS (GNOME, KDE, Wayland, Pipewire, pilotes NVIDIA…), mais tout ce qui nécessite des mises à jour régulières s’appuie sur la branche unstable. C’est le cas pour toutes les applications en lien avec le jeu vidéo comme Steam, Heroic Games Launcher, Lutris, Proton, Mesa et autres.

GLF OS apporte en outre ses propres modifications, dont le kernel qui est une version 6.14 modifiée pour régler certains soucis de compatibilité, notamment avec le Ryzen 9800 X3D d’AMD. L’équipe a également intégré des paquets pour étendre le support des volants de jeu (ThrustMaster, Fanatec et Logitech) et des manettes (Xbox, PlayStation, Switch et 8bitdo).

Nous aurons l’occasion de revenir sur le sujet avec une prise en main concrète et un retour d’expérience sur ce qu’est le jeu vidéo sur Linux aujourd’hui. En attendant, la bêta de GLF OS peut être téléchargée depuis son site officiel.

  •  

Intel propose les drivers Arc et Iris Xe 32.0.101.6876

Intel propose de nouveaux drivers, les Arc et Iris Xe 32.0.101.6876, exempt de signature numérique. Ils promettent des performances optimales dans les jeux FBC: Firebreak, Rematch, Stellar Blade et Tom Clancy's Rainbow Six Siege X, ainsi que la correction d'un bug d'artefact touchant la série B. Le téléchargement se passe ici. […]

Lire la suite
  •  

Les premiers tarifs FR des RX 9060 XT en 8 Go et 16 Go, aie, aie, aie...

Nous avons donc des tarifs en boutique FR qui viennent de tomber pour les RX 9060 XT. Pour rappel, encore une fois, nous sommes désolés, la RX 9060 XT repose sur l'architecture RDNA 4, avec une finesse de gravure de 4 nm, elle dispose de 32 unités de calcul, pour un total de 2048 SP et 29.7 milliards de transistors. Concernant la mémoire, nous serons sur de la GDDR6 128 bits. Les cartes ont été annoncées à 299 et 349 dollars, pour les modèles 8 et 16 Go. Nous ne connaissons pas encore les MSRP pour la France, mais notre petit doigt nous dit que nous serons sur 319 et 369 euros. Et je peux vous dire que notre petit doigt, enfin surtout celui de Jonh est bien informé, très bien informé même. […]

Lire la suite
  •  

Hop, un nouveau HotFix chez NVIDIA !

NVIDIA nous annonce la disponibilité d'un nouveau HotFix, cela deviendrait presque chronique... Le but est de corriger de potentiels crashs observés dans les jeux Dune: Awakening, EA Sports FC 25 et Clair Obscur: Expedition 33, ainsi que des soucis d'ombres dans Dragons Dogma 2 et des problèmes de lecture vidéo dans un navigateur web. Le HotFix se nomme 576.66, il est basé sur le dernier driver 576.52 et est téléchargeable ici […]

Lire la suite
  •  

Cartes graphiques NVIDIA RTX 5000 et AMD RX 9000 : MSRP versus VRAIS PRIX semaine 23-2025 ???

On vous propose ce jour de faire un nouveau petit point sur les prix des cartes graphiques de toute dernière génération, à savoir les RTX 5000 de NVIDIA et les RX 9000 d'AMD. Comme toujours, nos prix proviennent de boutiques françaises, et pas de boutiques étrangères ou de market place. Nous allons voir si la période du Computex a changé quelque-chose. On commence avec les références des rouges et avec le rappel du MSRP : - Radeon RX 9070, MSRP de 629 euros, tarif en boutique de 699.90 euros, - 10 euros par rapport à la semaine dernière - Radeon RX 9070 XT, MSRP de 689 euros, tarif en boutique de 769.90 euros, pas de changement par rapport à la semaine dernière […]

Lire la suite
  •  

Rendez-vous à 15h00 pour découvrir notre test de la RX 9060 XT 16 Go

A priori, déjà, toutes les rédactions ont le même NDA et les pilotes ont aussi été envoyés en temps et en heure à tout le monde, pas comme NVIDIA avec les 5060. Par contre, comme chez NVIDIA, il semblerait que les rouges se soient concentrées sur les cartes graphiques en 16 Go, et cela, malgré les mots de Frank Azor qui assurait que 8 Go était encore suffisant pour beaucoup. Bref, aujourd'hui, nous aurons donc le test d'un modèle type MSRP et demain nous vous proposons des tests portant sur des cartes non MSRP avec des systèmes de refroidissement plus poussés, du RGB et de l'OC. […]

Lire la suite
  •  

Razer HyperFlux V2, un tapis pour recharger sa souris en jouant

Razer, la marque lifestyle leader pour les joueurs, annonce aujourd'hui le lancement du Razer HyperFlux V2, un système de charge sans fil innovant qui permet de recharger ses souris Razer sans station d'accueil ni câble. « Le Razer HyperFlux V2 est conçu pour répondre aux exigences des joueurs qui veulent allier performance et confort pendant qu'ils jouent. » déclare Barrie Ooi, Head of PC Gaming Division de Razer. « En donnant la possibilité de jouer tout en rechargeant sa souris, ce nouveau système de charge est conçu pour garantir une expérience de jeu ininterrompue : c'est l'accessoire idéal pour un setup immersif. » […]

Lire la suite
  •  

☕️ ChatGPT étend sa « mémoire » à tous les utilisateurs gratuits

OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.

Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.

Boite de conserve avec du faux cerveau en cube pixelisé par Flock

Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.

Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.

Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.

  •  

Disques durs : Seagate passe à 40 To et prépare l’avenir avec 100 To et plus

Pour une poignée de To
Disques durs : Seagate passe à 40 To et prépare l’avenir avec 100 To et plus

Chez Seagate, les disques durs de 40 To sont une réalité. Le fabricant se prépare déjà à la suite avec 50 To à partir de 2028… et même plus de 100 To à l’avenir. Oui, on parle toujours d’un disque dur avec un format classique de 3,5 pouces.

Lors d’une présentation aux investisseurs et analystes, Seagate a donné quelques informations sur ses avancées en termes de capacité des disques durs, et le fabricant voit loin et gros. Il était évidemment question de la nouvelle génération de HDD exploitant la technologie maison HAMR (Heat-assisted magnetic recording).

Mozaic et HAMR, vous avez les bases ?

Elle utilise pour rappel un faisceau laser afin d’atteindre localement plusieurs centaines de degrés Celsius pour polariser de manière stable un grain magnétique sur la surface du plateau. Western Digital mise sur une autre approche : le MAMR (Microwave-Assisted Magnetic Recording ou enregistrement magnétique assisté par micro-ondes).

Dans les deux cas, les disques durs peuvent être utilisés comme n’importe quel autre HDD, il n’y a pas besoin d’un contrôleur spécial.

4 To par plateau, 10 plateaux par HDD


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ ChatGPT étend sa « mémoire » à tous les utilisateurs gratuits

OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.

Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.

Boite de conserve avec du faux cerveau en cube pixelisé par Flock

Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.

Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.

Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.

  •  

NVIDIA chasse les bugs et offre un thème sombre / clair à son NV App

Beaucoup l'espéraient, le panneau de configuration des pilotes GeForce a évolué l'année dernière. Ceux qui prenaient la refonte de l'AMD Software comme référence ont pu voir que le caméléon avait su redonner une seconde jeunesse à ce panneau des pilotes, en le fusionnant avec feu GeForce Experience....

  •  

James Webb Space Telescope Discovers the Earliest Galaxy Ever Seen

The James Webb Space Telescope has discovered the most distant galaxy ever observed, named MoM z14. NASA estimates it existed just 280 million years after the Big Bang. Space.com reports: Prior to the discovery of MoM z14, the galaxy holding the title of earliest and distant was JADES-GS-z14-0, which existed just 300 million years after the Big Bang, or around 13.5 billion years ago. This previous record galaxy has a redshift of z =14.32, while MoM z14 has a redshift of z = 14.44. There is a wider context to the observation of MoM z14 than the fact that it has broken the record for earliest known galaxy by 20 million years, though, as [explained team member and Yale University professor of Astronomy and Physics Pieter van Dokkum]. The researchers were able to determine that MoM z14 is around 50 times smaller than the Milky Way. The team also measured emission lines from the galaxy, indicating the presence of elements like nitrogen and carbon. "The emission lines are unusual; it indicates that the galaxy is very young, with a rapidly increasing rate of forming new stars," van Dokkum said. "There are also indications that there is not much neutral hydrogen gas surrounding the galaxy, which would be surprising: the very early universe is expected to be filled with neutral hydrogen. "That needs even better spectra and more galaxies, to investigate more fully." The presence of carbon and nitrogen in MoM z14 indicates that there are earlier galaxies to be discovered than this 13.52 billion-year-old example. That is because the very earliest galaxies in the universe and their stars were filled with the simplest elements in the cosmos, hydrogen and helium. Later galaxies would be populated by these heavier elements, which astronomers somewhat confusingly call "metal," as their stars forged them and then dispersed them in supernova explosions. The research has been published on arXiv.

Read more of this story at Slashdot.

  •  

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l’aide de l’intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière… pour mieux revenir ultérieurement ?

Point d’orgue de l’année chez Microsoft en matière d’annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l’intelligence artificielle générative. Au gré de ses différentes présentations, l’éditeur a réaffirmé son ambition d’installer un « agent IA » partout où l’utilisation d’un modèle de langage serait susceptible d’avoir un intérêt.

Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l’assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d’un environnement spécifié par l’utilisateur.

Des tickets assistés par IA

Outre cet agent, à qui il suffit d’assigner un ticket pour l’activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l’entreprise.

Dans son billet d’annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d’écran illustrant le défaut, entraîne la création d’un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d’enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l’éditeur.

Las, l’accueil ne s’est pas révélé aussi favorable qu’escompté, comme en témoigne une discussion, initiée quelques jours après l’annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l’interface de gestion d’un dépôt.

Perte de temps et atteinte aux valeurs personnelles

Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d’une atteinte ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».

Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l’idée d’une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l’IA est utilisée dans le dépôt », résume l’un des participants.

Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l’interface sans crier gare. « Il se peut qu’elle ait disparu, temporairement. Elle reviendra d’une façon ou d’une autre, c’est garanti », lui répond un autre participant.

GitHub n’a pour l’instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l’entreprise a annoncé le 29 mai le lancement, en early preview, d’une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.

  •  

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub fait marche arrière sur la création de tickets assistée par IA

GitHub a inauguré le 19 mai dernier, en preview publique, une fonctionnalité visant à faciliter la création de tickets à l’aide de l’intelligence artificielle de Microsoft, Copilot. Face à la bronca des utilisateurs, la plateforme a discrètement fait marche arrière… pour mieux revenir ultérieurement ?

Point d’orgue de l’année chez Microsoft en matière d’annonces dédiées au monde des développeurs, la conférence Build a, cette année encore, accordé une place prépondérante à l’intelligence artificielle générative. Au gré de ses différentes présentations, l’éditeur a réaffirmé son ambition d’installer un « agent IA » partout où l’utilisation d’un modèle de langage serait susceptible d’avoir un intérêt.

Événement pour développeur oblige, GitHub (racheté pour mémoire 7,5 milliards de dollars en 2018) figurait logiquement au centre des attentions avec, entre autres annonces, une mise à niveau significative de l’assistant GitHub Copilot, censée faire de ce dernier un véritable agent capable de coder de façon autonome au sein d’un environnement spécifié par l’utilisateur.

Des tickets assistés par IA

Outre cet agent, à qui il suffit d’assigner un ticket pour l’activer, GitHub a profité de la Build pour déployer, plus discrètement cette fois, une autre fonctionnalité destinée aux utilisateurs finaux de la plateforme. « Pour vous aider à créer plus facilement des tickets de meilleure qualité, vous pouvez désormais créer des tickets en discutant avec Copilot », a introduit un porte-parole de l’entreprise.

Dans son billet d’annonce, il décrit comment le prompt « crée-moi un ticket pour un problème de rendu du markdown dans les commentaires », associé à une capture d’écran illustrant le défaut, entraîne la création d’un ticket complet, dûment documenté, avec description, et comparaison entre les comportements constaté et attendu. Bref, un rêve de développeur ? « Nous espérons que ces changements changeront la corvée de la création de tickets en jeu d’enfant, vous libérant ainsi un temps précieux pour vous concentrer sur la résolution des problèmes, et pas seulement sur leur documentation », se réjouit l’éditeur.

Las, l’accueil ne s’est pas révélé aussi favorable qu’escompté, comme en témoigne une discussion, initiée quelques jours après l’annonce, au titre en forme de pétition : « Allow us to block Copilot-generated issues (and PRs) from our own repositories ». Autrement dit, autorisez-nous à bloquer les problèmes générés par Copilot ainsi que les pull requests associées, directement depuis l’interface de gestion d’un dépôt.

Perte de temps et atteinte aux valeurs personnelles

Mcclure, qui signe cet appel, explique voir dans cette génération automatisée une perte de temps doublée d’une atteinte ses valeurs quant à la pratique du code. « Filtrer ces problèmes/PR générés par IA représentera un fardeau supplémentaire pour moi en tant que mainteneuse, gaspillant non seulement mon temps, mais aussi celui des personnes ayant soumis les problèmes (qui ont généré du contenu IA auquel je ne répondrai pas), ainsi que du temps de votre serveur (qui a dû préparer une réponse à laquelle je ne donnerai pas suite) ».

Le message a été « upvoté » (approuvé et soutenu afin de lui donner de la visibilité) près de 1 300 fois. La conversation qui suit confirme que l’idée d’une assistance IA pour la création de tickets est loin de faire consensus. « Les propriétaires de dépôts doivent avoir le contrôle sur le moment et l’endroit où l’IA est utilisée dans le dépôt », résume l’un des participants.

Dix jours plus tard, un commentateur constate que la fonctionnalité décriée a disparu de l’interface sans crier gare. « Il se peut qu’elle ait disparu, temporairement. Elle reviendra d’une façon ou d’une autre, c’est garanti », lui répond un autre participant.

GitHub n’a pour l’instant ni réagi, ni commenté. Après tout, cette intégration était présentée comme une préversion publique, sujette à modification. En revanche, l’entreprise a annoncé le 29 mai le lancement, en early preview, d’une fonctionnalité baptisée Copilot Spaces, qui doit permettre aux gestionnaires de projets de centraliser tous les éléments de contexte susceptibles de servir à améliorer la qualité des réponses fournies par Copilot.

  •  

☕️ Pegasus : NSO Group fait appel de sa condamnation

NSO Group a déposé une demande de procès pour contester sa condamnation à 167 millions de dollars de dommages et intérêts. 


En décembre, à l’issue de 5 ans de procédure judiciaire, la société israélienne avait été condamnée par un tribunal états-unien pour avoir exploité un bug de l’application de messagerie WhatsApp et infecté 1 400 smartphones de journalistes, de militants des droits humains et de dissidents entre 2018 et 2020.

En mai, elle était condamnée par un jury populaire à accorder 167 millions de dollars de dommages et intérêts à Meta et à dévoiler les coulisses de son logiciel Pegasus.

Ce 3 juin, l’entreprise a déposé une demande (.pdf) de « remittitur », une procédure qui permet de réclamer la réduction du montant d’une peine.

L’entreprise qualifie les dommages et intérêts qui lui sont demandés de « scandaleux », « ouvertement illégaux » et « inconstitutionnellement excessifs ».

Ses avocats estiment que le jury présentait une « hostilité générale à l’égard [des] activités commerciales » de NSO, et que sa décision reflétait le « désir inapproprié » de mettre l’entreprise en faillite. 


Auprès de TechCrunch, une porte-parole de WhatsApp déclare que la filiale de Meta continuera de s’opposer à NSO Group face à la justice.

  •  

TSMC : un wafer 2 nm coûterait jusqu'à 30 000 $ !!!

Aujourd'hui, nous avons le droit à quelques informations en provenance de chez China Times qui évoquent les couts des wafers chez TSMC. Et vous allez le voir, les couts atteignent désormais des sommets. Le prix d'un wafer gravé en 2 nm avoisinerait les 30 000 dollars, tandis qu'un wafer en 1,6 nm pourrait atteindre les 45 000 dollars, pour un substrat standard de 300 mm.Ces tarifs s'expliquent par la complexité du processus de fabrication, notamment l'utilisation de la lithographie EUV, de matériaux exotiques, et de contrôles qualité extrêmement stricts. […]

Lire la suite
  •  

Bon Plan : Hellslave offert sur Steam

Alors que le jeu Hellslave 2 a tout juste été annoncé, voilà que le premier opus est actuellement offert sur Steam. Un bon moyen de faire connaitre la série pour attirer encore plus de joueurs, d'autant plus que le jeu est encore récent. De la dark fantasy à outrance avec une direction artistique marquée, voilà le programme de ce dungeon cralwer implacable. Ca se passe ici. […]

Lire la suite
  •  

AX Gaming dissimule aussi le 12VHPWR sur ses GeForce RTX 5000 X3W MAX

Il n'y a donc pas que chez GIGABYTE/AORUS que l'on a décidé de planquer le 12VHPWR. En effet, AX Gaming va également le faire sur sa gamme GeForce RTX 5000 X3W MAX qui compte des RTX 5090D, RTX 5080, RTX 5070 Ti et RTX 5070. Au programme, une grosse carte, avec trois ventilateurs, un gros dissipateur et deux caches supérieurs afin de planquer le connecteur 12VHPWR. […]

Lire la suite
  •  

Du vert qui claque pour la 8BitDo Ultimate 2 Wireless

Chez 8BitDo, on aime bien mettre de la couleur sur les manettes, et les dernières déclinaisons de la série Ultimate ne passent pas forcément inaperçues. Mais là... 8BitDo tente l'approche acidulée avec une manette Ultimate 2 Wireless en vert pétant, et c'est pas mal. Avec un petit mais, ou plutôt une interrogation : pourquoi la Wireless et pas la Bluetooth qui se destine à la Switch ? Les accessoires de la console de Nintendo sont souvent colorés, et la manette irait à merveille avec. Peut-être qu'une déclinaison arrivera plus tard, comme ce fût le cas pour le lancement de la gamme Ultimate 2, qui se démarque des anciennes manettes par la présence de sticks TMR. […]

Lire la suite
  •  

GIGABYTE officialise sa très belle Aorus GeForce RTX 5090 Stealth Ice

GIGABYTE, qui avait présenté la carte en vrai pour la première fois lors du dernier Computex, officialise donc pour de bon sa magnifique Aorus GeForce RTX 5090 Stealth Ice. Au programme, une carte ultra haut de gamme, qui s'offre un système de refroidissement au top du top, avec chambre à vapeur, caloducs, ailettes en aluminium et pas moins de 3 ventilateurs. La carte s'offre aussi un petit écran sur sa tranche et se passe juste de connecteur 12VHPWR sur cette tranche. […]

Lire la suite
  •