Vue normale
Yet Another Longtime Linux Driver Maintainer At Intel Has Left
Satellites Are Leaking the World's Secrets: Calls, Texts, Military and Corporate Data
Read more of this story at Slashdot.
-
Le comptoir du hardware
- be quiet! lance son Pure Rock Slim 3 : plus grand, plus lourd, plus discret, mais pas plus fort
be quiet! lance son Pure Rock Slim 3 : plus grand, plus lourd, plus discret, mais pas plus fort

Fin de Windows 10 : à Bordeaux, des associations du libre sentent la différence
Un problème ? Non non, une opportunité

Le support technique de Windows 10 s’arrête aujourd’hui. Nous avons commencé à explorer le libre comme solution de remplacement et nous nous sommes rapprochés d’associations. À Bordeaux, plusieurs d’entre elles étaient réunies pour faire découvrir Linux et les logiciels libres.
Comme prévu, Windows 10 n’a désormais plus de support technique. En Europe, les utilisateurs peuvent s’inscrire avec leur compte Microsoft pour obtenir un an de support supplémentaire, mais le problème ne fait que se décaler. Comme nous l’avons vu, les ESU (Extended Security Updates) ne s’appliquent que sur les failles critiques et importantes. Les vulnérabilités modérées et faibles ne sont pas corrigées, pas plus que les bugs non liés à la sécurité.
Cette fin de support entraine la question : que faire ? Microsoft aimerait que les systèmes soient mis à jour vers Windows 11 ou remplacés par de nouvelles machines si le matériel d’origine est trop ancien. Si l’on ne sait pas combien d’ordinateurs sont concernés par cette impossibilité, la fourchette donnée est le plus souvent chiffrée en centaines de millions d’appareils. Magali Garnero, présidente de l’April, n’hésitait ainsi pas à évoquer un « écocide total ».
Le libre est souvent présenté comme la solution idéale, grâce à deux arguments majeurs : les logiciels sont gratuits dans l’immense majorité des cas et Linux peut redonner vie à des configurations fatiguées par de longues années de Windows sans entretien. De nombreuses questions se posaient cependant : dans quelle mesure les néophytes adopteraient-ils cette solution, par exemple ? Et surtout, comment les personnes concernées allaient être mises au courant ?
Le 11 octobre, quatre associations étaient réunies à la Maison des Associations à Mérignac, dans la banlieue de Bordeaux, pour faire découvrir le libre. Si l’évènement était le théâtre de plusieurs présentations et discours sur de nombreux sujets (dont une initiation à OpenStreetMap), le principal sujet était bien la fin du support de Windows 10. Sur place, nous avons pu observer que l’information circulait. Et les personnes présentes n’étaient pas nécessairement celles auxquelles on aurait pu s’attendre.
« Merci Microsoft ! »
Dans la salle, plusieurs dizaines de personnes étaient présentes, dont la plupart assises à des tables, face à des ordinateurs. Dans certains cas, il s’agissait de leurs propres appareils, mais d’autres assistaient à des présentations réalisées sur les ordinateurs des membres des associations. Linux Mint y tenait d’ailleurs une bonne place.
Nous avons été surpris par la moyenne d’âge des personnes présentes : la plupart étaient retraitées. Autre surprise, une quasi-parité hommes/femmes dans l’assistance.
Battlefield 6 : après les comparatifs de GPU, en voici un de CPU !
Avant même le lancement du jeu, notre Thibaut à H&Co vous faisait profiter de son Performance Test de cartes graphiques sur Battlefield 6. Le jour de la sortie du titre, nous vous proposions de compléter notre point de vue avec celui de notre confrère VCG, encore une fois autour des performances...
Beijing Issues Documents Without Word Format Amid US Tensions
Read more of this story at Slashdot.
GitHub Will Prioritize Migrating To Azure Over Feature Development
Read more of this story at Slashdot.
☕️ SpaceX réussit son onzième vol test de la fusée Starship
Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.
Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».
Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.
Le tout est rediffusé par SpaceX sur son site.
-
Next - Articles gratuits
- Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé
Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé
Régimen de Incentivo para Grandes Inversiones

OpenAI et Sur Energy ont signé une lettre d’intention pour un nouveau projet de centre de données à 25 milliards de dollars.
« Aujourd’hui, nous sommes heureux d’annoncer le lancement de Stargate Argentina », déclare Sam Altman dans une vidéo visiblement lue depuis son écran. À moins, suggère la chercheuse Milagros Miceli, qu’il ne s’agisse d’un deepfake.
Derrière le nom de Stargate Argentina se cache pour le moment un projet de centre de données à 25 milliards de dollars, qui devrait être construit en Patagonie. Évoquant une « opportunité historique » de faire de l’Argentine un « acteur clé dans le nouveau paysage numérique et énergétique mondial », le gouvernement argentin précisait le 10 octobre qu’une lettre d’intention avait été signée entre OpenAI et l’entreprise argentino-états-unienne Sur Energy, pour alimenter le futur bâtiment.
Celui-ci pourrait atteindre une capacité de 500 mégawatts, indiquent les diverses annonces officielles, quand bien même ce type d’élément relève plus du marketing que de la réelle indication.
Stargate 2, le retour…
Inspiré du film éponyme, le nom Stargate fait ici référence au premier projet de grande ampleur lancé par OpenAI aux États-Unis. Au lendemain de la seconde investiture de Donald Trump, Sam Altman se retrouvait aux côtés du patron d’Oracle Larry Ellison dans le bureau ovale pour annoncer un plan à 500 milliards de dollars, selon lequel OpenAI, Oracle, Arm, Microsoft et NVIDIA s’associeraient pour construire de nouvelles infrastructures dédiées à l’intelligence artificielle.
Six mois plus tard, cette première annonce retentissante – au point de créer de très publiques frictions entre Sam Altman et Elon Musk – s’annonçait relativement complexe. En juillet, toujours aucun contrat n’avait été signé par la coentreprise créée pour l’occasion.
Régime fiscal controversé
En Argentine, la porte des étoiles voulue par OpenAI sera donc 20 fois plus modeste en termes financiers. Sa localisation précise n’est pas indiquée. Le projet est, en revanche, tout aussi soutenu par Javier Milei que sa version américaine l’a été par Donald Trump.
L’alliance entre OpenAI et Sur Energy est, par ailleurs, construite dans le cadre du Régime d’incitation pour les grands investissements (RIGI), un système pensé par le gouvernement Milei pour favoriser les investissements de plus de 200 millions de dollars en Argentine, en échange d’avantages fiscaux. Adopté en 2024, ce régime est controversé pour les facilités qu’il crée aux industries fossiles, minières (l’Argentine est aussi l’un des principaux producteurs de lithium), sidérurgiques ou encore touristiques, et pour les conséquences que le développement de ces diverses activités peuvent avoir sur les droits humains et l’environnement.
En l’espèce, grâce au RIGI, OpenAI sera « exempté de payer des impôts, d’embaucher de la main-d’œuvre locale et d’acheter du matériel argentin », liste Milagros Miceli sur LinkedIn. Et de comparer ce projet à d’autres investissements de géants numériques états-uniens dans d’autres pays du globe, que ce soit au Chili, où la population a finalement fait bloquer un projet de centre de données de Google pour protéger ses ressources en eau, ou au Mexique, où les infrastructures électriques sont soumises à une importante pression par le déploiement des infrastructures liées à l’IA.
Si ce projet de centre de données se confirme, il viendra grossir les rangs des multiples partenariats signés ces derniers mois par OpenAI, au point de placer la société d’intelligence artificielle au sein d’un réseau de mille milliards de dollars de contrats variés.
☕️ Flock : Comme un besoin de solitude…
La paperasse, même en ligne, parfois c’est compliqué… Et je ne vous dis pas, quand il faut la faire et que les mômes grouillent autour…

-
Next - Articles gratuits
- Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA
Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA
IA pas de gène

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.
Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.
Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.
« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que « les risques le sont tout autant ».
L’IA massivement déployée dans les dispositifs médicaux
« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.
« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».
Sans évaluation sérieuse, la peur d’être responsable juridiquement
Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.
L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».
Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.
Appel à une vraie régulation
Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.
« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».
Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.
☕️ SpaceX réussit son onzième vol test de la fusée Starship
Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.
Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».
Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.
Le tout est rediffusé par SpaceX sur son site.
Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé
Régimen de Incentivo para Grandes Inversiones

OpenAI et Sur Energy ont signé une lettre d’intention pour un nouveau projet de centre de données à 25 milliards de dollars.
« Aujourd’hui, nous sommes heureux d’annoncer le lancement de Stargate Argentina », déclare Sam Altman dans une vidéo visiblement lue depuis son écran. À moins, suggère la chercheuse Milagros Miceli, qu’il ne s’agisse d’un deepfake.
Derrière le nom de Stargate Argentina se cache pour le moment un projet de centre de données à 25 milliards de dollars, qui devrait être construit en Patagonie. Évoquant une « opportunité historique » de faire de l’Argentine un « acteur clé dans le nouveau paysage numérique et énergétique mondial », le gouvernement argentin précisait le 10 octobre qu’une lettre d’intention avait été signée entre OpenAI et l’entreprise argentino-états-unienne Sur Energy, pour alimenter le futur bâtiment.
Celui-ci pourrait atteindre une capacité de 500 mégawatts, indiquent les diverses annonces officielles, quand bien même ce type d’élément relève plus du marketing que de la réelle indication.
Stargate 2, le retour…
Inspiré du film éponyme, le nom Stargate fait ici référence au premier projet de grande ampleur lancé par OpenAI aux États-Unis. Au lendemain de la seconde investiture de Donald Trump, Sam Altman se retrouvait aux côtés du patron d’Oracle Larry Ellison dans le bureau ovale pour annoncer un plan à 500 milliards de dollars, selon lequel OpenAI, Oracle, Arm, Microsoft et NVIDIA s’associeraient pour construire de nouvelles infrastructures dédiées à l’intelligence artificielle.
Six mois plus tard, cette première annonce retentissante – au point de créer de très publiques frictions entre Sam Altman et Elon Musk – s’annonçait relativement complexe. En juillet, toujours aucun contrat n’avait été signé par la coentreprise créée pour l’occasion.
Régime fiscal controversé
En Argentine, la porte des étoiles voulue par OpenAI sera donc 20 fois plus modeste en termes financiers. Sa localisation précise n’est pas indiquée. Le projet est, en revanche, tout aussi soutenu par Javier Milei que sa version américaine l’a été par Donald Trump.
L’alliance entre OpenAI et Sur Energy est, par ailleurs, construite dans le cadre du Régime d’incitation pour les grands investissements (RIGI), un système pensé par le gouvernement Milei pour favoriser les investissements de plus de 200 millions de dollars en Argentine, en échange d’avantages fiscaux. Adopté en 2024, ce régime est controversé pour les facilités qu’il crée aux industries fossiles, minières (l’Argentine est aussi l’un des principaux producteurs de lithium), sidérurgiques ou encore touristiques, et pour les conséquences que le développement de ces diverses activités peuvent avoir sur les droits humains et l’environnement.
En l’espèce, grâce au RIGI, OpenAI sera « exempté de payer des impôts, d’embaucher de la main-d’œuvre locale et d’acheter du matériel argentin », liste Milagros Miceli sur LinkedIn. Et de comparer ce projet à d’autres investissements de géants numériques états-uniens dans d’autres pays du globe, que ce soit au Chili, où la population a finalement fait bloquer un projet de centre de données de Google pour protéger ses ressources en eau, ou au Mexique, où les infrastructures électriques sont soumises à une importante pression par le déploiement des infrastructures liées à l’IA.
Si ce projet de centre de données se confirme, il viendra grossir les rangs des multiples partenariats signés ces derniers mois par OpenAI, au point de placer la société d’intelligence artificielle au sein d’un réseau de mille milliards de dollars de contrats variés.
☕️ Flock : Comme un besoin de solitude…
La paperasse, même en ligne, parfois c’est compliqué… Et je ne vous dis pas, quand il faut la faire et que les mômes grouillent autour…

Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA
IA pas de gène

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.
Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.
Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.
« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que « les risques le sont tout autant ».
L’IA massivement déployée dans les dispositifs médicaux
« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.
« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».
Sans évaluation sérieuse, la peur d’être responsable juridiquement
Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.
L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».
Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.
Appel à une vraie régulation
Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.
« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».
Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.
Firefox 145 Beta Released With 32-bit Linux Support Dropped
Amazon AWS Working On Linux "PCSC" To Help With Dense SR-IOV Deployments
The Great Software Quality Collapse
Read more of this story at Slashdot.