La chaîne Brut sur b.tv est arrivée. Disponible gratuitement au canal 135 de votre décodeur, elle invite un journalisme vidéo engagé directement dans votre salon. En bref, c’est une excellente nouvelle pour tous les abonnés Bouygues Telecom ! La chaîne en détail Date de lancement Pourquoi Brut ? Comment y accéder Questions fréquentes 20M Abonnés […]
Prix record pour l'Apple MacBook Air 13,6 pouces dans sa dernière version en date qui plus est, celle dotée de la puce M5 lancée fin 2025. Il s'agit de la version "d'entrée de gamme", celle dotée de 16 Go de mémoire unifiée et 512 Go de stockage, mais c'est déjà pas si mal pour un usage classique. C...
Tony Isaac shares a report from NPR: Federal survey data shows that the amount of math homework assigned to fourth and eighth grade students, in particular, has been steadily declining for the past decade. Some educators and parents say this is a good thing -- students shouldn't spend six or more hours a day at school and still have additional schoolwork to complete at home. But the research on homework is complicated. Some studies show that students who spend more time on homework perform better than their peers. For example, a longitudinal study released in 2021 of more than 6,000 students in Germany, Uruguay and the Netherlands found that lower-performing students who increased the amount of time they spent on math homework performed better in math, even one year later.
Other studies, however, suggest homework has minimal outcomes on academic performance: A 1998 study of more than 700 U.S. students led by a researcher at Duke University found that more homework assigned in elementary grades had no significant effect on standardized test scores. The researchers did find small positive gains on class grades when they looked at both test scores and the proportion of homework students completed. More homework was also associated with negative attitudes about school for younger children in the study. "The best educators figured out a long time ago that we can control what we can control," and that's what happens during the school day, Superintendent Garrett said, not homework. "There has been a shift away from it naturally anyway, and I felt like this made it equitable across our entire school system." "The best argument for homework is that mathematical procedures require practice, and you don't want to waste classroom time on practice, so you send that home," said Tom Loveless, a researcher and former teacher who has studied homework.
Ariel Taylor Smith, senior director of the Center for Policy and Action at the National Parents Union, said: "The thing they point to is that it's an equity issue, and not all parents have the same availability and ability to support their students. I would make the argument that if a kid is really far behind in school, that's an equity issue. They need the additional time to practice." Kids, she said, "need more practice ... Sometimes, you do have to practice the boring stuff, like math."
"The interesting issue for folks to consider is not should there be more homework, but should there be better homework," said Joyce Epstein, who has studied homework and is the co-director of the Center on School, Family, and Community Partnerships at the Johns Hopkins University School of Education. "Better homework in math might be knowing the fact that kids don't have to be practicing for hours, 10 to 20 examples," when they could establish mastery in less time.
GitHub a un problème de fiabilité qui pèse de plus en plus lourd dans l’esprit des utilisateurs. Plusieurs développeurs, usés par les dysfonctionnements de la plateforme de Microsoft, ont décidé de plier bagage.
C’est la mort dans l’âme que Mitchell Hashimoto, développeur de Ghostty, a pris ses cliques et ses claques : son émulateur de terminal va déménager sur une autre plateforme. Sur GitHub, où le logiciel est développé depuis 18 ans, il ne restera plus que le code source en lecture seule. « Je suis l’utilisateur GitHub 1299, inscrit en février 2008. Depuis, j’ouvre GitHub tous les jours, chaque jour, plusieurs fois par jour, depuis plus de 18 ans », écrit-il sur son blog. Mais alors, pourquoi cette décision ?
Les pannes s’enchaînent
C’est que GitHub n’est plus fiable à ses yeux. Mitchell Hashimoto a marqué d’un « X » les jours du mois où la plateforme a eu « un impact négatif sur ma capacité de travailler ». Résultat : un « X » « presque tous les jours ». GitHub n’est plus un environnement adapté à un travail sérieux « s’il vous bloque pendant des heures chaque jour ». Il partagera un peu plus tard les détails sur le déménagement de Ghostty ; cela prendra du temps de retirer les dépendances sur GitHub. La popularité de l’utilitaire est telle que plusieurs fournisseurs se montrent intéressés.
Kyle Daigle, le directeur des opérations de GitHub, a répondu au développeur en se disant désolé de le voir partir : « L’équipe va continuer à travailler pour faire de GitHub un service vers lequel vous aurez envie de revenir, preuves concrètes à l’appui, pas seulement des promesses ». Il ajoute qu’il continuera de soutenir Ghostty en tant qu’utilisateur.
Mitchell Hashimoto n’est pas le seul à en avoir sa claque de GitHub. En novembre dernier, Andrew Kelley annonçait le déménagement de son langage Zig créé en 2015, vers Codeberg. « Il est clair que l’excellence technique qui a fait le succès de la plateforme ne la guide plus. Les priorités et la culture d’ingénierie se sont dégradées, laissant les utilisateurs aux prises avec une sorte de framework JavaScript lourd et truffé de bugs, au nom du progrès », regrette-t-il, avant d’asséner que « ce qui était autrefois rapide est désormais lent, et souvent complètement cassé ».
Andrew Kelley fait remonter les problèmes de GitHub à son acquisition par Microsoft en 2018, pour 7,5 milliards de dollars. À l’époque, la plateforme prédisait « un futur brillant ». Le développeur DaMrNelson a mis au point un petit outil qui génère des graphiques montrant l’uptime sur GitHub. Depuis le chèque de Microsoft, la situation s’est nettement dégradée :
L’uptime de GitHub.
Un des problèmes soulevés par les deux développeurs concerne le système d’automatisation GitHub Actions, qui déclenche automatiquement des tâches dès qu’un événement se produit sur un dépôt (un commit, une pull request, un déploiement…). Le jour de la publication de sa note, Mitchell Hashimoto expliquait ne pas avoir pu relire et valider les pull requests pendant deux heures à cause d’une panne de GitHub Actions. Pour Andrew Kelley, ce service a été « complètement négligé ».
Un ou deux développeurs qui quittent GitHub, ce n’est pas encore une hémorragie ou une fuite des cerveaux. Il s’agit toutefois de profils bien connus, qui sont présents et actifs sur la plateforme depuis des années et qui pourraient en inspirer d’autres à regarder ailleurs.
Aux bugs s’ajoutent les failles de sécurité. Ce lundi 28 avril, GitHub donnait des précisions sur un correctif mis en ligne deux heures après la réception du rapport de vulnérabilité sur le Bug Bounty de la plateforme. Il s’agissait d’une faille critique permettant d’exécuter du code à distance. Il n’y a eu aucune exploitation, et GitHub tient à faire savoir au monde sa rapidité de réponse. Néanmoins, cela participe aussi à une certaine défiance.
L’IA pointée du doigt
En filigrane, l’insistance avec laquelle Microsoft cherche à fourrer de l’IA générative partout dans GitHub est mal vécue. Le développeur de Zig rappelle les propos tenus en août 2025 par Thomas Dohmke, le directeur général de la plateforme : « Soit vous adoptez l’IA, soit vous quittez votre carrière. »
Reste à voir comment cette IA s’intègre dans GitHub. Mais pour Andrew Kelley, le compte n’y est pas : GitHub Actions a commencé à choisir les tâches à exécuter de manière « apparemment aléatoire ».
Ce trop plein d’IA et la grogne qui en découle ont manifestement atteint les oreilles des dirigeants de Microsoft. L’éditeur va prioriser la stabilité et la fiabilité de Windows 11, en réduisant la voilure sur les fonctions d’IA qui n’apportent aucun bénéfice. Et même chez Xbox, la nouvelle direction incarnée par Asha Sharma ne veut pas inonder sa plateforme de « bouillie IA ». Alors à quand la prise de conscience chez GitHub ?
GitHub a un problème de fiabilité qui pèse de plus en plus lourd dans l’esprit des utilisateurs. Plusieurs développeurs, usés par les dysfonctionnements de la plateforme de Microsoft, ont décidé de plier bagage.
C’est la mort dans l’âme que Mitchell Hashimoto, développeur de Ghostty, a pris ses cliques et ses claques : son émulateur de terminal va déménager sur une autre plateforme. Sur GitHub, où le logiciel est développé depuis 18 ans, il ne restera plus que le code source en lecture seule. « Je suis l’utilisateur GitHub 1299, inscrit en février 2008. Depuis, j’ouvre GitHub tous les jours, chaque jour, plusieurs fois par jour, depuis plus de 18 ans », écrit-il sur son blog. Mais alors, pourquoi cette décision ?
Les pannes s’enchaînent
C’est que GitHub n’est plus fiable à ses yeux. Mitchell Hashimoto a marqué d’un « X » les jours du mois où la plateforme a eu « un impact négatif sur ma capacité de travailler ». Résultat : un « X » « presque tous les jours ». GitHub n’est plus un environnement adapté à un travail sérieux « s’il vous bloque pendant des heures chaque jour ». Il partagera un peu plus tard les détails sur le déménagement de Ghostty ; cela prendra du temps de retirer les dépendances sur GitHub. La popularité de l’utilitaire est telle que plusieurs fournisseurs se montrent intéressés.
Kyle Daigle, le directeur des opérations de GitHub, a répondu au développeur en se disant désolé de le voir partir : « L’équipe va continuer à travailler pour faire de GitHub un service vers lequel vous aurez envie de revenir, preuves concrètes à l’appui, pas seulement des promesses ». Il ajoute qu’il continuera de soutenir Ghostty en tant qu’utilisateur.
Mitchell Hashimoto n’est pas le seul à en avoir sa claque de GitHub. En novembre dernier, Andrew Kelley annonçait le déménagement de son langage Zig créé en 2015, vers Codeberg. « Il est clair que l’excellence technique qui a fait le succès de la plateforme ne la guide plus. Les priorités et la culture d’ingénierie se sont dégradées, laissant les utilisateurs aux prises avec une sorte de framework JavaScript lourd et truffé de bugs, au nom du progrès », regrette-t-il, avant d’asséner que « ce qui était autrefois rapide est désormais lent, et souvent complètement cassé ».
Andrew Kelley fait remonter les problèmes de GitHub à son acquisition par Microsoft en 2018, pour 7,5 milliards de dollars. À l’époque, la plateforme prédisait « un futur brillant ». Le développeur DaMrNelson a mis au point un petit outil qui génère des graphiques montrant l’uptime sur GitHub. Depuis le chèque de Microsoft, la situation s’est nettement dégradée :
L’uptime de GitHub.
Un des problèmes soulevés par les deux développeurs concerne le système d’automatisation GitHub Actions, qui déclenche automatiquement des tâches dès qu’un événement se produit sur un dépôt (un commit, une pull request, un déploiement…). Le jour de la publication de sa note, Mitchell Hashimoto expliquait ne pas avoir pu relire et valider les pull requests pendant deux heures à cause d’une panne de GitHub Actions. Pour Andrew Kelley, ce service a été « complètement négligé ».
Un ou deux développeurs qui quittent GitHub, ce n’est pas encore une hémorragie ou une fuite des cerveaux. Il s’agit toutefois de profils bien connus, qui sont présents et actifs sur la plateforme depuis des années et qui pourraient en inspirer d’autres à regarder ailleurs.
Aux bugs s’ajoutent les failles de sécurité. Ce lundi 28 avril, GitHub donnait des précisions sur un correctif mis en ligne deux heures après la réception du rapport de vulnérabilité sur le Bug Bounty de la plateforme. Il s’agissait d’une faille critique permettant d’exécuter du code à distance. Il n’y a eu aucune exploitation, et GitHub tient à faire savoir au monde sa rapidité de réponse. Néanmoins, cela participe aussi à une certaine défiance.
L’IA pointée du doigt
En filigrane, l’insistance avec laquelle Microsoft cherche à fourrer de l’IA générative partout dans GitHub est mal vécue. Le développeur de Zig rappelle les propos tenus en août 2025 par Thomas Dohmke, le directeur général de la plateforme : « Soit vous adoptez l’IA, soit vous quittez votre carrière. »
Reste à voir comment cette IA s’intègre dans GitHub. Mais pour Andrew Kelley, le compte n’y est pas : GitHub Actions a commencé à choisir les tâches à exécuter de manière « apparemment aléatoire ».
Ce trop plein d’IA et la grogne qui en découle ont manifestement atteint les oreilles des dirigeants de Microsoft. L’éditeur va prioriser la stabilité et la fiabilité de Windows 11, en réduisant la voilure sur les fonctions d’IA qui n’apportent aucun bénéfice. Et même chez Xbox, la nouvelle direction incarnée par Asha Sharma ne veut pas inonder sa plateforme de « bouillie IA ». Alors à quand la prise de conscience chez GitHub ?
Just days after the Linux 7.1-rc1 kernel release, the Linux kernel's extensible scheduler class "sched_ext" is seeing a lot of bug fixes. Many of these bug fixes aren't just from the Linux 7.1 merge window but a number date back many kernel cycles. This uptick in bug fixes for sched_ext is coming due to increased AI code review...
Après plusieurs claviers MSI, nous changeons de crémerie pour filer chez Asus. Sans changer de terrain pour autant, puisque nous retrouvons les ROG Strix Morph 96 Wireless et ROG Azoth 96 HE... [Tout lire]
Canal+ vient d’obtenir du tribunal judiciaire de Paris une salve de décisions ordonnant la mise en œuvre de mesures de blocage portant sur une vingtaine de sites de streaming donnant accès aux retransmissions de la saison en cours de Formule 1 et de MotoGP. Comme dans le foot, Canal+ ratisse large pour défendre ses droits, avec des procédures qui visent opérateurs, moteurs de recherche, fournisseurs de DNS alternatifs et VPN.
Cette nouvelle salve de décisions n’endiguera pas définitivement le phénomène, mais elle devrait conforter Canal+ dans sa volonté de porter le fer aussi souvent que possible pour faire valoir ses droits. Le groupe audiovisuel a en effet obtenu le 17 avril dernier une salve de décisions de justice ordonnant le blocage d’une vingtaine de sites et miroirs de sites diffusant, en streaming (direct ou différé), des compétitions dont il a acquis les droits.
Deux procédures parallèles visaient à défendre la retransmission de la saison 2026 de Formule 1 (du 6 mars au 6 décembre 2026) et son équivalent dans le monde de la moto, le MotoGP, organisé entre le 27 février et le 22 novembre 2026.
Concernant la Formule 1, le tribunal judiciaire de Paris prononce ainsi le blocage sous trois jours des sites suivants :
antenawest.store
antenapluto.store
antenasouth.store
huhu.to
daddylive3.com
rereyano.ru
telestream.mom
kondoplay.cfd
epicplayplay.cfd
lefttoplay.xyz
hoca6.com
[Localité 4]
rightflourish.net
iptvs.pw
outfitreferee.net
iptvsupra.com
d4ktv.info
king365tv.me
top1iptv.my
smartbox-tv.com
marcobox.in
Un processus désormais bien rodé
Historiquement très impliqué dans la lutte contre le piratage, Canal+ entreprend depuis plusieurs années d’endiguer, à défaut de pouvoir l’interrompre, le streaming illégal. Pour ce faire, le groupe a procédé par étape, en superposant des demandes de blocage visant à prévenir, l’une après l’autre, les mesures de contournement technique.
Soutenu par la loi Arcom d’octobre 2021 puis par l’article L333-10 du Code du Sport, le groupe a d’abord sonné la charge à partir de 2022 en saisissant la justice pour obtenir le blocage de sites pirates par les fournisseurs d’accès à Internet, puis le déréférencement par les moteurs de recherche l’année suivante. Il a ensuite progressivement étendu la portée de ses demandes aux fournisseurs de DNS alternatifs (Google, Cloudflare, etc.) en 2024, puis aux solutions de type VPN ou proxy en 2025, en vertu du DSA.
Rappelons que depuis 2022, ce blocage est fait sous forme d’injonctions « dynamiques » : le juge délivre d’abord une ordonnance enjoignant le blocage d’une liste de sites donnée, pour la durée de la compétition sportive concernée. Le titulaire de droits peut ensuite demander à l’Arcom d’actualiser ou d’étendre cette liste pour prendre en compte les miroirs ou nouveaux sites qu’il aurait découverts, sans qu’il soit nécessaire de retourner devant la justice.
Rappel du principe de l’injonction dynamique selon l’Arcom
C’est le caractère dynamique de ce dispositif qui explique l’explosion du nombre de noms de domaine bloqués par l’Arcom : l’Autorité issue du rapprochement entre le CSA et la Hadopi en référençait ainsi plus de 15 000 depuis 2022 dans son bilan de sa lutte contre le piratage des contenus culturels et sportifs publié fin mars.
Canal+ empile les demandes
Du côté de Canal+, représenté par ici par deux de ses entités, la méthode est désormais largement rodée, comme en témoigne l’une des 18 décisions datées du 17 avril qui incarnent cette double offensive centrée sur la F1 et le MotoGP (voir un exemple). Toutes suivent le même déroulé.
Entre octobre et novembre, Canal+ fait réaliser via l’Association de lutte contre la piraterie audiovisuelle (ALPA) des procès verbaux constatant que les sites litigieux diffusent un flux identique à celui des chaînes du groupe au moment des compétitions concernées. Sur la base de ces PV, Canal+ obtient en décembre 2025 l’autorisation d’assigner l’ensemble des prestataires concernés par l’éventail de ses demandes de blocage (opérateurs et FAI, moteurs de recherche, VPN et assimilés) selon une procédure accélérée au fond. L’audience et les décisions s’enchaînent dans un délai d’environ quatre mois.
À quelques menus détails près, la teneur des échanges et de la décision finale reprennent ce que l’on a pu lire dans les textes liés au précédent épisode déclenché par Canal+, lié cette fois à la Ligue des champions 2025/2026, et jugé le 19 décembre dernier.
Pour la F1 comme pour le MotoGP, le tribunal reconnait que Canal+ a bien qualité à agir, et ordonne aux intermédiaire concernés la mise en place, sous trois jours, de toutes mesures de blocage ou de déréférencement propres à empêcher « l’accès aux sites et services IPTV identifiés ci-dessus ainsi qu’aux sites et services IPTV non encore identifiés à la date de la présente décision », et ce « jusqu’à la date de la dernière course de la compétition ».
Au gré des saisons sportives, le nombre d’ordonnances et de décisions augmente, à mesure que Canal+ essaie de combler les trous dans la raquette technique du blocage. Sur cette dernière salve, le groupe audiovisuel obtient des mesures de blocage de la part des principaux opérateurs (en métropole comme dans les DROM-COM) et de Google et Microsoft pour la recherche. Il fait également mouche côté VPN avec un trio de décisions adressées à Proton, NordVPN, Surfshark, Cyberghost et ExpressVPN.
Enfin, Canal+ remet le couvert côté résolveurs DNS alternatifs en visant notamment Cloudflare et Quad9. Le groupe se félicitait d’ailleurs fin mars que les décisions de première instance déjà obtenues à ce niveau aient été confirmées par la cour d’appel de Paris le 27 mars dernier.
Toujours en attente du blocage par adresse IP
Du point de vue des ayant-droits, la prochaine étape majeure est désormais dans les mains du gouvernement. La proposition de loi « relative à l’organisation, à la gestion et au financement du sport professionnel » adoptée par le Sénat en juin 2025 et transmise à l’Assemblée nationale comporte en effet un chapitre spécifiquement consacré au renforcement de la lutte contre le piratage des contenus sportifs.
Dans sa version actuelle, le texte prévoit notamment que les titulaires de droit puissent communiquer à l’Arcom, selon des modalités définies par cette dernière, « les données d’identification permettant d’assurer la mise en œuvre sans délai » de mesures de blocage. Dit autrement, un groupe comme Canal+ pourrait relever en direct l’adresse IP des sites qui diffusent les compétitions dont il a acheté les droits, et obtenir un blocage immédiat de la part des intermédiaires techniques concernés.
« La reprise de l’examen parlementaire de ces dispositions, à l’Assemblée nationale, pourrait également être l’occasion de compléter le texte pour doter l’Arcom d’un pouvoir coercitif de sanction (et pas seulement d’injonction) pour faire appliquer les demandes de blocages DNS que nous notifions, compte tenu des difficultés d’exécution que nous rencontrons avec certains VPN et certains DNS alternatifs », déclarait à ce sujet Martin Ajdari, président de l’Arcom, le 23 mars dernier, en conclusion du forum de l’Association pour la protection des programmes sportifs (APPS).
L’examen à l’Assemblée nationale devrait, sauf bouleversement du calendrier, débuter le 18 mai prochain, a affirmé mi-avril la ministre des Sports Marina Ferrari. À temps, peut-être, pour la saison 2026 - 2027.
Canal+ vient d’obtenir du tribunal judiciaire de Paris une salve de décisions ordonnant la mise en œuvre de mesures de blocage portant sur une vingtaine de sites de streaming donnant accès aux retransmissions de la saison en cours de Formule 1 et de MotoGP. Comme dans le foot, Canal+ ratisse large pour défendre ses droits, avec des procédures qui visent opérateurs, moteurs de recherche, fournisseurs de DNS alternatifs et VPN.
Cette nouvelle salve de décisions n’endiguera pas définitivement le phénomène, mais elle devrait conforter Canal+ dans sa volonté de porter le fer aussi souvent que possible pour faire valoir ses droits. Le groupe audiovisuel a en effet obtenu le 17 avril dernier une salve de décisions de justice ordonnant le blocage d’une vingtaine de sites et miroirs de sites diffusant, en streaming (direct ou différé), des compétitions dont il a acquis les droits.
Deux procédures parallèles visaient à défendre la retransmission de la saison 2026 de Formule 1 (du 6 mars au 6 décembre 2026) et son équivalent dans le monde de la moto, le MotoGP, organisé entre le 27 février et le 22 novembre 2026.
Concernant la Formule 1, le tribunal judiciaire de Paris prononce ainsi le blocage sous trois jours des sites suivants :
antenawest.store
antenapluto.store
antenasouth.store
huhu.to
daddylive3.com
rereyano.ru
telestream.mom
kondoplay.cfd
epicplayplay.cfd
lefttoplay.xyz
hoca6.com
[Localité 4]
rightflourish.net
iptvs.pw
outfitreferee.net
iptvsupra.com
d4ktv.info
king365tv.me
top1iptv.my
smartbox-tv.com
marcobox.in
Un processus désormais bien rodé
Historiquement très impliqué dans la lutte contre le piratage, Canal+ entreprend depuis plusieurs années d’endiguer, à défaut de pouvoir l’interrompre, le streaming illégal. Pour ce faire, le groupe a procédé par étape, en superposant des demandes de blocage visant à prévenir, l’une après l’autre, les mesures de contournement technique.
Soutenu par la loi Arcom d’octobre 2021 puis par l’article L333-10 du Code du Sport, le groupe a d’abord sonné la charge à partir de 2022 en saisissant la justice pour obtenir le blocage de sites pirates par les fournisseurs d’accès à Internet, puis le déréférencement par les moteurs de recherche l’année suivante. Il a ensuite progressivement étendu la portée de ses demandes aux fournisseurs de DNS alternatifs (Google, Cloudflare, etc.) en 2024, puis aux solutions de type VPN ou proxy en 2025, en vertu du DSA.
Rappelons que depuis 2022, ce blocage est fait sous forme d’injonctions « dynamiques » : le juge délivre d’abord une ordonnance enjoignant le blocage d’une liste de sites donnée, pour la durée de la compétition sportive concernée. Le titulaire de droits peut ensuite demander à l’Arcom d’actualiser ou d’étendre cette liste pour prendre en compte les miroirs ou nouveaux sites qu’il aurait découverts, sans qu’il soit nécessaire de retourner devant la justice.
Rappel du principe de l’injonction dynamique selon l’Arcom
C’est le caractère dynamique de ce dispositif qui explique l’explosion du nombre de noms de domaine bloqués par l’Arcom : l’Autorité issue du rapprochement entre le CSA et la Hadopi en référençait ainsi plus de 15 000 depuis 2022 dans son bilan de sa lutte contre le piratage des contenus culturels et sportifs publié fin mars.
Canal+ empile les demandes
Du côté de Canal+, représenté par ici par deux de ses entités, la méthode est désormais largement rodée, comme en témoigne l’une des 18 décisions datées du 17 avril qui incarnent cette double offensive centrée sur la F1 et le MotoGP (voir un exemple). Toutes suivent le même déroulé.
Entre octobre et novembre, Canal+ fait réaliser via l’Association de lutte contre la piraterie audiovisuelle (ALPA) des procès verbaux constatant que les sites litigieux diffusent un flux identique à celui des chaînes du groupe au moment des compétitions concernées. Sur la base de ces PV, Canal+ obtient en décembre 2025 l’autorisation d’assigner l’ensemble des prestataires concernés par l’éventail de ses demandes de blocage (opérateurs et FAI, moteurs de recherche, VPN et assimilés) selon une procédure accélérée au fond. L’audience et les décisions s’enchaînent dans un délai d’environ quatre mois.
À quelques menus détails près, la teneur des échanges et de la décision finale reprennent ce que l’on a pu lire dans les textes liés au précédent épisode déclenché par Canal+, lié cette fois à la Ligue des champions 2025/2026, et jugé le 19 décembre dernier.
Pour la F1 comme pour le MotoGP, le tribunal reconnait que Canal+ a bien qualité à agir, et ordonne aux intermédiaire concernés la mise en place, sous trois jours, de toutes mesures de blocage ou de déréférencement propres à empêcher « l’accès aux sites et services IPTV identifiés ci-dessus ainsi qu’aux sites et services IPTV non encore identifiés à la date de la présente décision », et ce « jusqu’à la date de la dernière course de la compétition ».
Au gré des saisons sportives, le nombre d’ordonnances et de décisions augmente, à mesure que Canal+ essaie de combler les trous dans la raquette technique du blocage. Sur cette dernière salve, le groupe audiovisuel obtient des mesures de blocage de la part des principaux opérateurs (en métropole comme dans les DROM-COM) et de Google et Microsoft pour la recherche. Il fait également mouche côté VPN avec un trio de décisions adressées à Proton, NordVPN, Surfshark, Cyberghost et ExpressVPN.
Enfin, Canal+ remet le couvert côté résolveurs DNS alternatifs en visant notamment Cloudflare et Quad9. Le groupe se félicitait d’ailleurs fin mars que les décisions de première instance déjà obtenues à ce niveau aient été confirmées par la cour d’appel de Paris le 27 mars dernier.
Toujours en attente du blocage par adresse IP
Du point de vue des ayant-droits, la prochaine étape majeure est désormais dans les mains du gouvernement. La proposition de loi « relative à l’organisation, à la gestion et au financement du sport professionnel » adoptée par le Sénat en juin 2025 et transmise à l’Assemblée nationale comporte en effet un chapitre spécifiquement consacré au renforcement de la lutte contre le piratage des contenus sportifs.
Dans sa version actuelle, le texte prévoit notamment que les titulaires de droit puissent communiquer à l’Arcom, selon des modalités définies par cette dernière, « les données d’identification permettant d’assurer la mise en œuvre sans délai » de mesures de blocage. Dit autrement, un groupe comme Canal+ pourrait relever en direct l’adresse IP des sites qui diffusent les compétitions dont il a acheté les droits, et obtenir un blocage immédiat de la part des intermédiaires techniques concernés.
« La reprise de l’examen parlementaire de ces dispositions, à l’Assemblée nationale, pourrait également être l’occasion de compléter le texte pour doter l’Arcom d’un pouvoir coercitif de sanction (et pas seulement d’injonction) pour faire appliquer les demandes de blocages DNS que nous notifions, compte tenu des difficultés d’exécution que nous rencontrons avec certains VPN et certains DNS alternatifs », déclarait à ce sujet Martin Ajdari, président de l’Arcom, le 23 mars dernier, en conclusion du forum de l’Association pour la protection des programmes sportifs (APPS).
L’examen à l’Assemblée nationale devrait, sauf bouleversement du calendrier, débuter le 18 mai prochain, a affirmé mi-avril la ministre des Sports Marina Ferrari. À temps, peut-être, pour la saison 2026 - 2027.
Back in 2023 the Vulkan API introduced its initial Cooperative Matrix extension and necessary SPIR-V integration for helping with machine learning / AI inferencing use. Since then the cooperative matrix support has continued to be built upon for helping Vulkan in AI/ML areas. Now the OpenCL API is also introducing similar cooperative matrix extensions...
Plus de sites genAI, mais pas plus de conneries proportionnellement
Selon un rapport d’Internet Archive, le contenu de 35 % des sites internet nouvellement créés en mai 2025 était soit complètement généré par intelligence artificielle, soit son édition était grandement assistée par une IA. Cela contribuerait à une baisse de la diversité sémantique et à une augmentation de sentiments très positifs, mais pas forcément à une augmentation de fausses informations.
Le web serait-il devenu un lieu où des machines parlent à des machines ? C’est l’idée qu’ont défendue certains chercheurs dès le début de l’année dernière en relançant la « théorie de l’Internet mort », formulée en 2021.
Le responsable de la Wayback Machine chez Internet Archive, Mark Graham, signe avec un chercheur maison et deux doctorants un rapport (.pdf) qui essaye de quantifier le flux de contenus générés par IA et ses conséquences avec les données récoltées par son outil. « Nous constatons qu’à la mi-2025, environ 35 % des sites web nouvellement publiés étaient classés comme générés par IA ou créés avec l’aide de l’IA, contre zéro avant le lancement de ChatGPT fin 2022 », expliquent-ils.
Pour arriver à cette estimation, l’équipe a extrait le texte des sites nouvellement créés détectés et archivés au sein de la Wayback Machine. Puis, après avoir testé différents outils de détection (Binoculars, Desklib, DivEye et l’API commerciale de Pangram v3), ils ont choisi de s’appuyer sur cette dernière, expliquant que c’était la meilleure solution, notamment pour son taux de détection des textes anglophones comme ceux dans d’autres langues et sa capacité à traiter du HTML.
35 % des nouveaux sites sont remplis de contenus générés par IA
Leurs résultats restent donc très fortement liés à cet outil de détection qui annonce sur son site web une précision de détection de 99,98 % et a mis en ligne un rapport technique sur sa méthode sans que celle-ci ne soit évaluée par des chercheurs indépendants.
Mais selon ces tests sur les archives du web récoltées par Internet Archive, le contenu des nouveaux sites internet est de plus en plus généré par IA ou son édition est grandement assistée par une IA : 35 % l’étaient en mai 2025 :
Ils ont aussi voulu vérifier plusieurs hypothèses craintes suite à la prolifération de ce genre de contenus sur internet qui pourrait « contribuer à une dégradation de la diversité sémantique et stylistique, de l’exactitude des faits, ainsi qu’à d’autres évolutions négatives ».
En faisant un petit sondage, ils se sont aperçus que 75 % des gens avaient peur, par exemple, d’être « de plus en plus souvent confrontés à des informations factuellement erronées et à des hallucinations », et que 83 % d’entre eux pensaient que le style des textes allait s’homogénéiser.
Ils ont ensuite vérifié ces hypothèses sur les données d’Internet Archive. Ils ont, par exemple, payé des fact-checkers pour voir si les informations incorrectes dans les données d’Internet Archive augmentaient. Mais ils n’ont pas trouvé de corrélation statistiquement significative. Pour le dire autrement, cette augmentation du nombre de nouveaux sites avec des contenus genAI ne fait pas augmenter le nombre de fausses informations.
Une similarité sémantique et une augmentation de contenus positifs détectées
En faisant d’autres tests, ils se sont aussi aperçus que l’augmentation des contenus générés par IA dans les données d’Internet Archive n’augmentait pas non plus mécaniquement l’homogénéité stylistique.
« Plutôt qu’une explosion de fausses informations, l’empreinte de la prolifération de l’IA sur Internet se manifeste principalement par une contraction sémantique et un glissement artificiel vers la positivité », expliquent-ils.
En effet, la similarité sémantique qu’ils ont mesurée avec Pangram v3 augmente de façon corrélée à la prolifération de contenus générés par IA :
Et on retrouve la même corrélation avec le style plus positif des contenus mesuré ici aussi avec Pangram v3 :
« Le résultat le plus surprenant a été que notre hypothèse de la « dégradation de la vérité » n’a pas été confirmée », estime Jonas Doležal, l’un des doctorants de l’Imperial College London qui a participé à l’étude, interrogé par nos confrères de 404 Media.
« Il convient de noter que nous recherchions spécifiquement une augmentation des déclarations vérifiables comme étant fausses, ce que nous n’avons pas trouvé. Mais il se pourrait tout de même que l’IA augmente discrètement le volume des affirmations invérifiables, celles qui ne peuvent être vérifiées à l’aide des outils et des infrastructures de vérification des faits existants. Ou peut-être simplement qu’Internet n’était pas, dès le départ, un espace particulièrement attaché à la vérité », ajoute-t-il quand même.
Plus de sites genAI, mais pas plus de conneries proportionnellement
Selon un rapport d’Internet Archive, le contenu de 35 % des sites internet nouvellement créés en mai 2025 était soit complètement généré par intelligence artificielle, soit son édition était grandement assistée par une IA. Cela contribuerait à une baisse de la diversité sémantique et à une augmentation de sentiments très positifs, mais pas forcément à une augmentation de fausses informations.
Le web serait-il devenu un lieu où des machines parlent à des machines ? C’est l’idée qu’ont défendue certains chercheurs dès le début de l’année dernière en relançant la « théorie de l’Internet mort », formulée en 2021.
Le responsable de la Wayback Machine chez Internet Archive, Mark Graham, signe avec un chercheur maison et deux doctorants un rapport (.pdf) qui essaye de quantifier le flux de contenus générés par IA et ses conséquences avec les données récoltées par son outil. « Nous constatons qu’à la mi-2025, environ 35 % des sites web nouvellement publiés étaient classés comme générés par IA ou créés avec l’aide de l’IA, contre zéro avant le lancement de ChatGPT fin 2022 », expliquent-ils.
Pour arriver à cette estimation, l’équipe a extrait le texte des sites nouvellement créés détectés et archivés au sein de la Wayback Machine. Puis, après avoir testé différents outils de détection (Binoculars, Desklib, DivEye et l’API commerciale de Pangram v3), ils ont choisi de s’appuyer sur cette dernière, expliquant que c’était la meilleure solution, notamment pour son taux de détection des textes anglophones comme ceux dans d’autres langues et sa capacité à traiter du HTML.
35 % des nouveaux sites sont remplis de contenus générés par IA
Leurs résultats restent donc très fortement liés à cet outil de détection qui annonce sur son site web une précision de détection de 99,98 % et a mis en ligne un rapport technique sur sa méthode sans que celle-ci ne soit évaluée par des chercheurs indépendants.
Mais selon ces tests sur les archives du web récoltées par Internet Archive, le contenu des nouveaux sites internet est de plus en plus généré par IA ou son édition est grandement assistée par une IA : 35 % l’étaient en mai 2025 :
Ils ont aussi voulu vérifier plusieurs hypothèses craintes suite à la prolifération de ce genre de contenus sur internet qui pourrait « contribuer à une dégradation de la diversité sémantique et stylistique, de l’exactitude des faits, ainsi qu’à d’autres évolutions négatives ».
En faisant un petit sondage, ils se sont aperçus que 75 % des gens avaient peur, par exemple, d’être « de plus en plus souvent confrontés à des informations factuellement erronées et à des hallucinations », et que 83 % d’entre eux pensaient que le style des textes allait s’homogénéiser.
Ils ont ensuite vérifié ces hypothèses sur les données d’Internet Archive. Ils ont, par exemple, payé des fact-checkers pour voir si les informations incorrectes dans les données d’Internet Archive augmentaient. Mais ils n’ont pas trouvé de corrélation statistiquement significative. Pour le dire autrement, cette augmentation du nombre de nouveaux sites avec des contenus genAI ne fait pas augmenter le nombre de fausses informations.
Une similarité sémantique et une augmentation de contenus positifs détectées
En faisant d’autres tests, ils se sont aussi aperçus que l’augmentation des contenus générés par IA dans les données d’Internet Archive n’augmentait pas non plus mécaniquement l’homogénéité stylistique.
« Plutôt qu’une explosion de fausses informations, l’empreinte de la prolifération de l’IA sur Internet se manifeste principalement par une contraction sémantique et un glissement artificiel vers la positivité », expliquent-ils.
En effet, la similarité sémantique qu’ils ont mesurée avec Pangram v3 augmente de façon corrélée à la prolifération de contenus générés par IA :
Et on retrouve la même corrélation avec le style plus positif des contenus mesuré ici aussi avec Pangram v3 :
« Le résultat le plus surprenant a été que notre hypothèse de la « dégradation de la vérité » n’a pas été confirmée », estime Jonas Doležal, l’un des doctorants de l’Imperial College London qui a participé à l’étude, interrogé par nos confrères de 404 Media.
« Il convient de noter que nous recherchions spécifiquement une augmentation des déclarations vérifiables comme étant fausses, ce que nous n’avons pas trouvé. Mais il se pourrait tout de même que l’IA augmente discrètement le volume des affirmations invérifiables, celles qui ne peuvent être vérifiées à l’aide des outils et des infrastructures de vérification des faits existants. Ou peut-être simplement qu’Internet n’était pas, dès le départ, un espace particulièrement attaché à la vérité », ajoute-t-il quand même.
An anonymous reader quotes a report from Ars Technica: Humanoid robots are getting a new gig as baggage handlers and cargo loaders at Tokyo's Haneda Airport -- part of a Japan Airlines experiment to address a human labor shortage as airport visitor numbers have surged in recent years. The demonstration, set to launch in May 2026, could eventually test humanoid robots in a wide range of airport tasks, including cleaning aircraft cabins and possibly handling ground support equipment such as baggage carts, according to a Japan Airlines press release. The trials are scheduled to run until 2028, which suggests that travelers flying into or out of Tokyo may spot some of the robots at work.
[...] Japan Airlines is interested in testing whether humanoid robots powered by some of the latest AI models can adapt more readily to human work environments -- such as airports -- without requiring dedicated work stations or other significant workplace modifications. The airline's subsidiary, JAL Ground Service, has teamed up with GMO AI & Robotics Corporation to oversee the demonstration. The Japanese companies will test the G1 robot and Walker E robot from Chinese companies Unitree Robotics and UBTECH Robotics, according to The Asia Business Daily. Humanoid robots still typically cost tens of thousands of dollars per unit despite Chinese robotics manufacturers scaling up mass production, although the Unitree G1 robot costs as low as $13,500 for the baseline model.
A new video from an apparently staged demonstration in an aircraft hangar shows one of the humanoid robots tottering up to a large, metal cargo container and making a vague pushing gesture. But the cargo container only begins to move once a human worker starts the conveyor belt to move the container toward the aircraft. Presumably, the robots will need to put in much more effective work if they're to prove as productive as human airport workers. Having robots working directly alongside humans will also introduce new safety considerations for airports like Haneda Airport, which is Japan's second-largest airport, with flights arriving approximately every two minutes. The first step in the pilot program will involve identifying which airport areas will be safest for humanoid robots.
Une contributrice de Wikipédia a découvert que l’IA de Doctrine.fr avait « halluciné » que la Cour européenne des droits de l’homme avait « rejeté » la requête d’un plaidant. Or, la CEDH l’avait non seulement acceptée, mais la France avait en outre été condamnée à lui verser des indemnités. Doctrine.fr, qui vient d’entrer en négociations pour un rachat par le géant britannique RELX, nous répond que « d’après nos benchmarks, les hallucinations sont résiduelles ».
Sur son site, Doctrine.fr se présente comme « La 1re plateforme d’IA juridique », qui « soulage les avocats et juristes des tâches répétitives et chronophages d’analyse du dossier, recherche juridique et rédaction pour qu’ils sécurisent leur positions juridiques et gagnent en productivité » :
« Notre IA a été spécialement entraînée sur de l’information juridique à reproduire le raisonnement d’un juriste. Nos chatbots citent systématiquement leurs sources, des références juridiques à forte valeur ajoutée. Nos outils de productivité ont été pensés pour coller au plus près des besoins des professionnels. Nous ne laissons rien au hasard. »
En mars 2025, Doctrine rajoutait une « synthèse claire et visuelle », générée par IA, sur des millions de pages de décisions, résumant les arguments invoqués par les parties, s’ils avaient été acceptés ou rejetés, et pour quels motifs. Ces synthèses précisent que « Le contenu a été généré à l’aide de l’intelligence artificielle. Pensez à vérifier son exactitude. », tout en proposant un lien pour « Signaler une erreur dans le résumé ».
Capture d’écran des synthèses de décisions générées par IA sur Doctrine.fr
La semaine passée, Pa2chant.bis, une contributrice de Wikipédia, s’étonnait, sur le Bistro de l’encyclopédie, de découvrir que la « synthèse claire et visuelle » d’une décision de la CEDH sur Doctrine.fr indiquait que le recours d’un plaignant avait été « rejeté » au motif que « le requérant avait eu l’opportunité de se défendre sur les faits qui lui étaient reprochés ».
« Soit exactement le contraire » de ce qu’indiquait l’article Wikipédia consacré au plaignant, l’homme d’affaires franco-suisse Alain Duménil, qui mentionnait pourtant précisément Doctrine.fr comme source, déplore Pa2chant.bis :
« Cet argument, signalé comme étant à contrôler car généré par IA, ne figure pas dans le texte d’origine. Il est juste développé dans un encart mentionnant qu’il a été « résumé par IA ». J’ai cru un instant à un détournement de sources. Or quand on va chercher la source primaire contenant ce jugement, on voit que c’est l’IA qui a inventé la conclusion, en donnant le contraire exact de la décision. »
La requête du plaignant, introduite en 2013, avait non seulement bien été communiquée à la CEDH en 2019, mais cette dernière avait également condamné la France à lui verser 15 000 € « pour frais et dépens ».
« Cela me semble d’autant plus rédhibitoire pour un site juridique qu’il faut un temps fou pour retrouver, ailleurs, la décision, le site doctrine promettant un accès au pdf d’origine en échange d’un abonnement gratuit mais demandant finalement en plus la communication de son numéro de téléphone », déplore Pa2chant.bis : « Bref, je pense qu’on devrait dorénavant se passer des services de ce site. Qu’en pensez-vous ? ».
« L’IA sert à gagner du temps, pas à remplacer la réflexion humaine »
« Aucune intelligence, humaine ou artificielle, n’est infaillible, ce pourquoi nous précisons clairement sur chaque contenu généré par IA que cela a été le cas, et que nous invitons les utilisateurs à en vérifier l’exactitude », lui a répondu Hugo Ruggieri, qui précise sur son profil Wikipédia qu’il est directeur juridique et affaires publiques de Doctrine :
Il reste 62% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Ces dernières heures, le bruit a couru que GALAX mettait officiellement fin à ses activités après plus d’une trentaine d’années d’existence (la fondation de la marque remonte à 1994). D’aucuns ont donc annoncé la fin des produits Hall of Fame, ainsi que de la marque KFA2 pour le marché européen... [Tout lire]
Avec la crise de la mémoire qui plombe les prix des composants PC, monter une machine ou en acheter une toute faite est douloureux pour le portefeuille. À la place, pourquoi ne pas recycler une PS5 en PC sous Linux ? C’est maintenant possible, grâce à une bidouille de haute volée… mais avec de grosses limites.
Après tout, la PS5 est (presque) un PC comme un autre, avec son architecture AMD. Alors pourquoi limiter la console aux jeux PlayStation ? Une manipulation permet de lancer Linux sur la version « Phat » de la PS5 (les modèles d’avant la génération Slim de 2023). La manip, développée par Andy Nguyen, est documentée sur GitHub. Après installation, la PS5 peut démarrer sur Ubuntu 24.04 à partir d’un disque USB externe, ou même du SSD M.2 optionnel à brancher sur le slot d’extension de la console.
Des jeux PC sur PS5
Cela permet, par exemple, d’installer des jeux depuis la version Linux de Steam à l’image de GTA 5 Enhanced. Comme l’a montré Andy Nguyen, le jeu tourne au poil avec le ray tracing en prime. L’utilisateur pourra profiter d’une machine dotée d’un processeur 8 cœurs Zen 2 (16 threads) à 3,5 GHz et d’un GPU RDNA 2 à 2,23 GHz, à brancher sur un écran jusqu’à 4K à 60 Hz. Autant dire aussi que l’émulation de jeux ne pose aucun problème avec ce genre de configuration. Et il est également possible de se servir de cette PS5 sous Linux comme d’un ordinateur de bureau classique, en joignant un clavier et une souris puisque les ports USB de la console sont fonctionnels.
Le sympathique logo de PS5 Linux
Mais avant tout, il faudra posséder la bonne génération de la console fonctionnant sous une version du logiciel interne prise en charge par le hack : 3.00, 3.10, 3.20, 3.21 (sans support du SSD M.2), ou encore 4.00, 4.02, 4.03, 4.50, 4.51 (avec support du SSD M.2). Les versions 1.xx et 2.xx pourraient être ajoutées au lot, tout comme les firmwares 5.xx. Dans ce dernier cas cependant, Linux tournera dans une machine virtuelle de GameOS (le nom officieux du système d’exploitation de la PS5), ce qui pourrait impliquer des restrictions.
Même si ce n’est pas si simple, il est possible d’installer une version plus ancienne du firmware de la console, en téléchargeant la version désirée du logiciel puis en suivant le guide officiel de Sony à ce sujet. Le bidouilleur propose d’exploiter une faille de l’hyperviseur, la couche du système qui contrôle tout ce qui tourne sur la machine, et un jailbreak basé sur umtx2 indispensable pour exécuter du code non signé. La procédure demande aussi de configurer un faux serveur DNS et un hôte HTTPS sur un PC en local afin de déclencher la vulnérabilité.
Image : Andy Nguyen
Une fois le payload en place, la console passe en mode veille et la LED en façade doit passer à l’orange. Appuyer sur le bouton d’allumage permet de démarrer sous Linux. Si la LED devient blanche, magie de l’informatique, l’installation a fonctionné et à vous les joies de Linux sur PS5. Tout passe par le stockage externe, le SSD interne de la PS5 n’est pas modifié.
Évidemment, on est loin d’une manipulation plug’n play, ce d’autant qu’il faut relancer la manipulation à chaque fois pour démarrer sous Linux ; ce n’est pas à proprement parler une solution dual-boot. Et puis il faudra faire sans le support du Wi-Fi natif ni du Bluetooth (on peut passer par un dongle), s’accommoder d’une sortie audio parfois instable et d’une compatibilité vidéo capricieuse. C’est néanmoins un premier pas particulièrement intéressant, car il ouvre la voie à des solutions plus stables.
Avec la crise de la mémoire qui plombe les prix des composants PC, monter une machine ou en acheter une toute faite est douloureux pour le portefeuille. À la place, pourquoi ne pas recycler une PS5 en PC sous Linux ? C’est maintenant possible, grâce à une bidouille de haute volée… mais avec de grosses limites.
Après tout, la PS5 est (presque) un PC comme un autre, avec son architecture AMD. Alors pourquoi limiter la console aux jeux PlayStation ? Une manipulation permet de lancer Linux sur la version « Phat » de la PS5 (les modèles d’avant la génération Slim de 2023). La manip, développée par Andy Nguyen, est documentée sur GitHub. Après installation, la PS5 peut démarrer sur Ubuntu 24.04 à partir d’un disque USB externe, ou même du SSD M.2 optionnel à brancher sur le slot d’extension de la console.
Des jeux PC sur PS5
Cela permet, par exemple, d’installer des jeux depuis la version Linux de Steam à l’image de GTA 5 Enhanced. Comme l’a montré Andy Nguyen, le jeu tourne au poil avec le ray tracing en prime. L’utilisateur pourra profiter d’une machine dotée d’un processeur 8 cœurs Zen 2 (16 threads) à 3,5 GHz et d’un GPU RDNA 2 à 2,23 GHz, à brancher sur un écran jusqu’à 4K à 60 Hz. Autant dire aussi que l’émulation de jeux ne pose aucun problème avec ce genre de configuration. Et il est également possible de se servir de cette PS5 sous Linux comme d’un ordinateur de bureau classique, en joignant un clavier et une souris puisque les ports USB de la console sont fonctionnels.
Le sympathique logo de PS5 Linux
Mais avant tout, il faudra posséder la bonne génération de la console fonctionnant sous une version du logiciel interne prise en charge par le hack : 3.00, 3.10, 3.20, 3.21 (sans support du SSD M.2), ou encore 4.00, 4.02, 4.03, 4.50, 4.51 (avec support du SSD M.2). Les versions 1.xx et 2.xx pourraient être ajoutées au lot, tout comme les firmwares 5.xx. Dans ce dernier cas cependant, Linux tournera dans une machine virtuelle de GameOS (le nom officieux du système d’exploitation de la PS5), ce qui pourrait impliquer des restrictions.
Même si ce n’est pas si simple, il est possible d’installer une version plus ancienne du firmware de la console, en téléchargeant la version désirée du logiciel puis en suivant le guide officiel de Sony à ce sujet. Le bidouilleur propose d’exploiter une faille de l’hyperviseur, la couche du système qui contrôle tout ce qui tourne sur la machine, et un jailbreak basé sur umtx2 indispensable pour exécuter du code non signé. La procédure demande aussi de configurer un faux serveur DNS et un hôte HTTPS sur un PC en local afin de déclencher la vulnérabilité.
Image : Andy Nguyen
Une fois le payload en place, la console passe en mode veille et la LED en façade doit passer à l’orange. Appuyer sur le bouton d’allumage permet de démarrer sous Linux. Si la LED devient blanche, magie de l’informatique, l’installation a fonctionné et à vous les joies de Linux sur PS5. Tout passe par le stockage externe, le SSD interne de la PS5 n’est pas modifié.
Évidemment, on est loin d’une manipulation plug’n play, ce d’autant qu’il faut relancer la manipulation à chaque fois pour démarrer sous Linux ; ce n’est pas à proprement parler une solution dual-boot. Et puis il faudra faire sans le support du Wi-Fi natif ni du Bluetooth (on peut passer par un dongle), s’accommoder d’une sortie audio parfois instable et d’une compatibilité vidéo capricieuse. C’est néanmoins un premier pas particulièrement intéressant, car il ouvre la voie à des solutions plus stables.
Merged today to the GCC Git compiler codebase, which will be for GCC 17 rather than the imminent GCC 16.1 stable release, is adding support for the Chinese-manufactured Hygon C86-4G-M4 / C86-4G-M6 / C86-4G-M7 series x86_64 processors...