Vue normale

Reçu hier — 29 avril 2026 Next - Articles gratuits

GitHub en perte de fiabilité et de développeurs [MàJ]

29 avril 2026 à 15:56
L'uptime fait le pont du 1er Mai
GitHub en perte de fiabilité et de développeurs [MàJ]

GitHub a un problème de fiabilité qui pèse de plus en plus lourd dans l’esprit des utilisateurs. Plusieurs développeurs, usés par les dysfonctionnements de la plateforme de Microsoft, ont décidé de plier bagage.

Mise à jour, 30 avril, 8h10 : ajout des éléments de réponse apportés par GitHub sur l’explosion des volumes de requêtes associée notamment à l’IA.

C’est la mort dans l’âme que Mitchell Hashimoto, développeur de Ghostty, a pris ses cliques et ses claques : son émulateur de terminal va déménager sur une autre plateforme. Sur GitHub, où le logiciel est développé depuis 18 ans, il ne restera plus que le code source en lecture seule. « Je suis l’utilisateur GitHub 1299, inscrit en février 2008. Depuis, j’ouvre GitHub tous les jours, chaque jour, plusieurs fois par jour, depuis plus de 18 ans », écrit-il sur son blog. Mais alors, pourquoi cette décision ?

Les pannes s’enchaînent

C’est que GitHub n’est plus fiable à ses yeux. Mitchell Hashimoto a marqué d’un « X » les jours du mois où la plateforme a eu « un impact négatif sur ma capacité de travailler ». Résultat : un « X » « presque tous les jours ». GitHub n’est plus un environnement adapté à un travail sérieux « s’il vous bloque pendant des heures chaque jour ». Il partagera un peu plus tard les détails sur le déménagement de Ghostty ; cela prendra du temps de retirer les dépendances sur GitHub. La popularité de l’utilitaire est telle que plusieurs fournisseurs se montrent intéressés. 

Kyle Daigle, le directeur des opérations de GitHub, a répondu au développeur en se disant désolé de le voir partir : « L’équipe va continuer à travailler pour faire de GitHub un service vers lequel vous aurez envie de revenir, preuves concrètes à l’appui, pas seulement des promesses ». Il ajoute qu’il continuera de soutenir Ghostty en tant qu’utilisateur.

Mitchell Hashimoto n’est pas le seul à en avoir sa claque de GitHub. En novembre dernier, Andrew Kelley annonçait le déménagement de son langage Zig créé en 2015, vers Codeberg. « Il est clair que l’excellence technique qui a fait le succès de la plateforme ne la guide plus. Les priorités et la culture d’ingénierie se sont dégradées, laissant les utilisateurs aux prises avec une sorte de framework JavaScript lourd et truffé de bugs, au nom du progrès », regrette-t-il, avant d’asséner que « ce qui était autrefois rapide est désormais lent, et souvent complètement cassé ».

Andrew Kelley fait remonter les problèmes de GitHub à son acquisition par Microsoft en 2018, pour 7,5 milliards de dollars. À l’époque, la plateforme prédisait « un futur brillant ». Un des problèmes soulevés par les deux développeurs concerne le système d’automatisation GitHub Actions, qui déclenche automatiquement des tâches dès qu’un événement se produit sur un dépôt (un commit, une pull request, un déploiement…). Le jour de la publication de sa note, Mitchell Hashimoto expliquait ne pas avoir pu relire et valider les pull requests pendant deux heures à cause d’une panne de GitHub Actions. Pour Andrew Kelley, ce service a été « complètement négligé ».

Un ou deux développeurs qui quittent GitHub, ce n’est pas encore une hémorragie ou une fuite des cerveaux. Il s’agit toutefois de profils bien connus, qui sont présents et actifs sur la plateforme depuis des années et qui pourraient en inspirer d’autres à regarder ailleurs.

Aux bugs s’ajoutent les failles de sécurité. Ce lundi 28 avril, GitHub donnait des précisions sur un correctif mis en ligne deux heures après la réception du rapport de vulnérabilité sur le Bug Bounty de la plateforme. Il s’agissait d’une faille critique permettant d’exécuter du code à distance. Il n’y a eu aucune exploitation, et GitHub tient à faire savoir au monde sa rapidité de réponse. Néanmoins, cela participe aussi à une certaine défiance.

GitHub incrimine l’explosion du volume de requêtes

GitHub a indirectement répondu à ces critiques par l’intermédiaire d’un billet de blog, lui aussi daté du 28 avril, signé par Vlad Fedorov, directeur technique. Ce dernier y explique que GitHub a engagé un plan de multiplication par dix des capacités de sa plateforme, précisément pour en améliorer la fiabilité, mais l’effort se serait finalement révélé insuffisant : en février, il aurait ainsi mesuré que ces capacités auraient dû progresser d’un facteur 30, principalement à cause de l’essor des agents IA : « Le principal facteur est l’évolution rapide des méthodes de développement logiciel. Depuis la seconde moitié de décembre 2025, les flux de travail de développement automatisés se sont considérablement accélérés. »

Fedorov promet à cette occasion que les équipes sont entièrement mobilisées sur le sujet :

« Nos priorités sont claires : la disponibilité d’abord, puis la capacité, et enfin les nouvelles fonctionnalités. Nous réduisons les tâches inutiles, améliorons la mise en cache, isolons les services critiques, éliminons les points de défaillance uniques et déportons les processus critiques vers des systèmes conçus pour ces charges de travail. »

L’IA pointée du doigt

Cette remarque peut être perçue comme paradoxale du point de vue des développeurs qui observent l’insistance avec laquelle Microsoft cherche à fourrer de l’IA générative partout dans GitHub. Le développeur de Zig rappelle les propos tenus en août 2025 par Thomas Dohmke, le directeur général de la plateforme : « Soit vous adoptez l’IA, soit vous quittez votre carrière. »

Reste à voir comment cette IA s’intègre dans GitHub. Mais pour Andrew Kelley, le compte n’y est pas : GitHub Actions a commencé à choisir les tâches à exécuter de manière « apparemment aléatoire ».

Ce trop plein d’IA et la grogne qui en découle ont manifestement atteint les oreilles des dirigeants de Microsoft. L’éditeur va prioriser la stabilité et la fiabilité de Windows 11, en réduisant la voilure sur les fonctions d’IA qui n’apportent aucun bénéfice. Et même chez Xbox, la nouvelle direction incarnée par Asha Sharma ne veut pas inonder sa plateforme de « bouillie IA ». Alors à quand la prise de conscience chez GitHub ?

Formule 1, MotoGP : Canal+ fait feu de tout bois pour faire bloquer le streaming pirate

29 avril 2026 à 15:31
Lâche ce rocher, Sisyphe
Formule 1, MotoGP : Canal+ fait feu de tout bois pour faire bloquer le streaming pirate

Canal+ vient d’obtenir du tribunal judiciaire de Paris une salve de décisions ordonnant la mise en œuvre de mesures de blocage portant sur une vingtaine de sites de streaming donnant accès aux retransmissions de la saison en cours de Formule 1 et de MotoGP. Comme dans le foot, Canal+ ratisse large pour défendre ses droits, avec des procédures qui visent opérateurs, moteurs de recherche, fournisseurs de DNS alternatifs et VPN.

Cette nouvelle salve de décisions n’endiguera pas définitivement le phénomène, mais elle devrait conforter Canal+ dans sa volonté de porter le fer aussi souvent que possible pour faire valoir ses droits. Le groupe audiovisuel a en effet obtenu le 17 avril dernier une salve de décisions de justice ordonnant le blocage d’une vingtaine de sites et miroirs de sites diffusant, en streaming (direct ou différé), des compétitions dont il a acquis les droits.

Deux procédures parallèles visaient à défendre la retransmission de la saison 2026 de Formule 1 (du 6 mars au 6 décembre 2026) et son équivalent dans le monde de la moto, le MotoGP, organisé entre le 27 février et le 22 novembre 2026.

Concernant la Formule 1, le tribunal judiciaire de Paris prononce ainsi le blocage sous trois jours des sites suivants :

  1. antenawest.store
  2. antenapluto.store
  3. antenasouth.store
  4. huhu.to
  5. daddylive3.com
  6. rereyano.ru
  7. telestream.mom
  8. kondoplay.cfd
  9. epicplayplay.cfd
  10. lefttoplay.xyz
  11. hoca6.com
  12. rightflourish.net
  13. iptvs.pw
  14. outfitreferee.net
  15. iptvsupra.com
  16. d4ktv.info
  17. king365tv.me
  18. top1iptv.my
  19. smartbox-tv.com
  20. marcobox.in

Un processus désormais bien rodé

Historiquement très impliqué dans la lutte contre le piratage, Canal+ entreprend depuis plusieurs années d’endiguer, à défaut de pouvoir l’interrompre, le streaming illégal. Pour ce faire, le groupe a procédé par étape, en superposant des demandes de blocage visant à prévenir, l’une après l’autre, les mesures de contournement technique.

Soutenu par la loi Arcom d’octobre 2021 puis par l’article L333-10 du Code du Sport, le groupe a d’abord sonné la charge à partir de 2022 en saisissant la justice pour obtenir le blocage de sites pirates par les fournisseurs d’accès à Internet, puis le déréférencement par les moteurs de recherche l’année suivante. Il a ensuite progressivement étendu la portée de ses demandes aux fournisseurs de DNS alternatifs (Google, Cloudflare, etc.) en 2024, puis aux solutions de type VPN ou proxy en 2025, en vertu du DSA.

Rappelons que depuis 2022, ce blocage est fait sous forme d’injonctions « dynamiques » : le juge délivre d’abord une ordonnance enjoignant le blocage d’une liste de sites donnée, pour la durée de la compétition sportive concernée. Le titulaire de droits peut ensuite demander à l’Arcom d’actualiser ou d’étendre cette liste pour prendre en compte les miroirs ou nouveaux sites qu’il aurait découverts, sans qu’il soit nécessaire de retourner devant la justice.

Rappel du principe de l’injonction dynamique selon l’Arcom

C’est le caractère dynamique de ce dispositif qui explique l’explosion du nombre de noms de domaine bloqués par l’Arcom : l’Autorité issue du rapprochement entre le CSA et la Hadopi en référençait ainsi plus de 15 000 depuis 2022 dans son bilan de sa lutte contre le piratage des contenus culturels et sportifs publié fin mars.

Canal+ empile les demandes

Du côté de Canal+, représenté par ici par deux de ses entités, la méthode est désormais largement rodée, comme en témoigne l’une des 18 décisions datées du 17 avril qui incarnent cette double offensive centrée sur la F1 et le MotoGP (voir un exemple). Toutes suivent le même déroulé.

Entre octobre et novembre, Canal+ fait réaliser via l’Association de lutte contre la piraterie audiovisuelle (ALPA) des procès verbaux constatant que les sites litigieux diffusent un flux identique à celui des chaînes du groupe au moment des compétitions concernées. Sur la base de ces PV, Canal+ obtient en décembre 2025 l’autorisation d’assigner l’ensemble des prestataires concernés par l’éventail de ses demandes de blocage (opérateurs et FAI, moteurs de recherche, VPN et assimilés) selon une procédure accélérée au fond. L’audience et les décisions s’enchaînent dans un délai d’environ quatre mois.

À quelques menus détails près, la teneur des échanges et de la décision finale reprennent ce que l’on a pu lire dans les textes liés au précédent épisode déclenché par Canal+, lié cette fois à la Ligue des champions 2025/2026, et jugé le 19 décembre dernier.

Pour la F1 comme pour le MotoGP, le tribunal reconnait que Canal+ a bien qualité à agir, et ordonne aux intermédiaire concernés la mise en place, sous trois jours, de toutes mesures de blocage ou de déréférencement propres à empêcher « l’accès aux sites et services IPTV identifiés ci-dessus ainsi qu’aux sites et services IPTV non encore identifiés à la date de la présente décision », et ce « jusqu’à la date de la dernière course de la compétition ».

Au gré des saisons sportives, le nombre d’ordonnances et de décisions augmente, à mesure que Canal+ essaie de combler les trous dans la raquette technique du blocage. Sur cette dernière salve, le groupe audiovisuel obtient des mesures de blocage de la part des principaux opérateurs (en métropole comme dans les DROM-COM) et de Google et Microsoft pour la recherche. Il fait également mouche côté VPN avec un trio de décisions adressées à Proton, NordVPN, Surfshark, Cyberghost et ExpressVPN.

Enfin, Canal+ remet le couvert côté résolveurs DNS alternatifs en visant notamment Cloudflare et Quad9. Le groupe se félicitait d’ailleurs fin mars que les décisions de première instance déjà obtenues à ce niveau aient été confirmées par la cour d’appel de Paris le 27 mars dernier.

Toujours en attente du blocage par adresse IP

Du point de vue des ayant-droits, la prochaine étape majeure est désormais dans les mains du gouvernement. La proposition de loi « relative à l’organisation, à la gestion et au financement du sport professionnel » adoptée par le Sénat en juin 2025 et transmise à l’Assemblée nationale comporte en effet un chapitre spécifiquement consacré au renforcement de la lutte contre le piratage des contenus sportifs.

Dans sa version actuelle, le texte prévoit notamment que les titulaires de droit puissent communiquer à l’Arcom, selon des modalités définies par cette dernière, « les données d’identification permettant d’assurer la mise en œuvre sans délai » de mesures de blocage. Dit autrement, un groupe comme Canal+ pourrait relever en direct l’adresse IP des sites qui diffusent les compétitions dont il a acheté les droits, et obtenir un blocage immédiat de la part des intermédiaires techniques concernés.

« La reprise de l’examen parlementaire de ces dispositions, à l’Assemblée nationale, pourrait également être l’occasion de compléter le texte pour doter l’Arcom d’un pouvoir coercitif de sanction (et pas seulement d’injonction) pour faire appliquer les demandes de blocages DNS que nous notifions, compte tenu des difficultés d’exécution que nous rencontrons avec certains VPN et certains DNS alternatifs », déclarait à ce sujet Martin Ajdari, président de l’Arcom, le 23 mars dernier, en conclusion du forum de l’Association pour la protection des programmes sportifs (APPS).

L’examen à l’Assemblée nationale devrait, sauf bouleversement du calendrier, débuter le 18 mai prochain, a affirmé mi-avril la ministre des Sports Marina Ferrari. À temps, peut-être, pour la saison 2026 - 2027.

Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

29 avril 2026 à 15:04
Plus de sites genAI, mais pas plus de conneries proportionnellement
Le contenu d’un tiers des nouveaux sites est généré totalement ou partiellement par IA

Selon un rapport d’Internet Archive, le contenu de 35 % des sites internet nouvellement créés en mai 2025 était soit complètement généré par intelligence artificielle, soit son édition était grandement assistée par une IA. Cela contribuerait à une baisse de la diversité sémantique et à une augmentation de sentiments très positifs, mais pas forcément à une augmentation de fausses informations.

Le web serait-il devenu un lieu où des machines parlent à des machines ? C’est l’idée qu’ont défendue certains chercheurs dès le début de l’année dernière en relançant la « théorie de l’Internet mort », formulée en 2021.

Le responsable de la Wayback Machine chez Internet Archive, Mark Graham, signe avec un chercheur maison et deux doctorants un rapport (.pdf) qui essaye de quantifier le flux de contenus générés par IA et ses conséquences avec les données récoltées par son outil. « Nous constatons qu’à la mi-2025, environ 35 % des sites web nouvellement publiés étaient classés comme générés par IA ou créés avec l’aide de l’IA, contre zéro avant le lancement de ChatGPT fin 2022 », expliquent-ils.

Pour arriver à cette estimation, l’équipe a extrait le texte des sites nouvellement créés détectés et archivés au sein de la Wayback Machine. Puis, après avoir testé différents outils de détection (Binoculars, Desklib, DivEye et l’API commerciale de Pangram v3), ils ont choisi de s’appuyer sur cette dernière, expliquant que c’était la meilleure solution, notamment pour son taux de détection des textes anglophones comme ceux dans d’autres langues et sa capacité à traiter du HTML.

35 % des nouveaux sites sont remplis de contenus générés par IA

Leurs résultats restent donc très fortement liés à cet outil de détection qui annonce sur son site web une précision de détection de 99,98 % et a mis en ligne un rapport technique sur sa méthode sans que celle-ci ne soit évaluée par des chercheurs indépendants.

Mais selon ces tests sur les archives du web récoltées par Internet Archive, le contenu des nouveaux sites internet est de plus en plus généré par IA ou son édition est grandement assistée par une IA : 35 % l’étaient en mai 2025 :

Ils ont aussi voulu vérifier plusieurs hypothèses craintes suite à la prolifération de ce genre de contenus sur internet qui pourrait « contribuer à une dégradation de la diversité sémantique et stylistique, de l’exactitude des faits, ainsi qu’à d’autres évolutions négatives ».

En faisant un petit sondage, ils se sont aperçus que 75 % des gens avaient peur, par exemple, d’être « de plus en plus souvent confrontés à des informations factuellement erronées et à des hallucinations », et que 83 % d’entre eux pensaient que le style des textes allait s’homogénéiser.

Ils ont ensuite vérifié ces hypothèses sur les données d’Internet Archive. Ils ont, par exemple, payé des fact-checkers pour voir si les informations incorrectes dans les données d’Internet Archive augmentaient. Mais ils n’ont pas trouvé de corrélation statistiquement significative. Pour le dire autrement, cette augmentation du nombre de nouveaux sites avec des contenus genAI ne fait pas augmenter le nombre de fausses informations.

Une similarité sémantique et une augmentation de contenus positifs détectées

En faisant d’autres tests, ils se sont aussi aperçus que l’augmentation des contenus générés par IA dans les données d’Internet Archive n’augmentait pas non plus mécaniquement l’homogénéité stylistique.

« Plutôt qu’une explosion de fausses informations, l’empreinte de la prolifération de l’IA sur Internet se manifeste principalement par une contraction sémantique et un glissement artificiel vers la positivité  », expliquent-ils.

En effet, la similarité sémantique qu’ils ont mesurée avec Pangram v3 augmente de façon corrélée à la prolifération de contenus générés par IA :

Et on retrouve la même corrélation avec le style plus positif des contenus mesuré ici aussi avec Pangram v3 :

« Le résultat le plus surprenant a été que notre hypothèse de la « dégradation de la vérité » n’a pas été confirmée », estime Jonas Doležal, l’un des doctorants de l’Imperial College London qui a participé à l’étude, interrogé par nos confrères de 404 Media.

« Il convient de noter que nous recherchions spécifiquement une augmentation des déclarations vérifiables comme étant fausses, ce que nous n’avons pas trouvé. Mais il se pourrait tout de même que l’IA augmente discrètement le volume des affirmations invérifiables, celles qui ne peuvent être vérifiées à l’aide des outils et des infrastructures de vérification des faits existants. Ou peut-être simplement qu’Internet n’était pas, dès le départ, un espace particulièrement attaché à la vérité », ajoute-t-il quand même.

Transformer une PS5 en PC Linux, c’est possible (avec des limitations)

29 avril 2026 à 13:25
Une autre vie pour la PS5
Transformer une PS5 en PC Linux, c’est possible (avec des limitations)

Avec la crise de la mémoire qui plombe les prix des composants PC, monter une machine ou en acheter une toute faite est douloureux pour le portefeuille. À la place, pourquoi ne pas recycler une PS5 en PC sous Linux ? C’est maintenant possible, grâce à une bidouille de haute volée… mais avec de grosses limites.

Après tout, la PS5 est (presque) un PC comme un autre, avec son architecture AMD. Alors pourquoi limiter la console aux jeux PlayStation ? Une manipulation permet de lancer Linux sur la version « Phat » de la PS5 (les modèles d’avant la génération Slim de 2023). La manip, développée par Andy Nguyen, est documentée sur GitHub. Après installation, la PS5 peut démarrer sur Ubuntu 24.04 à partir d’un disque USB externe, ou même du SSD M.2 optionnel à brancher sur le slot d’extension de la console.

Des jeux PC sur PS5

Cela permet, par exemple, d’installer des jeux depuis la version Linux de Steam à l’image de GTA 5 Enhanced. Comme l’a montré Andy Nguyen, le jeu tourne au poil avec le ray tracing en prime. L’utilisateur pourra profiter d’une machine dotée d’un processeur 8 cœurs Zen 2 (16 threads) à 3,5 GHz et d’un GPU RDNA 2 à 2,23 GHz, à brancher sur un écran jusqu’à 4K à 60 Hz. Autant dire aussi que l’émulation de jeux ne pose aucun problème avec ce genre de configuration. Et il est également possible de se servir de cette PS5 sous Linux comme d’un ordinateur de bureau classique, en joignant un clavier et une souris puisque les ports USB de la console sont fonctionnels.

Le sympathique logo de PS5 Linux

Mais avant tout, il faudra posséder la bonne génération de la console fonctionnant sous une version du logiciel interne prise en charge par le hack : 3.00, 3.10, 3.20, 3.21 (sans support du SSD M.2), ou encore 4.00, 4.02, 4.03, 4.50, 4.51 (avec support du SSD M.2). Les versions 1.xx et 2.xx pourraient être ajoutées au lot, tout comme les firmwares 5.xx. Dans ce dernier cas cependant, Linux tournera dans une machine virtuelle de GameOS (le nom officieux du système d’exploitation de la PS5), ce qui pourrait impliquer des restrictions.

Même si ce n’est pas si simple, il est possible d’installer une version plus ancienne du firmware de la console, en téléchargeant la version désirée du logiciel puis en suivant le guide officiel de Sony à ce sujet. Le bidouilleur propose d’exploiter une faille de l’hyperviseur, la couche du système qui contrôle tout ce qui tourne sur la machine, et un jailbreak basé sur umtx2 indispensable pour exécuter du code non signé. La procédure demande aussi de configurer un faux serveur DNS et un hôte HTTPS sur un PC en local afin de déclencher la vulnérabilité.

Image : Andy Nguyen

Une fois le payload en place, la console passe en mode veille et la LED en façade doit passer à l’orange. Appuyer sur le bouton d’allumage permet de démarrer sous Linux. Si la LED devient blanche, magie de l’informatique, l’installation a fonctionné et à vous les joies de Linux sur PS5. Tout passe par le stockage externe, le SSD interne de la PS5 n’est pas modifié.

Évidemment, on est loin d’une manipulation plug’n play, ce d’autant qu’il faut relancer la manipulation à chaque fois pour démarrer sous Linux ; ce n’est pas à proprement parler une solution dual-boot. Et puis il faudra faire sans le support du Wi-Fi natif ni du Bluetooth (on peut passer par un dongle), s’accommoder d’une sortie audio parfois instable et d’une compatibilité vidéo capricieuse. C’est néanmoins un premier pas particulièrement intéressant, car il ouvre la voie à des solutions plus stables.

☕️ Suivant OpenAI, Google négocie pour faire une place à Gemini au Pentagone

29 avril 2026 à 12:42


Après avoir mis la pression sur Anthropic pour pouvoir utiliser comme il veut ses modèles jusqu’à l’avoir désignée « fournisseur à risque pour la sécurité nationale », le Pentagone s’est tourné vers les concurrents de la startup. D’abord OpenAI en mars, le Pentagone est maintenant en discussion avec Google.

Cameron Stanley, le responsable numérique du Pentagone a confirmé être en discussion avec l’entreprise pour l’utilisation de Gemini au sein du département de la Défense états-unien. « Il n’est jamais bon de trop dépendre d’un seul fournisseur », a-t-il expliqué à CNBC, « on le constate particulièrement dans le domaine des logiciels ».

La justice a récemment refusé l’appel effectué par Anthropic concernant cette qualification qui l’empêche de travailler avec le département de la défense.

Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan
Illustration : Flock

Cameron Stanley a affirmé à CNBC qu’utiliser Gemini permettait au Pentagone d’économiser « littéralement des milliers d’heures de travail chaque semaine ». Selon Google, l’entreprise fait partie d’un « vaste consortium » fournissant des services et des infrastructures « au service de la sécurité nationale ».

Chez OpenAI, l’accord avait provoqué des remous en interne jusqu’à la démission de la responsable de la branche robotique d’OpenAI, Caitlin Kalinowski. Selon le Washington Post, l’accord avec le Pentagone fait aussi réagir au sein de Google. Plus de 600 employés, dont une bonne partie sont au DeepMind AI lab qui développe Gemini, ont signé une lettre adressée à Sundar Pichai, le CEO de l’entreprise.

« Nous voulons que l’IA profite à l’humanité ; nous ne voulons pas qu’elle soit utilisée à des fins inhumaines ou extrêmement néfastes. Cela inclut les armes autonomes létales et la surveillance de masse, mais va bien au-delà », écrivent-ils. « La seule façon de garantir que Google ne soit pas associé à de tels préjudices est de refuser tout contrat classifié. Sinon, de telles utilisations pourraient avoir lieu à notre insu et sans que nous ayons les moyens de les empêcher ».

« Des vies humaines sont déjà perdues et les libertés civiles sont menacées, tant dans notre pays qu’à l’étranger, en raison d’une utilisation abusive de la technologie que nous contribuons pour l’essentiel à mettre au point », ajoutent-ils.

L’USB Type-C s’impose davantage en Europe, mais…

29 avril 2026 à 12:03
Universelle Source de Bordel !
L’USB Type-C s’impose davantage en Europe, mais…

Dans l’Union européenne, la directive sur le chargeur universel s’applique désormais aux ordinateurs portables. L’USB Type-C, qui a de nombreux avantages, est obligatoire comme port de charge. Un pas dans le bon sens, mais il reste un problème : la qualité des chargeurs et des câbles, comme nos nombreux tests l’ont démontré.

Depuis fin 2024, tous les nouveaux smartphones mis sur le marché en Europe doivent être équipés d’un port USB Type-C pour la charge. Le mot « nouveau » est important : rien ne change pour les anciens produits déjà en vente ; ils peuvent garder leur port de charge propriétaire.

Depuis maintenant plus d’un an, on parle souvent des smartphones, mais une large gamme de produits est concernée : tablettes, appareils photo, casques et écouteurs, consoles de jeu, haut-parleurs, liseuses, claviers, souris et systèmes de navigation portables.

« Les équipements électroniques dont la charge ne s’effectue pas avec un dispositif filaire (ex : charge par induction) ne sont pas soumis à l’obligation », rappelle le site Service Public. Il ajoute que « certains appareils trop petits pour un port de charge USB-C ont été exclus du dispositif, comme les montres connectées ». La majorité se charge néanmoins via une technologie sans fil.

Après les smartphones, les ordinateurs portables (même à plus de 240 W)

Depuis hier, le mardi 28 avril 2026, une nouvelle catégorie de produits est concernée : les ordinateurs portables, peu importe leur puissance de charge. La norme USB Type-C Power Delivery (PD) permet, pour rappel, d’aller au-delà des 15 watts maximum de l’USB classique (5 volts et 3 ampères) et de monter jusqu’à 240 watts maximum.

Certains ordinateurs portables ont besoin de plus, mais ce n’est pas une excuse pour la Commission : « Les ordinateurs portables et autres équipements radioélectriques nécessitant une puissance de charge supérieure à 240 W sont-ils exemptés des règles relatives au chargeur universel ? Non. Ils ne sont pas exemptés ». Par contre, le fabricant peut proposer un autre protocole pour dépasser les 240 watts, mais l’« équipement doit également prendre en charge l’USB PD jusqu’à 240 W », indique le texte européen.

Les normes maison, même en USB Type-C, ce n’est pas ce qui manque avec Quick Charge chez Qualcomm (compatible Power Delivery depuis un moment), Fast Charging Protocol (FCP) de Huawei, SuperCharge Protocol (SCP) de Honor, Adaptive Fast Charging (AFC) de Samsung, Pump Express de MediaTek, (Super)VOOC d’OPPO… Il y a des tentatives d’unification de la part de fabricants chinois (Huawei, OPPO, vivo et Xiaomi) avec l’Universal Fast Charging Specification ou UFSC (impossible de passer à côté de ce dessin de xkcd).

Dans sa foire aux questions, la Commission revient sur un point souvent mal compris : « Un équipement radioélectrique peut-il être vendu avec le dispositif de charge inclus dans la boîte ? Oui, pour autant que le consommateur ait également le choix d’acheter le même équipement radioélectrique sans dispositif de charge inclus dans la boîte ». Le client doit avoir le choix.

Par contre, « le fabricant n’est pas tenu de faire en sorte que certaines caractéristiques accessoires (par exemple, une couleur spécifique) des équipements radioélectriques vendus sans chargeur soient identiques ». Il est bien question de « certaines caractéristiques accessoires » pas des « caractéristiques principales ».

Autre point abordé, les obligations ne concernent que la charge et ne précisent donc « aucune règle concernant le transfert de données » via le port USB Type-C. Cela peut varier dans les grandes largeurs entre l’USB 2.0 à 480 Mb/s et l’USB4 v2.0 à 80 Gb/s. C’est un point que nous avons longuement abordé dans notre dossier sur le bordel de l‘USB.

Un « chargeur universel »… mais des caractéristiques à géométrie variable

Le texte européen parle de « chargeur universel » car un même chargeur peut servir pour de nombreux produits différents. Changer d’appareil ne veut pas dire racheter un chargeur… mais ne signifie pas non plus qu’il pourra resservir dans de bonnes conditions.

Le gouvernement affirme que « cette mesure pratique, économique et écologique va faciliter la vie des Français et réduire leur impact environnemental. Ce sont ainsi jusqu’à 11 000 tonnes de déchets électroniques qui seront évités chaque année et 250 millions d’euros économisés pour les particuliers qui n’achèteront plus de chargeurs inutiles ».

C’est la théorie, dans la pratique c’est en effet plus compliqué, comme nous l’avons vu avec notre dossier sur les chargeurs et câbles USB. Nous avons testé fin 2025 plus d’une vingtaine de chargeurs vendus moins de 20 euros sur des plateformes comme Amazon, AliExpress et Cdiscount. Résultat des courses, à peine la moitié des chargeurs sont capables de tenir la puissance annoncée. On ne parle que de tenir la puissance annoncée, pas de la stabilité du signal, de la température…

Il y a des modèles de 65 watts qui ne dépassent pas les 14 watts, d’autres de 120 watts qui coupent à 24 watts, etc. Sans parler des chutes de tension parfois importantes (à peine 4 volts au lieu de 5 volts), des températures qui peuvent atteindre 127 °C lors de nos tests, de la conception dangereuse de certains boîtiers dont la moitié est restée bloquée dans la prise de 220 volts, etc.

Illustration : Flock

C’est aussi le bordel dans les câbles USB

Les chargeurs ne sont pas les seuls à avoir des problèmes, les câbles USB aussi peuvent être dangereux. Avec un même chargeur (de qualité) un mauvais câble USB peut faire baisser la tension de plusieurs volts ou même atteindre plus de 100 °C en surface…

Là encore, nous avons acheté des dizaines de câbles USB sur des plateformes de revendeurs, plus de la moitié n’étaient pas conformes. Certains affirment pouvoir tenir 240 watts, mais ne sont pas équipés de la puce eMarker nécessaire pour dépasser les 60 watts.

Pour rappel, le marquage électronique est obligatoire au-delà de 60 watts avec, en prime, la mention EPR pour dépasser les 100 watts (et monter jusqu’à 240 watts). Sans cela, le chargeur n’est pas censé dépasser les 60 watts pour éviter tout problème.

Illustration : Flock

Une bonne idée et un connecteur pratique, pas toujours simple à comprendre

Alors oui, l’USB Type-C est un connecteur réversible et intéressant sur le papier car il permet à la fois de charger (y compris en rapide jusqu’à 240 watts) et de transférer des données à plusieurs dizaines de Gb/s, mais il est facile de se perdre dans cette jungle. Combien d’utilisateurs se sont retrouvés face à des chargeurs qui ne « chargent pas vite » sans comprendre pourquoi.

Votre smartphone ou ordinateur portable est capable de prendre 100 watts de charge et vous avez un chargeur de 100 watts d’un ancien appareil ? Parfait, vous dites-vous, il va resservir. Sauf qu’il faut être certain que le chargeur peut tenir les 100 watts en toute sécurité, que le protocole de charge est bien compatible entre les deux et que le câble permette de faire passer cette puissance. Faute de quoi, la puissance est radicalement baissée, jusqu’à 2,5 watts minimum (5 volts avec 500 mA).

Dans l’ensemble, les chargeurs de marques reconnues comme Ugreen, Anker, Belkin, Amazon et Ikea s’en sortent bien mieux, en tenant les promesses annoncées sans trop chauffer. Là encore, nous avons publié de nombreux tests.

☕️ Pour Bruxelles, Meta a enfreint le DSA sur l’accès à ses réseaux au moins de 13 ans

29 avril 2026 à 09:57


L’année dernière, la Commission européenne avait ouvert deux enquêtes sur la protection des mineurs sur Facebook et Instagram. Concernant l’accès à ses réseaux par les moins de 13 ans, elle vient de conclure « à titre préliminaire » que ces plateformes « enfreignaient la législation sur les services numériques (DSA) pour ne pas avoir identifié, évalué et atténué avec diligence les risques liés à l’accès des mineurs de moins de 13 ans à leurs services ».

Illustration : Flock

La Commission européenne considère notamment que les mesures mises en place par Meta pour faire respecter ses propres conditions générales fixant l’âge minimum à 13 ans ne sont pas efficaces. « Par exemple, lors de la création d’un compte, les mineurs de moins de 13 ans peuvent saisir une fausse date de naissance qui leur permet de faire plus que leur âge, sans aucun contrôle efficace en place pour vérifier l’exactitude de la date de naissance autodéclarée », explique la Commission.

Elle explique aussi que l’outil fourni par Meta pour signaler les mineurs de moins de 13 ans sur la plate-forme est « difficile à utiliser et peu efficace, nécessitant jusqu’à sept clics pour accéder au formulaire de signalement, qui n’est pas automatiquement prérempli avec les informations de l’utilisateur ». Elle ajoute que même lorsqu’il y a un signalement, Meta ne met pas en place de suivi approprié « et le mineur signalé peut simplement continuer à utiliser le service sans aucun type de contrôle ».

Elle estime que l’évaluation effectuée par Meta des risques que des mineurs de moins de 13 ans accèdent à ses plateformes est « incomplète et arbitraire ». Selon la Commission, cette évaluation contredit « de nombreux éléments de preuve provenant de toute l’Union européenne indiquant qu’environ 10 à 12 % des enfants de moins de 13 ans accèdent à Instagram et/ou Facebook » et ignore les preuves scientifiques « facilement disponibles » qui montrent que les jeunes enfants sont plus vulnérables aux problèmes que causent des plateformes comme Instagram et Facebook.

« À ce stade », l’institution européenne considère que les deux plateformes de Meta doivent modifier cette méthode d’évaluation des risques et les évaluer concrètement, mais aussi renforcer les mesures de prévention, de détection et de retrait des mineurs de moins de 13 ans de leur service.

La Commission attend maintenant les réponses de Meta à ces conclusions pour clore définitivement son enquête. Elle ajoute que si ces conclusions sont confirmées, elle pourra infliger une amende de 6 % du chiffre d’affaires annuel mondial de Meta.

À Reuters, Meta a affirmé avoir mis en place des mesures pour détecter et supprimer les comptes d’enfants de moins de 13 ans et qu’elle en dévoilera d’autres la semaine prochaine. « La vérification de l’âge est un défi à l’échelle du secteur, qui nécessite une solution à l’échelle du secteur, et nous continuerons à collaborer de manière constructive avec la Commission européenne sur cette question importante », précise un porte-parole de l’entreprise à l’agence de presse.

Le grand cirque OpenAI avant son introduction en bourse

29 avril 2026 à 08:15
De Sam Altman ou d'Elon Musk, qui fait le clown ?
Le grand cirque OpenAI avant son introduction en bourse

OpenAI a-t-elle les moyens de ses ambitions ? La question, sempiternelle, revient régulièrement sur la table, et encore plus avec l’introduction en Bourse qui se profile à l’horizon. L’inquiétude est de mise, après des bruits de couloir sur les résultats moins bons que prévu… et tout un Barnum d’annonces, de changements et de batailles de prétoires.

OpenAI doit se lancer en Bourse dans le courant du quatrième trimestre. Une IPO maousse costaud à l’horizon, sachant que la dernière levée de fonds de 122 milliards de dollars valorise l’entreprise à hauteur de 852 milliards. Parce qu’on n’a pas souvent l’occasion de faire une bonne première impression devant les investisseurs, la startup doit présenter son meilleur profil possible. Et à en croire les dernières indiscrétions du Wall Street Journal, les résultats de ces derniers mois pourraient jeter un seau d’eau bien glacée sur les ambitions de Sam Altman.

Un fonds de caisse à la peine

ChatGPT aurait ainsi raté la marche du milliard d’utilisateurs actifs hebdomadaires en fin d’année dernière. Lors de l’annonce de la levée de fonds le 31 mars, OpenAI en annonçait « plus de 900 millions », et comptait 90 millions d’abonnés. L’entreprise expliquait toutefois que sa « plateforme technologique » sera la première à atteindre le milliard. Le fait de n’avoir toujours pas annoncé le franchissement de ce cap symbolique inquiéterait des investisseurs.

Illustration : Flock

Autre déception : OpenAI aurait aussi manqué son objectif annuel de revenus pour ChatGPT. Dans le même communiqué, le groupe égrenait les bonnes nouvelles sur ce front : le seuil du premier milliard de dollars a été atteint moins d’un an après le lancement du bot, fin 2022. OpenAI réalisait un milliard de dollars par trimestre fin 2024. Désormais, le compteur est à 2 milliards par mois : « à ce stade, notre chiffre d’affaires croît quatre fois plus vite que celui des entreprises qui ont façonné les ères de l’internet et du mobile, comme Alphabet et Meta », fanfaronnait OpenAI.

ChatGPT est cependant tombé sur un os l’an dernier. Google a mis les bouchées doubles avec Gemini 3, qui a permis au géant du web de grignoter des parts de marché — forçant OpenAI à lancer une « alerte rouge » pour accélérer la sortie de GPT-5.2. Le taux de désabonnement aurait également été plus élevé qu’attendu.

Enfin, l’éparpillement d’OpenAI, entre « mode adulte » de ChatGPT et génération de vidéos Sora, aurait permis à Anthropic de cimenter sa position de force chez les développeurs et les entreprises. C’est d’ailleurs ce qui a motivé l’abandon de ces expérimentations, pour revenir aux fondamentaux. Et à la mise en chantier d’une « superapp », dont on commence à voir les contours dans Codex. En attendant que ce recentrage porte ses fruits, les objectifs mensuels de chiffre d’affaires n’auraient pas été au rendez-vous à plusieurs reprises depuis le début d’année.

Sarah Friar, la directrice financière d’OpenAI (CFO), s’inquiéterait selon le Wall Street Journal des capacités de l’entreprise à honorer les contrats monumentaux passés avec des fournisseurs de capacités de calcul, si les revenus ne progressent pas suffisamment vite. La CFO ainsi que d’autres dirigeants chercheraient désormais à maîtriser les coûts et instaurer davantage de discipline. Ce qui peut les mettre en porte-à-faux vis-à-vis de Sam Altman, dont les ambitions n’ont pas reculé.

OpenAI s’est inscrite en faux face aux indiscrétions du WSJ, qualifiées d’« appâts à clics ». L’entreprise affirme que ses activités grand public et pro tournent à plein régime, et observe une hausse de la demande du côté des clients professionnels et pour son activité publicitaire. « L’ambiance en interne est extrêmement positive », assure encore le groupe.

Microsoft devient un partenaire presque comme les autres

Afin d’améliorer la perception de l’entreprise, OpenAI s’est finalement débarrassé du boulet Microsoft, du moins d’une partie. L’accord qui liait les deux entreprises depuis les origines de la startup a été révisé en profondeur. Jusqu’à présent, le géant du logiciel disposait d’un droit exclusif pour commercialiser les modèles d’OpenAI via le cloud Azure : ce verrou a sauté. D’autres acteurs, dont Amazon, vont pouvoir vendre ces modèles sur leurs propres plateformes (AWS dans le cas présent).

Au fur et à mesure qu’OpenAI grandissait, la situation avec Microsoft devenait de plus en plus complexe, Microsoft devant verser à son partenaire une part des revenus générés par les produits et services vendus via son infrastructure. Ça n’est désormais plus le cas. L’éditeur de Windows conserve néanmoins une place de choix, d’abord grâce aux 27 % qu’il détient dans le capital d’OpenAI suite à sa restructuration il y a un an.

Et puis Microsoft demeure le principal fournisseur de cloud d’OpenAI, dont les nouveaux produits seront lancés en priorité sur Azure. Le mastodonte percevra aussi une part des revenus d’OpenAI jusqu’en 2030, quel que soit l’avancée du développement de l’intelligence artificielle générale (AGI). L’ancien accord prévoyait l’arrêt de ces paiements en cas d’atteinte de l’AGI.

Des principes à géométrie variable

OpenAI a également, assez discrètement, revu ses principes fondateurs. Sam Altman a présenté sur le blog de l’entreprise une nouvelle liste de cinq grands principes censés guider le développement des modèles les plus avancés. Le premier glissement concerne justement l’AGI qui passe au second plan après avoir été longtemps au cœur du projet.

Le précédent texte de 2018 y faisait souvent référence, ce qui n’est plus le cas de la version remaniée postée dimanche dernier. Même si l’AGI doit toujours bénéficier à « l’ensemble de l’humanité », la focale s’élargit à l’ensemble des systèmes IA. OpenAI assume aussi une posture plus compétitive, alors que les rivaux — Anthropic, pour ne pas la nommer — exercent une pression toujours plus forte. Il y a 8 ans, OpenAI s’engageait à lever le pied si un autre acteur vertueux prenait de l’avance dans la course à l’AGI.

Sam Altman écrit désormais : « Nous reconnaissons également qu’OpenAI est aujourd’hui une force bien plus importante dans le monde qu’il y a quelques années, et nous serons transparents sur le moment, la manière et les raisons pour lesquelles nos principes opérationnels évoluent. » OpenAI se donne donc une plus grande latitude pour agir dans un contexte bien plus concurrentiel qu’en 2018. 

Les ambitions quasi-philosophiques laissent place à un pragmatisme plus assumé. Le CEO reconnait cependant qu’aucun laboratoire IA ne peut, à lui seul, « garantir un avenir positif ». Il promet de travailler avec d’autres entreprises et d’autres écosystèmes, avec les gouvernements et la société.

Et pendant ce temps, Elon Musk…

Tous ces changements interviennent à un moment décisif pour OpenAI. Le procès opposant Elon Musk à l’entreprise — et donc à Sam Altman — a en effet débuté ce mardi en Californie, culmination d’une saga interminable qui a compté des rebondissements dignes d’une telenovela

Le patron de Tesla, qui a contribué à la création d’OpenAI, reproche à ses anciens partenaires d’avoir trahi la mission initiale de la startup (une organisation à but non lucratif dédiée au « bien de l’humanité ») en la transformant en entité commerciale ayant enrichi Sam Altman.

OpenAI rejette ces accusations et décrit une attaque motivée par la rivalité. La défense souligne aussi le fait qu’Elon Musk dirige un concurrent direct, xAI ; la plainte ne serait dès lors qu’une tentative de déstabilisation. L’homme le plus riche au monde (ou pas loin) réclame l’annulation de la restructuration d’OpenAI, le départ de ses dirigeants et jusqu’à 134 milliards de dollars de dommages et intérêts (!). 

Le déroulement du procès ces prochaines semaines et d’éventuelles révélations sur la vraie santé d’OpenAI pourraient peser lourd sur son IPO.

Brave Origin : un navigateur allégé vendu au prix fort

29 avril 2026 à 06:57
Une offre brave ou téméraire
Brave Origin : un navigateur allégé vendu au prix fort

Brave tente une aventure originale : l’éditeur du navigateur web du même nom va en effet proposer une version Origin du logiciel au prix rondelet de 60 dollars. En échange de quoi, les clients se retrouveront avec une mouture de Brave sans des fonctions que l’on peut désactiver dans la version standard de Brave… gratuitement.

À partir de juin, il sera possible d’acheter Brave Origin, une version sans fioritures du navigateur web. Plusieurs fonctions historiques du logiciel seront désactivées. Ce n’est pas une surprise, le CEO de Brave, Brendan Eich, en parlait l’été dernier, puis de nouveau le 31 décembre 2025.

C’est notamment le cas de Leo (assistant IA intégré), l’outil de vidéoconférence Talk, le flux d’actualités personnalisé, l’accès rapide à Wayback Machine, le système de récompenses, le wallet de cryptos, le VPN, l’accès Tor, ou encore les stats internes. 

Le navigateur où l’on paie pour en avoir moins

Autant dire qu’il ne restera plus grand-chose, si ce n’est bien sûr le moteur Chromium derrière une interface dépouillée, le bloqueur de publicités, les protections de confidentialité (qui continueront d’être mises à jour), et bien sûr les correctifs de sécurité.

Cela concerne les fonctionnalités actuelles, mais aussi celles à venir : « toutes les nouvelles fonctionnalités que nous lancerons (en dehors du cœur de Brave Shields) n’apparaîtraient pas dans l’application autonome Brave Origin », explique l’éditeur.

Brave entend séduire ici tous ceux qui cherchent un navigateur sans fonctions inutiles, sans logique crypto ni publicité interne. Cette version light du navigateur va également alléger le portefeuille, puisqu’elle sera vendue 59,99 dollars (gratuite pour les utilisateurs Linux).

Brave Origin.

10 activations maximum

Cette offre se destine d’abord et avant tout aux utilisateurs les plus « passionnés », ceux qui souhaitent soutenir l’équipe de développement de Brave car toutes ces fonctions peuvent être désactivées dans les réglages du navigateur standard qui ne coûte rien. Il y a néanmoins des points curieux dans cette offre : le nombre d’activations est limité à 10, et cela comprend aussi les installations après restauration d’un PC ou d’un smartphone. 

Brave justifie cette limitation par le système de paiement, qui ne lie pas le navigateur aux informations d’achat. L’éditeur planche toutefois sur un mécanisme qui permettra d’obtenir des activations supplémentaires avec un plafond mensuel.

Autre bizarrerie : Brave Origin est distribué en solo, mais il pourra aussi être acheté et activé dans la version standard de Brave. Dans ce dernier cas, un nouveau panneau de réglages fera alors son apparition, présentant les options désactivées par défaut dans Origin (que l’on pourra donc réactiver si on le souhaite).

Brave Origin ne perd pas de temps au lancement.

Cette future offre a le mérite de sortir du lot, les navigateurs web payants se faisant plutôt rares ces derniers temps. Certains proposent de débloquer des fonctions supplémentaires (comme Brave) pour utiliser le VPN ou des fonctions IA, d’autres des abonnements à l’image de Psylo pour obtenir des options d’anonymat avancé. 

Des fonctions en moins… mais aussi des revenus en moins pour Brave

Ce qui est singulier ici, c’est que Brave Origin fasse payer pour des fonctions en moins ! Le prix demandé reflète la valeur que tire Brave des différents outils intégrés au fil du temps dans le navigateur. L’éditeur l’indique d’ailleurs noir sur blanc : cette « version du navigateur est destinée aux utilisateurs qui n’ont pas besoin de toutes les fonctionnalités qui soutiennent par Brave en tant qu’entreprise, mais qui souhaitent tout de même bénéficier de la confidentialité que seul Brave propose ».

Le logiciel, qui revendique 110 millions d’utilisateurs dans le monde, met en avant son approche basée sur la protection de la confidentialité, mais son modèle économique est parfois déroutant avec ses publicités « respectueuses de la vie privée », son wallet, son VPN et son système de récompenses en crypto (BAT sur la blockchain Ethereum).

Pas besoin d’attendre le mois de juin pour mettre la main sur Brave Origin : la version alpha du navigateur est disponible sur Linux, macOS et Windows dans son canal Nightly. Il est aussi possible d’installer l’équivalent Android depuis le Play Store.

☕️ Serveurs web : correction en urgence de vulnérabilités au niveau de cPanel et WHM

29 avril 2026 à 06:39


L’alerte n’a été que de courte durée, mais elle était de nature à donner quelques sueurs froides aux hébergeurs qui exploitent les panneaux de contrôle cPanel et WHM (Web Host Manager). Mardi 28 avril vers 22 heures (heure de Paris), l’éditeur de cPanel a publié un bulletin de sécurité relatif à un problème de sécurité affectant toutes les versions courantes du logiciel, et concernant différents chemins d’authentification.

Affirmant travailler sur un correctif en urgence, il a indiqué : « En attendant, bloquer l’accès aux ports TCP 2083/2087 via un pare-feu empêchera tout accès non autorisé, mais restreindra également tout autre accès au panneau de contrôle. Il s’agit actuellement de la meilleure solution pour sécuriser vos serveurs jusqu’à la disponibilité du correctif ».

Plusieurs hébergeurs exploitant cPanel ont réagi dans la foulée en suspendant l’accès au logiciel.

« Nous avons proactivement bloqué l’accès à cPanel et WHM sur l’ensemble de notre parc d’hébergement par mesure préventive. C’est la mesure d’atténuation que cPanel recommande elle-même, et c’est actuellement la façon la plus efficace de protéger chaque compte sur chaque serveur WHC jusqu’à la livraison d’un correctif permanent », a par exemple indiqué le canadien WHC.

Même son de cloche chez les Français d’o2switch, sur X : « Malheureusement, l’accès à vos interfaces cPanel est donc impossible tant que l’incident ne sera pas terminé. Cela concerne cPanel au sens large : l’interface technique, les webmails, les webdisks. Dès mise à disposition d’un patch d’urgence par l’éditeur, nous déploierons sur l’intégralité de l’infrastructure ».

Le correctif a été livré environ trois heures après la publication de la première alerte, et largement déployé dans la foulée. « Si vous exploitez un serveur cPanel autogéré ou si vous n’autorisez pas WHC à accéder directement à vos systèmes, vous devez mettre à jour cPanel vous-même dès que possible, ou contacter le support », précise l’hébergeur canadien.

Pour exécuter le correctif, lancez la commande suivante depuis la ligne de commande /scripts/upcp --force.

Capture d’écran de l’alerte cPanel du 28 avril, qui n’a pour l’instant pas fait l’objet d’une CVE

☕️ Ancien de Cloudflare et AWS, Boris Lecoeur prend la tête de Qwant et Shadow

29 avril 2026 à 06:00


Symfonium, la coentreprise montée par les frères Klaba en 2023 avec le soutien financier de la Banque des territoires (25 % du capital), accueillera le 11 mai prochain son nouveau directeur général, Boris Lecoeur. Ancien dirigeant d’AWS France puis de Cloudflare France, il aura la charge de piloter cette entreprise qui rassemble le moteur de recherche Qwant et le service de cloud gaming/desktop Shadow.

« Son profil, à la croisée de la technologie, du produit et du développement commercial, est pleinement aligné avec les ambitions de croissance que nous portons pour Qwant et Shadow dans les prochaines années », salue Octave Klaba, président fondateur de Synfonium (et par ailleurs CEO d’OVHcloud) dans un communiqué.

Boris Lecoeur remplacera donc Olivier Abecassis, arrivé à la tête de Qwant en octobre 2023 et artisan du rapprochement initié avec Ecosia au sein de la coentreprise European Search Perspective. Les raisons du départ de ce dernier ne sont pas expliquées, Octave Klaba se contentant simplement de le remercier « chaleureusement » pour le « travail remarquable accompli ces dernières années ».

Qwant intègre une IA sous forme de chatbot

« Synfonium dispose d’atouts uniques en Europe : une technologie de recherche indépendante avec Qwant et une plateforme de capacité de calcul avec Shadow. Mon rôle est désormais d’aider les équipes à transformer ces fondations en produits utilisés à grande échelle par les entreprises, les développeurs et les acteurs de l’intelligence artificielle en Europe », déclare de son côté le nouveau DG.

La stratégie dessinée par Synfonium dans son communiqué confirme une logique similaire pour les deux entreprises, à savoir développer une brique de services qui puisse à la fois se décliner dans des usages grand public (le cloud gaming, la recherche en ligne, depuis peu assistée par IA) et des débouchés sur le marché entreprise (cloud desktop et mise à disposition de GPU pour de l’inférence côté Shadow, création d’une API de recherche destinée aux acteurs de l’IA baptisée Staan pour Qwant).

« Ces deux dynamiques convergent au sein de Synfonium pour former un ensemble industriel européen capable d’adresser, de bout en bout, les enjeux de la recherche, de la donnée et du calcul à l’ère de l’IA », affirme l’entreprise.

Reçu — 28 avril 2026 Next - Articles gratuits

L’étrange système de vérification des jeux PlayStation dématérialisés : bug ou DRM ?

28 avril 2026 à 14:46
Une date de péremption sur les jeux PlayStation
L’étrange système de vérification des jeux PlayStation dématérialisés : bug ou DRM ?

Un DRM s’est-il discrètement invité dans les jeux PS4 et PS5 achetés en ligne ? C’est la crainte de nombreux joueurs PlayStation, depuis qu’un nouveau système (ou un bug ?) frappe les jeux vendus sur le PS Store.

Mise à jour 29/04 — Dans une déclaration envoyée à GameSpot, un porte-parole de Sony a expliqué qu’« une vérification en ligne unique est nécessaire pour confirmer la licence du jeu, après quoi aucune autre vérification ne sera requise ». Par conséquent, les joueurs pourront continuer à accéder à leurs jeux dématérialisés « et à y jouer normalement ». L’hypothèse du bug semble donc se concrétiser, ce qui sera un soulagement pour beaucoup de joueurs. Ce système de vérification de licence aurait été mis en place pour lutter contre les fraudes au remboursement, mais le mécanisme a été conçu pour se transformer ensuite en licences illimitées.

Article original, 28/04 — Les premiers témoignages sur la présence d’un DRM dans les jeux PS4 et PS5 achetés dans la boutique PlayStation ont commencé à émerger fin mars. Dans la fiche d’information de Resident Evil: Code Veronica X, un joueur a eu la surprise de découvrir la mention « Temps restant : 29 jours ». Le titre avait été acheté quelques jours plus tôt sur le PS Store.

30 jours et puis s’en va

Depuis, la présence de cette période de validité s’est multipliée, toujours pour les jeux en version dématérialisée (des achats ou des démos). Une hypothèse se dégage, après l’enquête du youtubeur Spawn Wave qui a testé plusieurs scénarios. Les jeux achetés ces derniers jours dans la boutique en ligne ont besoin d’un renouvellement de leur licence tous les 30 jours ; l’opération se réalise en connectant la console à internet.

Capture d’écran de la vidéo de Spawn Wave.

En retirant de la console la pile CMOS (qui gère notamment l’horloge interne), Spawn Wave a pu constater que les jeux dématérialisés ne pouvaient plus se lancer, avec ce message d’erreur à la clé : « Impossible d’utiliser ce contenu. Impossible de se connecter au serveur pour vérifier votre licence. Attendez un moment, puis réessayez ». En connectant la console à internet, plus de souci, les jeux se lancent normalement. Il n’a rencontré aucun problème avec des jeux achetés le mois dernier, ni avec des jeux sur support physique.

Sony a mis en ligne une mise à jour du logiciel interne de ses consoles fin mars. Les premiers témoignages de cette procédure de vérification remontent de cette époque : certains jeux vendus sur le PS Store, qu’ils soient récents ou plus anciens, nécessiteraient une connexion aux serveurs de Sony tous les 30 jours pour valider leur licence. 

Image : spider17adams

2013, qui se souvient ?

Tout cela n’est pas sans évoquer le fiasco de la présentation de la Xbox One en 2013, où Microsoft avait tenté d’imposer une vérification en ligne toutes les 24 heures pour les jeux. Le constructeur avait fait marche arrière très vite, mais le mal était fait et d’ailleurs, Sony en avait profité pour troller son rival avec une vraie-fausse publicité restée dans les mémoires. Elle expliquait comment partager ses jeux sur PS4… simplement en les prêtant à un ami.

Sony n’est pas aussi agressif avec cette fenêtre de 30 jours, mais le principe rappelle de mauvais souvenirs : que se passera-t-il si d’aventure, le constructeur décide de fermer ses serveurs ? L’absence de communication officielle n’aide en rien à éclaircir l’affaire… qui pourrait en bout de course n’être qu’un bug. Le comportement est en effet incohérent en fonction des joueurs. Il pourrait s’agir d’une erreur liée à un correctif anti-piratage.

Tout cela rappelle que l’on ne possède pas les jeux, on achète une licence d’utilisation encadrée par l’éditeur. L’industrie fait actuellement face à une fronde de joueurs qui veulent imposer aux éditeurs l’obligation de laisser les jeux achetés dans un état fonctionnel, même après la fermeture des serveurs officiels.

Taylor Swift dépose sa voix et son image comme marques pour contrer les clones IA

28 avril 2026 à 13:11
La guerre contre les clones
Taylor Swift dépose sa voix et son image comme marques pour contrer les clones IA

Les lois sur le droit d’auteur pourraient ne pas suffire à protéger efficacement les artistes contre les clones générés par IA. C’est pourquoi certains d’entre eux ont décidé d’aller plus loin en faisant appel au droit des marques pour protéger leur voix et leur image. Après l’acteur Matthew McConaughey en début d’année, c’est au tour de Taylor Swift.

Taylor Swift a déposé le 24 avril plusieurs marques auprès de l’USPTO, l’agence américaine des brevets et des marques. Deux d’entre elles concernent des extraits de sa voix (« Hey, it’s Taylor Swift » et « Hey, it’s Taylor »). La troisième est une photographie, en l’occurrence Taylor Swift qui « tient une guitare rose avec une sangle noire, vêtue d’une combinaison irisée multicolore et de bottes argentées » (le dépôt est précis).

La voix et l’apparence peuvent-elles être des marques ?

Ces dépôts viennent combler un angle mort juridique lié à l’émergence de l’intelligence artificielle générative. Comme l’explique Gerbenlaw, jusqu’à présent les artistes pouvaient s’appuyer sur le droit d’auteur et le droit à l’image et à la voix (en particulier aux États-Unis) pour protéger leurs créations et leur image. 

L’image déposée par Taylor Swift.

Mais voilà : l’IA permet de générer des contenus « inédits » sans copier un enregistrement existant, « à la manière de ». Difficile d’invoquer le droit d’auteur… Cette zone grise alimente toute une industrie de l’escroquerie, où les deepfakes de vedettes vendent tout et n’importe quoi sur les réseaux sociaux. On a ainsi vu Tom Hanks (le vrai !) prévenir ses fans que contrairement à ce qu’un clone IA laissait penser, il ne faisait pas la promotion d’une assurance pour des soins dentaires.

Les phrases déposées par Taylor Swift, des « marques sonores » comme peuvent l’être la virgule « tudum » de Netflix ou les carillons de la BBC — eux aussi dûment déposés —, servent de point d’ancrage juridique pour protéger sa voix elle-même. Il ne s’agit pas que d’empêcher des copies exactes, mais aussi et surtout les sons qui peuvent porter à confusion. On va là au-delà du droit d’auteur.

Les dépôts de Taylor Swift font écho à l’initiative de Matthew McConaughey qui, mi-janvier, obtenait de l’USPTO l’approbation pour huit marques montrant l’acteur souriant, parlant et regardant au loin. On trouve ainsi dans le lot une courte vidéo de McConaughey assis devant un sapin de Noël, une autre de lui debout sous un porche, et un enregistrement audio dans lequel on l’entend prononcer « Alright, alright, alright », réplique fameuse du film Dazed and Confused.

« Mon équipe et moi voulons être certains que chaque utilisation de ma voix ou de mon image a été approuvée et validée par nous », expliquait l’interprète d’Interstellar au Wall Street Journal. « Nous voulons établir un cadre clair autour de la propriété, où le consentement et l’attribution deviennent la norme dans un monde dominé par l’IA ». Matthew McConaughey n’a rien contre la technologie, bien au contraire : il travaille avec ElevenLabs, dont il est un des investisseurs, pour créer une version en espagnol de sa newsletter.

Ces dépôts de marques sont une protection supplémentaire pour les artistes, mais pour le moment rien ne dit que ce soit suffisant : le droit des marques n’a en effet jamais été testé devant les tribunaux de cette manière, pour protéger une voix ou une apparence humaine. Une voix peut-elle être considérée comme une marque ? Et jusqu’où va la notion de « ressemblance trompeuse » ? À voir ce qu’en diront les tribunaux le cas échéant. Ajoutez à cela les différences juridiques qui existent entre les pays et vous avez une idée du bazar actuel.

Si l’approche fonctionne, alors les plateformes IA pourraient être tenues responsables. Et cela ouvrirait la voie à des injonctions rapides et à un champ d’application plus large que le droit d’auteur.

La Russie accusée du « piratage » de plusieurs centaines de comptes Signal

28 avril 2026 à 10:01
« L'ingrédient le plus actif, c'est vous »
La Russie accusée du « piratage » de plusieurs centaines de comptes Signal

L’Allemagne accuserait la Russie d’être derrière la cyberattaque de comptes Signal de personnalités politiques (notamment des ministres), de journalistes, de militaires, de membres du renseignement, etc. Cela fait des mois que des messageries sont ciblées, pas seulement Signal. Le grand public n’est pas épargné : tout le monde doit être prudent.

Depuis vendredi, l’affaire fait grand bruit : des comptes Signal de centaines de personnalités sont attaqués en Allemagne. Le parquet fédéral a ouvert en février une enquête pour « suspicion d’espionnage », comme le rapporte l’AFP. Hier, des sources ont affirmé à nos confrères allemands de Der Spiegel que l’attaque, qui est toujours en cours, « vient probablement de Russie ». Selon nos confrères, « au moins 300 » victimes seraient à dénombrer.

Les cibles sont de haut vol avec des « personnalités politiques de premier plan […], comme la présidente du Bundestag, Julia Klöckner, qui est en contact régulier avec le chancelier, Friedrich Merz, ainsi que les ministres du Logement, Verena Hubertz, et de l’Éducation, Karin Prien. Des journalistes, des analystes travaillant pour des cercles de réflexion politique, des militaires et des collaborateurs des services de renseignement ont également été pris pour cible », détaille Le Monde.

Mais de quoi parle-t-on exactement ? Signal s’est fait pirater ? Réponse courte, non.

Signal rappelle que « Signal n’a pas été "piraté" »

La messagerie chiffrée s’est d’ailleurs fendue d’un message sous la forme de communiqué sur BlueSky, Mastodon et X.com : « Tout d’abord, il est important d’être précis lorsqu’il s’agit d’une infrastructure critique comme Signal. Signal n’a pas été « piraté » : notre chiffrement, notre infrastructure et l’intégrité du code de l’application n’ont pas été compromis ».

Des comptes ont néanmoins été piratés, comment ? Avec une campagne de phishing en se faisant passer pour un compte officiel Signal Support : « Ils ont modifié leur nom d’utilisateur et utilisé l’ingénierie sociale pour inciter les utilisateurs à divulguer leurs identifiants, ce qui leur a permis de prendre le contrôle de certains comptes Signal ».

La manière de faire est détaillée dans ce thread, mais c’est toujours un peu la même chose : récupérer des identifiants et/ou mots de passe, pousser l’utilisateur à faire des actions « pour son bien ». Le tout en misant sur le nom du compte – Signal Support – qui tente de se faire passer pour officiel. Signal précise que, « dans les semaines à venir, nous déploierons plusieurs modifications afin de limiter ce type d’attaques », sans plus de détails.

La messagerie rappelle une règle qui s’applique au-delà de la messagerie : « N’oubliez pas que personne du support Signal ne vous enverra jamais de message ni ne vous demandera votre code de vérification d’inscription ou votre code PIN Signal ».

Des alertes depuis des semaines

Le cas Signal n’est pas nouveau, ni isolé. Il y a un mois, le Centre de Coordination des Crises Cyber (C4, qui réunit ANSSI, COMCYBER, DGA, DGSI et DGSE) publiait une note d’alerte sur une « recrudescence des campagnes d’attaques visant les comptes de messageries instantanées de personnalités politiques, de hautes autorités et de cadres de l’administration. Les secteurs régaliens sont spécifiquement visés ». Quelques jours auparavant, les services de cybersécurité allemand et néerlandais sonnaient déjà l’alerte.

Le C4 réunit ANSSI, COMCYBER, DGA, DGSI et DGSE

Le C4 expliquait que les attaques « exploitent un éventuel manque de vigilance amenant une victime à donner des accès à son compte à une tierce personne », du phishing tout ce qu’il y a de plus basique en somme.

Une fois le compte piraté, « l’attaquant peut ainsi avoir accès à des données sensibles, telles que l’historique des conversations des personnes ciblées ainsi que le carnet d’adresses de la victime. L’association d’appareils permet aussi à l’attaquant d’envoyer des messages en usurpant son identité. Les comptes des victimes peuvent également être utilisés à des fins de désinformation et de manipulation, notamment dans le cadre de manœuvres d’ingérence étrangère ».

Captures d’écran de messages envoyés par de faux comptes de « Signal Support » – C4

« Toutes les autres messageries instantanées grand public sont concernées »

Signal était déjà pointé du doigt par le C4, mais la note ajoutait que « toutes les autres messageries instantanées grand public sont concernées par ce mode opératoire »… La messagerie chiffrée française Olvid en avait profité pour se mettre en avant : « Toutes ? Non ! Car une messagerie conçue par d’irréductibles cryptologues gaulois résiste encore et toujours à ces adversaires ».

Deux sujets. D’abord, la fausse invitation à rejoindre un groupe ou l’ajout d’un appareil à son compte. Olvid détaille sa manière de faire, mais reconnait néanmoins qu’il « est probable qu’aucune méthode ne garantisse une protection absolue contre l’ingénierie sociale ». Elle ajoute que son « mécanisme d’ajout d’appareil complique considérablement la tâche de l’adversaire ».

Deuxième point, la sollicitation directe avec un pirate qui tente de « se faire passer pour un tiers, auprès de n’importe quel autre utilisateur ». Exactement comme le cas du faux compte Support. Olvid affirme que, aussi bien en présentiel qu’à distance, « l’ajout d’un contact nécessite systématiquement une action explicite de l’utilisateur, le forçant à vérifier l’identité de son nouvel interlocuteur. Résultat : le spam est impossible sur Olvid, ce qui réduit drastiquement le risque de phishing ». Réduit, pas supprimé totalement.

Un exemple pratique et récent avec la plateforme Getaround

Ces derniers jours, la plateforme de location de voitures Getaround (concurrent de Turo) a été victime du même genre de tentatives de phishing, comme nous en avons fait l’expérience. La technique est la même : des comptes tentant de se faire passer pour des officiels avec des pseudos comme « Getaround » ou « Support », parfois avec [SYSTEM NOTIFICATION] dans l’intitulé du message. Le but ? Vous faire cliquer sur des liens et/ou récupérer des infos.

La cible est différente, ici ce sont principalement des particuliers louant leur voiture, alors que l’attaque via Signal tente de prendre le contrôle de comptes de personnalités publiques et/ou influentes. Les risques et les conséquences n’en restent pas moins importants pour les utilisateurs de Getaround. Plus que jamais, soyez prudent face aux liens et messages : réfléchissez avant de cliquer, parlez-en autour de vous, n’agissez pas dans l’urgence !

GitHub Copilot passe à une facturation à l’usage à partir du 1er juin

28 avril 2026 à 07:26
Adieu, veau, vache, cochon, couvée
GitHub Copilot passe à une facturation à l’usage à partir du 1er juin

Une semaine après avoir restreint la souscription de nouveaux abonnements individuels, Microsoft annonce le passage prochain de GitHub Copilot à une tarification basée sur l’usage réel. L’utilisateur n’aura donc plus accès aux modèles d’IA générative une fois son crédit mensuel épuisé, à moins d’acheter une option supplémentaire. Dans le même temps, Microsoft annonce le déploiement de Copilot 365 à l’échelle des 743 000 employés d’Accenture.

GitHub rattrapé par la réalité ? La plateforme a annoncé mardi 27 avril une modification substantielle de sa tarification associée à ses outils d’IA générative, réunis sous la casquette GitHub Copilot. À compter du 1ᵉʳ juin prochain, ces derniers seront associés à une facturation à l’usage, en fonction du volume de tokens consommé.

La nouvelle formule s’appuiera sur ce que GitHub qualifie de « crédits IA », avec une enveloppe donnée pour chaque formule prépayée (sur abonnement) et la possibilité de débloquer des tokens supplémentaires en cas de besoin, moyennant finances bien sûr. Microsoft va de ce fait basculer sur un système de tarification identique à ce que l’on connait chez Anthropic ou OpenAI.

Des crédits IA pour mesurer l’utilisation réelle

« L’utilisation sera calculée en fonction de la consommation de jetons (entrées, sorties et jetons mis en cache) selon les tarifs API indiqués pour chaque modèle. Cette modification aligne la tarification de Copilot sur l’utilisation réelle et constitue une étape importante vers une activité et une expérience Copilot durables et fiables pour tous les utilisateurs », justifie l’éditeur.

Microsoft et GitHub abandonnent donc le système actuellement en vigueur, qui combinait une licence (l’abonnement de base) ouvrant droit sans restriction aux requêtes courantes, et une enveloppe de « requêtes premium » (discussion avec un modèle de pointe, fenêtre contextuelle dépassant un certain volume, etc.), faisant l’objet d’une mesure spécifique.

Le changement de tarification présente, d’après GitHub, un caractère presque inéluctable, compte tenu de la double évolution des usages et des modèles :

« Aujourd’hui, une simple question posée via le chat et une session de codage autonome de plusieurs heures peuvent coûter le même prix à l’utilisateur. GitHub a absorbé une grande partie de l’augmentation des coûts d’inférence liés à cette utilisation, mais le modèle actuel de facturation premium n’est plus viable. La facturation à l’usage remédie à ce problème. Elle aligne mieux les prix sur l’utilisation réelle, nous aide à garantir la fiabilité du service à long terme et réduit la nécessité de limiter l’accès aux utilisateurs intensifs. »

Restrictions temporaires en attendant le 1er juin

Les clients de GitHub Copilot verront-ils cette évolution du même œil ? Microsoft veut rassurer en précisant que le prix des abonnements Copilot reste inchangé, et en expliquant que la complétion automatique et les suggestions de code restent disponibles par défaut, sans consommer de crédits IA.

Dans les faits, un abonnement Copilot Pro à 10 dollars par mois ouvrira droit à 1 000 crédits (0,01 dollar par crédit), contre 3 900 crédits pour une formule Copilot Pro+ à 39 dollars par mois. Impossible en revanche de transposer directement cette réserve de crédits en jetons, puisque GitHub précise que le coût exact d’une interaction dépend à la fois du modèle et de la complexité de la requête (voir les coefficients multiplicateurs en fonction du modèle).

« Une question posée rapidement via une messagerie instantanée avec un modèle léger peut coûter une fraction de crédit. Une longue session de programmation avec un agent utilisant un modèle plus complexe sur plusieurs fichiers coûtera plus cher, car elle implique davantage de travail ».

L’annonce de cette nouvelle tarification ne sera sans doute qu’une demi-surprise pour ceux qui suivent l’actualité de la plateforme. Le 21 avril dernier, GitHub avait déjà décidé la mise en pause des nouvelles souscriptions sur les abonnements individuels, soi-disant pour servir plus efficacement les clients existants, ainsi que l’exclusion des modèles Opus (les plus performants de la gamme d’Anthropic) des forfaits premier prix.

GitHub avait également durci à cette occasion les limites d’usage par session, qui plafonnent le volume de requêtes possibles sur une plage quotidienne (quelques heures) ou hebdomadaire (remise à zéro tous les sept jours).

Ces deux mesures étaient présentées comme temporaires : on comprend maintenant qu’il s’agissait d’introduire la tarification à l’usage.

Accenture passe 743 000 employés sous Copilot 365

Les deux informations n’ont pas de lien direct, mais leur concomitance résonnera de façon particulière auprès des utilisateurs individuels qui paient leur licence GitHub Copilot : si Microsoft avance la nécessité de restreindre l’utilisation chez les développeurs, ou d’ajuster la tarification, c’est aussi parce que l’éditeur négocie des accords entreprise à grande échelle qui sollicitent donc ses infrastructures dédiées à l’IA.

Microsoft s’est ainsi félicité mardi 27 avril d’avoir signé avec Accenture, le leader mondial du conseil, pour un déploiement de Copilot 365 sur la quasi totalité de son parc utilisateurs, soit la bagatelle de 743 000 employés dans le monde. Le contrat n’est pas une nouveauté en soi (Accenture fait partie des premiers partenaires et clients de Copilot depuis son lancement, notamment via Avanade, la coentreprise commune aux deux géants), mais il témoigne d’une diffusion continue de l’IA générative au sein des équipes d’Accenture.

L’Europe veut forcer Google à ouvrir Android tout entier aux assistants IA rivaux

28 avril 2026 à 06:54
Sésame ouvre toi
L’Europe veut forcer Google à ouvrir Android tout entier aux assistants IA rivaux

Un nouveau front réglementaire contre Google s’ouvre dans l’Union européenne. La Commission veut ouvrir Android à la concurrence IA, en vertu du règlement sur les marchés numériques (DMA). Premier visé : Gemini.

Ce n’est pas une enquête formelle pour infraction au DMA, mais cela s’en rapproche. La Commission a envoyé à Google des « conclusions préliminaires » pour préciser concrètement ce qu’un acteur dominant comme le moteur de recherche doit faire pour respecter la loi.

Le problème identifié par l’exécutif européen est simple : l’entreprise états-unienne contrôlerait de trop près certaines fonctions d’Android utilisées par les assistants IA. La Commission a également fait les mêmes genre de reproches à Meta et à son IA maison dans WhatsApp.

La porte d’Android fermée à double tour pour les IA rivales

Les capacités de ces assistants, qu’il s’agisse d’envoyer un courriel, de partager une photo ou de lancer une action dans une app restent aujourd’hui largement réservées aux services maison, autrement dit à Gemini. Bruxelles propose donc des mesures pour forcer l’ouverture de ces fonctionnalités à la concurrence. 

Cela permettrait par exemple à des assistants IA rivaux (ChatGPT, Claude…) de s’intégrer tout aussi profondément dans Android que Gemini, en particulier pour pouvoir interagir avec les apps du système. Les développeurs de ces assistants pourraient aussi avoir accès au matériel afin de faire tourner leurs modèles locaux « avec des niveaux élevés de performance, de disponibilité et de réactivité », souligne la Commission. Les utilisateurs seraient aussi en mesure d’activer les services de ces assistants alternatifs via un mot-clé vocal personnalisable. 

« Dans un contexte où l’intelligence artificielle évolue très rapidement, l’interopérabilité apparaît comme une condition indispensable pour en exploiter pleinement le potentiel », explique Henna Virkkunen, vice-présidente à la Souveraineté technologique. « Ces mesures ouvriront les appareils Android à un plus large éventail de services d’IA, afin que les utilisateurs puissent choisir librement ceux qui correspondent le mieux à leurs besoins et à leurs valeurs, sans renoncer aux fonctionnalités. »

Deux procédures contre Google

Cette communication auprès de Google fait partie des deux procédures lancées le 27 janvier dernier par la Commission européenne pour préciser concrètement la manière dont Google doit se conformer aux règles du DMA. 

Le premier chantier concerne l’ouverture d’Android à la concurrence : le régulateur veut donner aux développeurs tiers un accès gratuit et « réel » aux fonctions matérielles et logicielles du système d’exploitation. L’objectif est de leur garantir un accès équivalent à celui de Google.

L’autre concerne, pour rappel, l’obligation de Google « d’accorder aux fournisseurs tiers de moteurs de recherche en ligne l’accès aux données anonymisées concernant les classements, requêtes, clics et vues détenues par Google Search à des conditions équitables, raisonnables et non discriminatoires ». Il y a une dizaine de jours, l’Europe proposait aussi à Google des mesures.

Ce sont là des sujets évidemment stratégiques pour l’entreprise. Sur le versant d’Android et l’IA, elle peut donner le sentiment de vouloir verrouiller l’OS, alors que le DMA l’a épinglé comme service de plateforme essentiel exploité par un contrôleur d’accès (en l’occurrence ici, Alphabet). L’IA et Gemini sont deux pierres angulaires pour le groupe, qui n’apprécie d’ailleurs guère que la Commission vienne fourrer son nez dans ses affaires.

Google dénonce une procédure « injustifiée »

Clare Kelly, directrice juridique en charge de la concurrence chez le géant du web, estime sans surprise que l’intervention bruxelloise est « injustifiée », qu’elle pourrait augmenter les coûts inutilement, affaiblirait la protection de la confidentialité et la sécurité des utilisateurs européens. Google n’est pas la seule entreprise vent debout contre les règles européennes, Apple est également très virulente dans ses communications contre certaines procédures de la Commission. Même son de cloche chez Donald Trump.

À ce stade, rien n’est encore décidé. Une consultation publique se tiendra jusqu’au 13 mai. Les entreprises, y compris Google, les développeurs et les acteurs du secteur peuvent y participer ; ce qui implique que le texte final pourra évoluer. Une décision contraignante est attendue dans les six mois.

Google pourrait aussi écoper d’une amende, puisque cette procédure est indépendante de sanctions liées à une éventuelle enquête de non-respect du DMA. L’ardoise européenne d’Alphabet atteint les 9,5 milliards suite à plusieurs dossiers ces dernières années.

Sans attendre la Steam Machine, Valve lance sa manette Steam Controller à 99 euros

28 avril 2026 à 06:08
⬆️ ⬆️ ⬇️ ⬇️ ⬅️ ➡️ ⬅️ ➡️ 🅱️ 🅰️
Sans attendre la Steam Machine, Valve lance sa manette Steam Controller à 99 euros

La manette Steam Controller a finalement obtenu son bon de sortie et un prix : le 4 mai, pour 99 euros. La console de salon Steam Machine et le casque VR Steam Frame attendront encore un peu.

En novembre dernier, Valve faisait feu de tout bois en présentant rien moins que trois nouveaux produits, venant muscler un catalogue qui ne contient toujours aujourd’hui que les modèles LCD et OLED du Steam Deck.

La Steam Machine est une console de salon à la puissance plus ou moins équivalente à la PS5 Pro, qui doit faire oublier le flop d’une première gamme lancée en 2015 avec des constructeurs tiers. Le Steam Frame, successeur de l’Index, est un casque de réalité virtuelle à utiliser indépendamment d’un PC, ou en écran déporté sans fil.

Le Steam Controller bientôt entre toutes les mains

Et enfin, le Steam Controller est une manette qui, comme la Steam Machine, a la lourde mission de faire oublier une précédente version qui n’avait pas fait l’unanimité il y a 10 ans, c’est le moins qu’on puisse dire. Le nouveau modèle fait des choix de design et d’ergonomie plus sages tout en conservant des spécificités tirées du Steam Deck, notamment ces deux touchpads sous les sticks.

Les trois produits devaient sortir au premier trimestre de 2026, puis au premier semestre (Valve Time mon amour)… Mais peut-être qu’on devra se contenter de la manette pour le moment. Valve a en effet annoncé que le Steam Controller sera disponible le 4 mai, au prix de 99 euros. Un tarif qui positionne le périphérique entre les manettes consoles (environ 65 euros la manette Xbox) et les modèles plus haut de gamme comme la Dual Sense Edge pour PS5 (200 euros).

Le Steam Controller est fourni avec un émetteur à brancher en USB sur le PC pour assurer une connexion sans fil à faible latence sur la bande de fréquence des 2,4 GHz (Valve annonce 8 ms). La manette prend aussi en charge le Bluetooth (à partir du 4.2), elle intègre une batterie de 8,39 Wh pour 35 heures de jeu environ, 2 sticks magnétiques TMR (Tunneling Magnetoresistance, une technologie plus précise et moins énergivore que l’effet Hall), 2 moteurs haptiques dans les poignées et autant sous les touchpads, 4 boutons et deux zones capacitives à l’arrière.

Un bien beau bébé donc, d’un poids de 292 grammes (280 grammes la Dual Sense), qui sera surtout utile à un joueur Steam sur PC ou tout autre appareil capable de faire tourner des jeux Steam. Sur consoles ou pour les jeux hors Steam, les capacités de la manette sont autrement plus limitées. Le périphérique pourra éventuellement faire acte de trackpad, mais guère plus.

Steam Machine: ça coince sur la logistique

Une manette, c’est très bien. Mais une console pour jouer avec, c’est encore mieux ! Malheureusement, Valve a présenté la Steam Machine au plus mauvais moment, alors que la crise de la mémoire frappe l’ensemble de l’industrie et plombe les coûts du boîtier. Pierre-Loup Griffais, qui développe SteamOS et pilote les différentes initiatives matérielles de l’entreprise, donne un petit espoir chez IGN : « Nous pensons pouvoir annoncer des nouvelles bientôt à ce sujet, mais globalement, les choses avancent bien.» En particulier sur le plan logiciel :

Pour ne pas se fermer toutes les portes, Valve travaille avec « le plus de fabricants possible », une approche qui évite au constructeur de dépendre d’une seule source pour un composant donné.

Le hic, c’est que la pénurie de mémoire vive et de SSD concerne tous les acteurs de la filière : « La situation autour de la mémoire est globale, donc notre marge de manœuvre reste limitée », admet le dirigeant. On ignore le prix de la Steam Machine, qui embarquera 16 Go de DDR5 et 8 Go de mémoire vidéo (GDDR6) et se déclinera en deux versions avec 512 Go et 2 To de stockage.

Pour la manette, ce n’est pas réellement un problème, c’est un produit que Valve peut lancer indépendamment des deux autres appareils. « Faire l’inverse aurait été plus compliqué : la Steam Machine est difficile à lancer sans manette, alors que la manette, elle, peut très bien être utilisée par les joueurs PC classiques », explique-t-il ; « elle sera évidemment idéale avec la Steam Machine, le Steam Deck et d’autres produits, mais au final, son public principal reste les utilisateurs PC. »

L’enjeu pour la Steam Machine, tout comme le Steam Frame, est donc logistique. « Ce qui empêche [leur] lancement aujourd’hui, c’est surtout la logistique liée à l’approvisionnement et à la distribution. » Valve a un autre problème matériel à régler, celui du Steam Deck. La console portable est en rupture de stock un peu partout dans le monde, pour les mêmes problèmes liés à la crise de la mémoire. « Nous savons que beaucoup de personnes souhaitent en acheter un sans y parvenir actuellement », indique Pierre-Loup Griffais.

La première génération du Steam Deck a été lancée en février 2022 pour la version LCD, la mouture OLED a fait son apparition en novembre 2023. Cela commence à dater un peu, même si ces consoles demeurent étonnamment efficaces aujourd’hui. La question d’une 2ᵉ génération se pose évidemment, et le cadre de Valve ne cache pas que le chantier est en cours : « Ce que nous développons actuellement servira de base aux évolutions futures. »

Reçu — 27 avril 2026 Next - Articles gratuits

☕️ Donald Trump a viré tous les membres du CA de la National Science Foundation

27 avril 2026 à 15:24


La National Science Foundation (NSF), une des principales agences étasuniennes de financement de la recherche, vient de perdre l’intégralité de son conseil d’administration (CA).

« Au nom du président Donald J. Trump, je vous écris pour vous informer que votre mandat en tant que membre du Conseil national des sciences prend fin avec effet immédiat. Merci pour votre engagement », ont reçu par email ce vendredi 24 avril les 24 membres du CA, explique la revue Science.

Illustration : Flock

Tous sont des chercheurs ou ingénieurs venant du milieu universitaire ou de l’industrie nommés par le président. Mais ils sont normalement en place pour six ans avec une rotation assurée par le renouvellement de huit membres tous les deux ans.

Le directeur de la National Science Foundation et 25e membre du CA, Sethuraman Panchanathan, pourtant nommé par Donald Trump à la fin de son premier mandat, avait démissionné en avril 2025 en affirmant : « j’ai fait tout ce que j’ai pu ». Depuis, la NSF, comme les autres fonds de financements américains de la recherche, s’est vue imposer l’idéologie de Donald Trump à la place du peer-review pour décider des financements des projets de recherche.

« Peut-être qu’une façon de le dire du point de vue de l’administration, c’est que ce groupe de personnes nommées par le président conseillait au Congrès de ne pas se plier aux souhaits du président », explique à Science l’astrophysicien Keivan Stassun de l’université Vanderbilt (Nashville) qui en faisait partie.

Selon le Washington Post, ce même vendredi, l’administration Trump a présenté un projet de budget partiel pour l’exercice 2026 qui réduirait le budget de la NSF de plus de 50 %, le faisant passer de 8,8 milliards de dollars à 3,9 milliards de dollars, en affirmant que la NSF « a financé des recherches dont l’intérêt public est discutable, telles que les impacts hypothétiques de scénarios climatiques extrêmes et des études sociales de niche ».

Encore des hausses de prix chez OVHcloud et Scaleway… jusqu’à 600 % !

27 avril 2026 à 15:14
En fait, HDH c’est pour la Hausse des Hôtes
Encore des hausses de prix chez OVHcloud et Scaleway… jusqu’à 600 % !

Vous avez des services chez OVHcloud et/ou Scaleway ? Mauvaise nouvelle, la saison des hausses de tarifs est loin d’être terminée. Le premier revoit ses hébergements web, avec trois gammes dont les tarifs après la première année peuvent être multipliés par trois. Chez Scaleway, des dizaines de services sont concernés, avec parfois jusqu’à fois sept sur les prix.

OVHcloud a déjà revu à la hausse les tarifs de ses VPS de la gamme 2026. Octave Klaba était monté au créneau pour justifier cette décision, motivée par la hausse du prix des composants, principalement de la mémoire et du stockage. Les adresses IP v4, les instances de machines virtuelles (general purpose, bases de données…) ainsi que les serveurs dédiés étaient aussi concernés.

OVHcloud reprend d’une main ce qu’il donne de l’autre

Ce n’était pas la fin. Il y a quelques jours, l’hébergeur roubaisien a publié un billet de blog intitulé « Évolution de nos hébergements web : ce qui change et pourquoi ». C’est la même chose que pour les messages qui parlent de vos données personnelles ; on devine immédiatement qu’il sera question d’une mauvaise nouvelle à un moment ou un autre.

« Concrètement, cela signifie : une organisation des offres mieux adaptée à la diversité de vos projets, des ressources enrichies, un accès au support amélioré, ainsi que des évolutions tarifaires », explique OVHcloud. À partir du 1ᵉʳ mai, l’hébergement web comprendra trois gammes : Eco (gratuit avec un nom de domaine, Starter et Perso), Business (Startup, Pro et Performance) et enfin Agencies (Agency, Agency Plus et Agency Max).

Elles sont détaillées dans les trois images ci-dessous :

Sur les tarifs, le billet de blog se contente du minimum : « Pour toute nouvelle souscription, le prix de la première année est volontairement très bas. Par exemple, l’offre Pro démarre désormais à 1,99 € HT/mois la première année ». On a beau chercher, euro ou € n’apparaît nulle part ailleurs.

Dans un email envoyé aux clients et que nous avons reçu ce week-end, OVHcloud annonce la couleur. Starter, qui est pour le moment à 1,91 euro par mois, ne changera pas de tarif la première année… mais passera à 3,11 euros les suivantes, soit plus de 60 % de hausse.

Perso (toujours dans la gamme Eco) est pour le moment à 3,95 euros par mois. À partir du 1ᵉʳ mai, il descendra à 3,59 euros (une baisse de 40 centimes) mais seulement la première année. Le tarif sera ensuite doublé pour arriver à 7,19 euros par mois.

Dans sa gamme Business, OVHcloud veut appâter les clients avec les nouvelles versions de Pro et Performance à respectivement 2,39 et 8,39 euros par mois, au lieu de 7,91 et 13,19 euros, mais là encore seulement la première année. Ensuite, c’est le coup de bambou puisque les tarifs passeront à 11,99 et 23,99 euros par mois, soit 52 et 82 % de hausse par rapport au tarif actuel. La nouvelle formule Startup aussi a droit à une promotion agressive la première année avec 3,59 euros, avant de passer à 7,19 euros ensuite.

Avec Agency, une nouvelle gamme d’hébergement, le tarif est multiplié par trois après la première année. Voici pour mémoire les tarifs actuels, avant l’augmentation du 1ᵉʳ mai :

Grand prince, OVHcloud précise que « si vous souhaitez maintenir vos tarifs actuels, vous pouvez anticiper le renouvellement de votre hébergement avant le 1er Juin 2026 […] En renouvelant dès maintenant, vous pouvez conserver votre tarif actuel jusqu’à 4 années supplémentaires, tout en bénéficiant des améliorations apportées à nos hébergements, notamment des bases de données supplémentaires et d’un support renforcé ».

Jusqu’à 600 % d’augmentation chez Scaleway !

Chez Scaleway, qui vient de remporter le HDH pour remplacer Microsoft, il est question d’une « mise à jour claire sur les tarifs ». L’entreprise commence par expliquer les raisons de ses choix :

« Le secteur technologique est actuellement confronté à un ensemble de pressions économiques mondiales sans précédent. Une inflation généralisée et une crise matérielle importante et persistante ont fondamentalement bouleversé l’économie de la fourniture d’infrastructures cloud.

Plus précisément, le marché mondial connaît des hausses de prix significatives du coût du matériel brut, ce qui affecte particulièrement le stockage et la mémoire vive (RAM). De plus, la pénurie mondiale croissante d’adresses IP, que nous connaissons depuis des années, a ajouté une couche supplémentaire de complexité et de coûts à la mise en place des réseaux ».

Scaleway affirme en être à un « point où il n’est plus possible d’absorber entièrement ces coûts externes » et a donc décidé de travailler sur « chaque composante de notre écosystème afin de garantir que les ajustements de prix effectués soient extrêmement précis et équitables ». L’entreprise estime que c’est une « augmentation mûrement réfléchie ». Nous pouvons ajouter massive pour certains.

La hausse concerne pas moins de 79 produits. Dans un grand tableau, Scaleway propose deux colonnes par service : le prix actuel et celui qui sera appliqué à partir du 1ᵉʳ juin 2026. Pour être parfaitement transparent, il manque une colonne avec le pourcentage de hausse.

Nous l’avons ajoutée :

La hausse la plus importante atteint… 600 % ! Oui, le prix est multiplié par 7 ! Elle concerne la partie réseau avec External zone qui passe de 0,001 à 0,007 euro par heure. La petite instance virtuelle STARDUST1-S fait x4 en passant de 0,00015 à 0,0006 euro par heure. La majorité des augmentations varie entre 2 et 25 %.

Au final, la moyenne des augmentations est de 21,2 %. « Si un produit ne figure pas dans cette liste, son prix reste inchangé », précise Scaleway.

☕️ La Chine bloque l’acquisition de Manus par Meta

27 avril 2026 à 14:40


Meta est tombé sur un os : le gouvernement chinois vient de rejeter le projet d’acquisition de Manus, un agent d’IA conçu par une des startups IA chinoises les plus en vue du moment, The Butterfly Effect. L’opération à 2 milliards de dollars, annoncée en décembre dernier, a immédiatement suscité des inquiétudes aussi bien du côté de Washington que de Pékin.

Créée par des fondateurs chinois puis relocalisée à Singapour dans l’espoir d’échapper aux fourches caudines de Pékin, The Butterfly Effect n’a pas pu esquiver une enquête du ministère chinois du Commerce. À l’époque, les autorités expliquaient que les investissements à l’étranger, les transferts de technologies et les fusions-acquisitions à l’international doivent se conformer aux lois du pays.

La Commission nationale du développement et de la réforme a finalement pris la décision d’interdire les investissements étrangers dans Manus, et demandé aux deux parties de retirer l’opération d’acquisition. Comme CNBC le rappelle, les États-Unis interdisent aussi aux investisseurs américains de financer directement des entreprises IA chinoises. 

Il y a aussi la question du point de chute du fondateur et directeur général, Xiao Hong, qui devait occuper un poste de vice président au siège de Meta, en Californie. La Chine fait pression sur les fondateurs d’entreprises IA pour qu’ils restent au pays. En résumé, toute l’opération semble bien mal partie. Meta n’a pas voulu commenter le dernier (et ultime ?) rebondissement de cette saga.

Manus développe des agents IA capables de prendre en charge des missions complexes de manière autonome à la manière d’OpenClaw. La startup avait fait sensation en mars dernier, en marchant dans les pas d’un autre local de l’étape, DeepSeek. Manus avait annoncé dépasser les 100 millions de dollars de revenus annuels récurrents en seulement 8 mois.

Au moment de l’annonce l’an dernier, Meta évoquait l’intégration des agents Manus dans ses produits grand public et professionnels, y compris dans l’assistant Meta AI.

❌