Vue normale

Reçu aujourd’hui — 10 octobre 2025

☕️ La fonction « Secouer pour résumer » de Firefox mise à l’honneur par TIME

10 octobre 2025 à 09:49

Dans sa liste des meilleures inventions de 2025, le magazine TIME vient d’accorder une mention spéciale à une fonctionnalité de Firefox mobile : « Secouer pour résumer ».

Si vous n’avez jamais entendu parler de cette fonction, c’est normal. Elle n’est arrivée qu’en septembre, sous une forme expérimentale et uniquement pour les personnes utilisant l’anglais comme langue maternelle. De plus, elle n’est utilisable pour l’instant que sur iOS et nécessite d’avoir activé Apple Intelligence.

Si vous remplissez toutes les conditions, les pages pouvant être résumées affichent une petite icône d’éclair à droite de la barre d’adresse. De là, deux possibilités : soit on appuie sur ce bouton pour afficher le résumé, soit on secoue le téléphone.

C’est cette dernière fonction et surtout sa facilité d’utilisation qui ont valu à Mozilla cette mention spéciale. L’éditeur n’obtient rien en tant que tel, mais elle établit un précédent en faisant de Firefox le premier navigateur à proposer cette fonction simple. On notera également que si le navigateur peut se servir de l’IA par petites touches, la fonction se base uniquement sur les modèles présents sur le téléphone. Seule limitation, selon Mozilla, que le texte d’origine ne dépasse pas les 5 000 mots.

Dans un billet publié ce 9 octobre, Mozilla se dit bien sûr ravie : « Notre travail sur Secouer pour Résumer reflète l’évolution de Firefox. Nous réinventons notre navigateur pour qu’il s’adapte parfaitement à la vie moderne, en aidant les gens à naviguer avec moins d’encombrement et plus de concentration. Cette fonctionnalité s’inscrit également dans le cadre de nos efforts visant à offrir aux utilisateurs mobiles une interface plus claire et des outils plus intelligents qui rendent la navigation en déplacement rapide, transparente et même amusante ».

On ne sait pas quand la fonction arrivera sur les appareils Android. L’utilisation de l’IA chez Google, via Gemini, est très différente, tout ou presque passant par les serveurs. Pour les opérations sur les textes, tout est exécuté localement chez Apple. Ce qui signifie aussi qu’en fonction de l’appareil et de la taille du texte, les performances peuvent varier.

☕️ La fonction « Secouer pour résumer » de Firefox mise à l’honneur par TIME

10 octobre 2025 à 09:49

Dans sa liste des meilleures inventions de 2025, le magazine TIME vient d’accorder une mention spéciale à une fonctionnalité de Firefox mobile : « Secouer pour résumer ».

Si vous n’avez jamais entendu parler de cette fonction, c’est normal. Elle n’est arrivée qu’en septembre, sous une forme expérimentale et uniquement pour les personnes utilisant l’anglais comme langue maternelle. De plus, elle n’est utilisable pour l’instant que sur iOS et nécessite d’avoir activé Apple Intelligence.

Si vous remplissez toutes les conditions, les pages pouvant être résumées affichent une petite icône d’éclair à droite de la barre d’adresse. De là, deux possibilités : soit on appuie sur ce bouton pour afficher le résumé, soit on secoue le téléphone.

C’est cette dernière fonction et surtout sa facilité d’utilisation qui ont valu à Mozilla cette mention spéciale. L’éditeur n’obtient rien en tant que tel, mais elle établit un précédent en faisant de Firefox le premier navigateur à proposer cette fonction simple. On notera également que si le navigateur peut se servir de l’IA par petites touches, la fonction se base uniquement sur les modèles présents sur le téléphone. Seule limitation, selon Mozilla, que le texte d’origine ne dépasse pas les 5 000 mots.

Dans un billet publié ce 9 octobre, Mozilla se dit bien sûr ravie : « Notre travail sur Secouer pour Résumer reflète l’évolution de Firefox. Nous réinventons notre navigateur pour qu’il s’adapte parfaitement à la vie moderne, en aidant les gens à naviguer avec moins d’encombrement et plus de concentration. Cette fonctionnalité s’inscrit également dans le cadre de nos efforts visant à offrir aux utilisateurs mobiles une interface plus claire et des outils plus intelligents qui rendent la navigation en déplacement rapide, transparente et même amusante ».

On ne sait pas quand la fonction arrivera sur les appareils Android. L’utilisation de l’IA chez Google, via Gemini, est très différente, tout ou presque passant par les serveurs. Pour les opérations sur les textes, tout est exécuté localement chez Apple. Ce qui signifie aussi qu’en fonction de l’appareil et de la taille du texte, les performances peuvent varier.

☕️ Marco Pieters est le nouveau directeur technique d’ASML

10 octobre 2025 à 08:08

L’entreprise néerlandaise ASML a une position unique dans le domaine des semi-conducteurs : elle est pratiquement incontournable, car elle fournit les machines permettant la gravure des puces, notamment par photolithographie. Début septembre, elle a d’ailleurs investi massivement dans Mistral, récupérant 11 % du capital pour 1,3 milliard d’euros.

ASML a désormais un nouveau directeur technique (CTO) : Marco Pieters, qui devient également vice-président exécutif de l’entreprise. Il ne répondra qu’à Christophe Fouquet, le CEO français d’ASML depuis 18 mois environ. La société n’est d’ailleurs pas allée chercher bien loin, car Marco Pieters travaille depuis longtemps au sein d’ASML.

Deux exemplaires du Twinscan EXE:5000, scanner lithographique High-NA d’ASML

« Dans le cadre de notre solide processus de planification de la relève, je suis fier de nommer Marco, un dirigeant de longue date d’ASML, au poste de directeur technique. Après avoir travaillé à ses côtés pendant de nombreuses années, Marco a tout mon soutien pour faire avancer notre feuille de route technologique au service de nos clients. Je me réjouis de la poursuite de notre collaboration. En outre, le conseil de surveillance d’ASML a annoncé son intention de nommer Pieters au conseil d’administration à partir de la prochaine assemblée générale annuelle (AGA) de la société qui se tiendra le 22 avril 2026 », a déclaré Christophe Fouquet. Le conseil passera alors de cinq à six membres.

La nomination est cruciale, car ASML est souvent considérée comme l’un des piliers invisibles du monde de la tech.

☕️ Marco Pieters est le nouveau directeur technique d’ASML

10 octobre 2025 à 08:08

L’entreprise néerlandaise ASML a une position unique dans le domaine des semi-conducteurs : elle est pratiquement incontournable, car elle fournit les machines permettant la gravure des puces, notamment par photolithographie. Début septembre, elle a d’ailleurs investi massivement dans Mistral, récupérant 11 % du capital pour 1,3 milliard d’euros.

ASML a désormais un nouveau directeur technique (CTO) : Marco Pieters, qui devient également vice-président exécutif de l’entreprise. Il ne répondra qu’à Christophe Fouquet, le CEO français d’ASML depuis 18 mois environ. La société n’est d’ailleurs pas allée chercher bien loin, car Marco Pieters travaille depuis longtemps au sein d’ASML.

Deux exemplaires du Twinscan EXE:5000, scanner lithographique High-NA d’ASML

« Dans le cadre de notre solide processus de planification de la relève, je suis fier de nommer Marco, un dirigeant de longue date d’ASML, au poste de directeur technique. Après avoir travaillé à ses côtés pendant de nombreuses années, Marco a tout mon soutien pour faire avancer notre feuille de route technologique au service de nos clients. Je me réjouis de la poursuite de notre collaboration. En outre, le conseil de surveillance d’ASML a annoncé son intention de nommer Pieters au conseil d’administration à partir de la prochaine assemblée générale annuelle (AGA) de la société qui se tiendra le 22 avril 2026 », a déclaré Christophe Fouquet. Le conseil passera alors de cinq à six membres.

La nomination est cruciale, car ASML est souvent considérée comme l’un des piliers invisibles du monde de la tech.

☕️ Windows 11 embarque désormais Edit, un outil d’édition en ligne de commande

10 octobre 2025 à 06:47

Edit est un petit programme que Microsoft a présenté lors de sa dernière conférence Build. Gratuit, écrit en Rust et open source (sous licence MIT), il a son propre dépôt GitHub.

La petite application est particulièrement légère (moins de 250 ko) et se veut autant un outil pratique pour dépanner (ou pour les personnes ayant cette préférence) qu’un hommage à MS-DOS. Comme nous l’indiquions en mai dernier, Edit propose bon nombre de fonctions que l’on s’attend à trouver dans ce genre d’outil, comme la possibilité de chercher et remplacer du texte, le support des majuscules et minuscules, la prise en charge des expressions régulières ou encore la rotation entre plusieurs fichiers ouverts en parallèle (via Ctrl + P).

À l’époque, Microsoft indiquait que la principale motivation derrière la création d’Edit était le besoin d’avoir dans Windows un éditeur CLI en 64 bits et par défaut.

Justement, l’éditeur a mis à jour la fiche descriptive de la mise à jour KB5065789 pour Windows 11. Elle a été diffusée fin septembre et est présente aussi bien sur les versions 24H2 et 25H2 du système (qui partagent pour rappel la même branche de service). Comme repéré par Neowin, Microsoft a ajouté un élément : l’inclusion par défaut d’Edit. 

☕️ Windows 11 embarque désormais Edit, un outil d’édition en ligne de commande

10 octobre 2025 à 06:47

Edit est un petit programme que Microsoft a présenté lors de sa dernière conférence Build. Gratuit, écrit en Rust et open source (sous licence MIT), il a son propre dépôt GitHub.

La petite application est particulièrement légère (moins de 250 ko) et se veut autant un outil pratique pour dépanner (ou pour les personnes ayant cette préférence) qu’un hommage à MS-DOS. Comme nous l’indiquions en mai dernier, Edit propose bon nombre de fonctions que l’on s’attend à trouver dans ce genre d’outil, comme la possibilité de chercher et remplacer du texte, le support des majuscules et minuscules, la prise en charge des expressions régulières ou encore la rotation entre plusieurs fichiers ouverts en parallèle (via Ctrl + P).

À l’époque, Microsoft indiquait que la principale motivation derrière la création d’Edit était le besoin d’avoir dans Windows un éditeur CLI en 64 bits et par défaut.

Justement, l’éditeur a mis à jour la fiche descriptive de la mise à jour KB5065789 pour Windows 11. Elle a été diffusée fin septembre et est présente aussi bien sur les versions 24H2 et 25H2 du système (qui partagent pour rappel la même branche de service). Comme repéré par Neowin, Microsoft a ajouté un élément : l’inclusion par défaut d’Edit. 

Reçu hier — 9 octobre 2025

La Free Software Foundation a 40 ans : nouveau président et projet de téléphone libre

9 octobre 2025 à 15:51
Un ADN en pleine forme
La Free Software Foundation a 40 ans : nouveau président et projet de téléphone libre

L’ONG a fêté ses 40 ans le 4 octobre. Elle a profité d’un évènement dédié pour faire plusieurs annonces, dont la nomination de son nouveau président, Ian Kelling. La FSF a également provoqué une petite surprise en annonçant un projet de téléphone libre, nommé sobrement LibrePhone.

La Free Software Foundation existe désormais depuis plus de 40 ans. Elle avait été fondée le 4 octobre 1985 par Richard Stallman et lutte inlassablement depuis pour promouvoir le logiciel libre, en établissant une différence très nette avec l’open source. « Le logiciel libre signifie que les utilisateurs ont la liberté d’exécuter, d’éditer, de contribuer et de partager le logiciel », indique ainsi que la fondation sur son site officiel. L’open source, qui consiste techniquement à voir les sources, n’entraine pas de lui-même ces libertés, tout dépendant de la licence accompagnant le code.

Pour fêter dignement cet anniversaire, la fondation avait organisé un évènement. De nombreux intervenants étaient présents, avec de nombreuses discussions sur le logiciel libre et des retours d’expérience sur certains projets, dont Debian, Trisquel et Emacs.

Un nouveau président et un téléphone libre

Ce 40ᵉ anniversaire était aussi l’occasion de faire quelques annonces importantes. La FSF a ainsi confirmé que Ian Kelling était le nouveau président de la structure. La fondation avait cependant annoncé la nouvelle deux jours avant dans un communiqué. Il prend ainsi la relève de Geoffrey Knauth, qui tenait la barre depuis 2020.

« Depuis qu’il a rejoint le conseil d’administration en 2021, Ian a fait preuve d’une compréhension claire de la philosophie du logiciel libre dans la technologie d’aujourd’hui, et d’une vision forte. Il reconnaît les menaces que représentent les technologies à venir, favorise la transparence, a joué un rôle important dans la conception et la mise en œuvre de nouveaux processus de recrutement du conseil d’administration, et a toujours adhéré aux principes éthiques. Il m’a également donné de précieux conseils dans des moments critiques, pour lesquels je suis très reconnaissant », a ainsi déclaré Geoffrey Knauth.

Zoë Kooyman reste la directrice exécutive de la fondation. Et c’est elle, justement, qui a fait la deuxième grande annonce : le LibrePhone. Il s’agira d’un téléphone entièrement libre, conçu depuis une page blanche. On n’en sait guère plus pour l’instant, sinon que le travail se fera notamment en partenariat avec Rob Savoye, développeur travaillant sur le logiciel libre depuis une quarantaine d’années lui aussi.

« Puisque l’informatique sur téléphone mobile est désormais si omniprésente, nous sommes très enthousiastes à propos de LibrePhone et pensons qu’il a le potentiel d’apporter la liberté du logiciel à de nombreux autres utilisateurs dans le monde », a déclaré Rob Savoye.

Pour Richard Stallman, les choses ne vont pas dans le bon sens

Dans une interview publiée ce 8 octobre par Linuxfr.org, Richard Stallman est revenu sur le cœur de sa mission et celle de la Free Software Foundation. De ce point de vue, rien n’a changé : il établit toujours un distinguo net entre open source et libre, revient sur la précision du vocabulaire à employer (« depuis vingt ans, je n’emploie plus “free” pour dire gratuit, je dis gratis »), la distinction autour du copyleft, ou encore la lutte contre les logiciels privateurs.

Cette dernière est bien sûr au centre des actions de la Free Software Foundation. La notion de logiciel privateur ne regroupe d’ailleurs pas seulement le code propriétaire. Il y inclut tout ce qui géolocalise les personnes, passe obligatoirement par des serveurs, analyse les données personnelles et ainsi de suite. Stallman insiste : « Tout programme privateur, fait toujours du mal à ses utilisateurs. Ma mission est de faire comprendre aux gens cette question ».

Il regrette d’ailleurs que Debian ait changé son fusil d’épaule en assouplissant sa ligne de conduite, en permettant notamment une installation plus simple des pilotes propriétaires depuis son dépôt « main ». Ce n’est toutefois pas exactement le cas : on peut installer des pilotes et firmwares non-libres depuis un dépôt dédié et activé par défaut, mais il s’agit de « non-free-firmware ». Mais ce choix a quand même conduit la Free Software Foundation à ne plus recommander Debian.

Dans l’ensemble, après 40 ans de lutte, Richard Stallman se dit déçu du résultat. La situation générale se dégrade selon lui, notamment « la direction que prennent les choses ». Il encourage d’ailleurs les Français à « exiger que les services numériques de l’État respectent le logiciel libre. Spécifiquement, qu’ils cessent de transmettre des programmes privateurs à exécuter sur la machine des utilisateurs, et qu’ils respectent davantage l’anonymat des individus. Parce que les données personnelles, une fois collectées dans une base, finiront par être abusées, peut-être même par l’État ».

La Free Software Foundation a 40 ans : nouveau président et projet de téléphone libre

9 octobre 2025 à 15:51
Un ADN en pleine forme
La Free Software Foundation a 40 ans : nouveau président et projet de téléphone libre

L’ONG a fêté ses 40 ans le 4 octobre. Elle a profité d’un évènement dédié pour faire plusieurs annonces, dont la nomination de son nouveau président, Ian Kelling. La FSF a également provoqué une petite surprise en annonçant un projet de téléphone libre, nommé sobrement LibrePhone.

La Free Software Foundation existe désormais depuis plus de 40 ans. Elle avait été fondée le 4 octobre 1985 par Richard Stallman et lutte inlassablement depuis pour promouvoir le logiciel libre, en établissant une différence très nette avec l’open source. « Le logiciel libre signifie que les utilisateurs ont la liberté d’exécuter, d’éditer, de contribuer et de partager le logiciel », indique ainsi que la fondation sur son site officiel. L’open source, qui consiste techniquement à voir les sources, n’entraine pas de lui-même ces libertés, tout dépendant de la licence accompagnant le code.

Pour fêter dignement cet anniversaire, la fondation avait organisé un évènement. De nombreux intervenants étaient présents, avec de nombreuses discussions sur le logiciel libre et des retours d’expérience sur certains projets, dont Debian, Trisquel et Emacs.

Un nouveau président et un téléphone libre

Ce 40ᵉ anniversaire était aussi l’occasion de faire quelques annonces importantes. La FSF a ainsi confirmé que Ian Kelling était le nouveau président de la structure. La fondation avait cependant annoncé la nouvelle deux jours avant dans un communiqué. Il prend ainsi la relève de Geoffrey Knauth, qui tenait la barre depuis 2020.

« Depuis qu’il a rejoint le conseil d’administration en 2021, Ian a fait preuve d’une compréhension claire de la philosophie du logiciel libre dans la technologie d’aujourd’hui, et d’une vision forte. Il reconnaît les menaces que représentent les technologies à venir, favorise la transparence, a joué un rôle important dans la conception et la mise en œuvre de nouveaux processus de recrutement du conseil d’administration, et a toujours adhéré aux principes éthiques. Il m’a également donné de précieux conseils dans des moments critiques, pour lesquels je suis très reconnaissant », a ainsi déclaré Geoffrey Knauth.

Zoë Kooyman reste la directrice exécutive de la fondation. Et c’est elle, justement, qui a fait la deuxième grande annonce : le LibrePhone. Il s’agira d’un téléphone entièrement libre, conçu depuis une page blanche. On n’en sait guère plus pour l’instant, sinon que le travail se fera notamment en partenariat avec Rob Savoye, développeur travaillant sur le logiciel libre depuis une quarantaine d’années lui aussi.

« Puisque l’informatique sur téléphone mobile est désormais si omniprésente, nous sommes très enthousiastes à propos de LibrePhone et pensons qu’il a le potentiel d’apporter la liberté du logiciel à de nombreux autres utilisateurs dans le monde », a déclaré Rob Savoye.

Pour Richard Stallman, les choses ne vont pas dans le bon sens

Dans une interview publiée ce 8 octobre par Linuxfr.org, Richard Stallman est revenu sur le cœur de sa mission et celle de la Free Software Foundation. De ce point de vue, rien n’a changé : il établit toujours un distinguo net entre open source et libre, revient sur la précision du vocabulaire à employer (« depuis vingt ans, je n’emploie plus “free” pour dire gratuit, je dis gratis »), la distinction autour du copyleft, ou encore la lutte contre les logiciels privateurs.

Cette dernière est bien sûr au centre des actions de la Free Software Foundation. La notion de logiciel privateur ne regroupe d’ailleurs pas seulement le code propriétaire. Il y inclut tout ce qui géolocalise les personnes, passe obligatoirement par des serveurs, analyse les données personnelles et ainsi de suite. Stallman insiste : « Tout programme privateur, fait toujours du mal à ses utilisateurs. Ma mission est de faire comprendre aux gens cette question ».

Il regrette d’ailleurs que Debian ait changé son fusil d’épaule en assouplissant sa ligne de conduite, en permettant notamment une installation plus simple des pilotes propriétaires depuis son dépôt « main ». Ce n’est toutefois pas exactement le cas : on peut installer des pilotes et firmwares non-libres depuis un dépôt dédié et activé par défaut, mais il s’agit de « non-free-firmware ». Mais ce choix a quand même conduit la Free Software Foundation à ne plus recommander Debian.

Dans l’ensemble, après 40 ans de lutte, Richard Stallman se dit déçu du résultat. La situation générale se dégrade selon lui, notamment « la direction que prennent les choses ». Il encourage d’ailleurs les Français à « exiger que les services numériques de l’État respectent le logiciel libre. Spécifiquement, qu’ils cessent de transmettre des programmes privateurs à exécuter sur la machine des utilisateurs, et qu’ils respectent davantage l’anonymat des individus. Parce que les données personnelles, une fois collectées dans une base, finiront par être abusées, peut-être même par l’État ».

GitHub migrera vers Azure « au cours des 24 prochains mois »

9 octobre 2025 à 12:36
« Reviens, j’ai les mêmes à la maison ! »
GitHub migrera vers Azure « au cours des 24 prochains mois »

Depuis son rachat en juin 2018 pour 7,5 milliards de dollars, GitHub jouissait d’une relative indépendance au sein de Microsoft. La situation a commencé à changer en aout avec le départ du CEO de GitHub, Thomas Dohmke. Une étape supplémentaire sera franchie dans un futur proche : Microsoft a confirmé que tous les services seraient migrés vers Azure au « cours des 24 prochains mois ».

« GitHub migrera vers Azure au cours des 24 prochains mois, car nous pensons que c’est la bonne décision pour notre communauté et nos équipes. Nous devons évoluer plus rapidement pour répondre à la croissance explosive de l’activité des développeurs et des flux de travail alimentés par l’IA, et notre infrastructure actuelle atteint ses limites », a déclaré Kyle Daigle, directeur de l’exploitation de GitHub, à The Verge.

C’est ainsi que Microsoft a confirmé une rumeur de plus en plus insistante et dont nos confrères se faisaient le relai. Selon plusieurs sources, la décision serait considérée en interne comme « existentielle ». On peut effectivement y voir un problème de logique : pourquoi continuer sur une ancienne architecture dédiée (implantée en Virginie) alors que la maison-mère possède l’une des plus vastes infrastructures cloud au monde ?

Il s’agirait autant de réduire les couts d’un tel hébergement que de permettre la continuité dans le passage à l’échelle.

Une question existentielle

Nos confrères rapportent que l’annonce de cette migration aurait été faite en interne la semaine dernière par le directeur de la technologique de GitHub, Vladimir Fedorov.

« Nous sommes limités par la capacité des serveurs de données avec des possibilités limitées de mettre en ligne plus de capacité dans la région de Virginie du Nord », aurait écrit le responsable. « Nous devons le faire. Il est existentiel pour GitHub d’avoir la capacité d’évoluer pour répondre aux exigences de l’IA et de Copilot, et Azure est notre voie à suivre ».

La lettre évoque une « mobilisation » au sein d’Azure et de l’équipe CoreAI. Cette dernière est devenue centrale chez Microsoft, comme nous l’indiquions en aout. Thomas Dohmke, CEO de GitHub, démissionnait alors, sans remplacement programmé. Les troupes de GitHub étaient alors rapprochées de CoreAI, division créée l’année dernière dans le but affiché de développer une pile « Copilot & AI » pour les besoins internes et les clients.

12, 18 ou 24 mois ?

« Je sais que ce n’est pas la première fois que nous disons que GitHub passe à Azure. Je sais aussi que ce type de migrations (dont certaines que nous avons déjà essayées) peut s’éterniser, et plus elles traînent en longueur, plus elles sont susceptibles d’échouer », aurait également écrit Fedorov dans sa lettre interne.

Ce ne sera pas la première fois que GitHub doit déplacer des éléments de son infrastructure dans Azure. Le mouvement a déjà été fait pour Git dans Azure et Azure Sites Automation, et les migrations associées ne se seraient pas bien passées. Dans ce contexte, il aurait été demandé aux équipes de GitHub de travailler en priorité sur la migration complète vers Azure, quitte à retarder le développement de nouvelles fonctionnalités.

Selon le calendrier qu’a pu consulter The Verge, l’essentiel de la migration serait achevé dans les 12 mois. L’abandon complet de l’ancienne infrastructure se ferait dans les 18 mois, avec une marge de sécurité de 6 mois, aboutissant à une période maximale de deux ans.

Comme le rappellent d’ailleurs nos confrères, une migration de cette ampleur ne sera pas sans poser de nombreux défis. En plus du retard dans l’arrivée de fonctions prévues, elle pourrait entrainer des pannes plus ou moins importantes selon les services. GitHub en a connu plusieurs cette année et, à l’heure où nous écrivons ces lignes, Azure en connait une lui-même, avec de multiples perturbations à la clé.

GitHub migrera vers Azure « au cours des 24 prochains mois »

9 octobre 2025 à 12:36
« Reviens, j’ai les mêmes à la maison ! »
GitHub migrera vers Azure « au cours des 24 prochains mois »

Depuis son rachat en juin 2018 pour 7,5 milliards de dollars, GitHub jouissait d’une relative indépendance au sein de Microsoft. La situation a commencé à changer en aout avec le départ du CEO de GitHub, Thomas Dohmke. Une étape supplémentaire sera franchie dans un futur proche : Microsoft a confirmé que tous les services seraient migrés vers Azure au « cours des 24 prochains mois ».

« GitHub migrera vers Azure au cours des 24 prochains mois, car nous pensons que c’est la bonne décision pour notre communauté et nos équipes. Nous devons évoluer plus rapidement pour répondre à la croissance explosive de l’activité des développeurs et des flux de travail alimentés par l’IA, et notre infrastructure actuelle atteint ses limites », a déclaré Kyle Daigle, directeur de l’exploitation de GitHub, à The Verge.

C’est ainsi que Microsoft a confirmé une rumeur de plus en plus insistante et dont nos confrères se faisaient le relai. Selon plusieurs sources, la décision serait considérée en interne comme « existentielle ». On peut effectivement y voir un problème de logique : pourquoi continuer sur une ancienne architecture dédiée (implantée en Virginie) alors que la maison-mère possède l’une des plus vastes infrastructures cloud au monde ?

Il s’agirait autant de réduire les couts d’un tel hébergement que de permettre la continuité dans le passage à l’échelle.

Une question existentielle

Nos confrères rapportent que l’annonce de cette migration aurait été faite en interne la semaine dernière par le directeur de la technologique de GitHub, Vladimir Fedorov.

« Nous sommes limités par la capacité des serveurs de données avec des possibilités limitées de mettre en ligne plus de capacité dans la région de Virginie du Nord », aurait écrit le responsable. « Nous devons le faire. Il est existentiel pour GitHub d’avoir la capacité d’évoluer pour répondre aux exigences de l’IA et de Copilot, et Azure est notre voie à suivre ».

La lettre évoque une « mobilisation » au sein d’Azure et de l’équipe CoreAI. Cette dernière est devenue centrale chez Microsoft, comme nous l’indiquions en aout. Thomas Dohmke, CEO de GitHub, démissionnait alors, sans remplacement programmé. Les troupes de GitHub étaient alors rapprochées de CoreAI, division créée l’année dernière dans le but affiché de développer une pile « Copilot & AI » pour les besoins internes et les clients.

12, 18 ou 24 mois ?

« Je sais que ce n’est pas la première fois que nous disons que GitHub passe à Azure. Je sais aussi que ce type de migrations (dont certaines que nous avons déjà essayées) peut s’éterniser, et plus elles traînent en longueur, plus elles sont susceptibles d’échouer », aurait également écrit Fedorov dans sa lettre interne.

Ce ne sera pas la première fois que GitHub doit déplacer des éléments de son infrastructure dans Azure. Le mouvement a déjà été fait pour Git dans Azure et Azure Sites Automation, et les migrations associées ne se seraient pas bien passées. Dans ce contexte, il aurait été demandé aux équipes de GitHub de travailler en priorité sur la migration complète vers Azure, quitte à retarder le développement de nouvelles fonctionnalités.

Selon le calendrier qu’a pu consulter The Verge, l’essentiel de la migration serait achevé dans les 12 mois. L’abandon complet de l’ancienne infrastructure se ferait dans les 18 mois, avec une marge de sécurité de 6 mois, aboutissant à une période maximale de deux ans.

Comme le rappellent d’ailleurs nos confrères, une migration de cette ampleur ne sera pas sans poser de nombreux défis. En plus du retard dans l’arrivée de fonctions prévues, elle pourrait entrainer des pannes plus ou moins importantes selon les services. GitHub en a connu plusieurs cette année et, à l’heure où nous écrivons ces lignes, Azure en connait une lui-même, avec de multiples perturbations à la clé.

☕️ Aux États-Unis, Apple et Google doivent contrôler l’âge pour laisser accès aux boutiques

9 octobre 2025 à 08:19

Le Texas, l’Utah et la Louisiane ont tous trois passé récemment des lois pour imposer la vérification de l’âge des utilisateurs à la création des comptes et avant de les laisser installer des applications depuis des boutiques. Apple et Google viennent ainsi de publier des informations en ce sens.

Dans un cas comme dans l’autre, l’idée est surtout de généraliser les mécanismes de vérification et de pouvoir diffuser ces informations aux applications, via de nouvelles API. Car si les boutiques doivent bloquer l’accès aux mineurs, les applications ont également des obligations.

Les nouvelles API (d’autres arriveront plus tard cette année) auront ainsi pour mission de signaler aux applications y faisant appel que la personne est majeure. Si elle ne l’est pas, elle devra obligatoirement faire partie d’un groupe familial. Le contrôle parental s’appliquera donc pleinement. Les deux entreprises travaillent ainsi à fluidifier les signaux d’autorisation ou de blocage pour les applications tierces.

C’est au Texas que la loi s’appliquera en premier, le 1ᵉʳ janvier 2026. Suivront l’Utah le 7 mai et la Louisiane le 1ᵉʳ juillet. Dans les trois cas, Apple et Google sont très critiques de ces législations. « Ces lois imposent de nouvelles exigences importantes et lourdes à de nombreuses applications qui peuvent avoir besoin de fournir des expériences adaptées à l’âge des utilisateurs de ces États », affirme par exemple Google. Apple pointe de son côté « la collecte d’informations sensibles et personnellement identifiables », même pour des actions aussi triviales que consulter la météo.

☕️ Aux États-Unis, Apple et Google doivent contrôler l’âge pour laisser accès aux boutiques

9 octobre 2025 à 08:19

Le Texas, l’Utah et la Louisiane ont tous trois passé récemment des lois pour imposer la vérification de l’âge des utilisateurs à la création des comptes et avant de les laisser installer des applications depuis des boutiques. Apple et Google viennent ainsi de publier des informations en ce sens.

Dans un cas comme dans l’autre, l’idée est surtout de généraliser les mécanismes de vérification et de pouvoir diffuser ces informations aux applications, via de nouvelles API. Car si les boutiques doivent bloquer l’accès aux mineurs, les applications ont également des obligations.

Les nouvelles API (d’autres arriveront plus tard cette année) auront ainsi pour mission de signaler aux applications y faisant appel que la personne est majeure. Si elle ne l’est pas, elle devra obligatoirement faire partie d’un groupe familial. Le contrôle parental s’appliquera donc pleinement. Les deux entreprises travaillent ainsi à fluidifier les signaux d’autorisation ou de blocage pour les applications tierces.

C’est au Texas que la loi s’appliquera en premier, le 1ᵉʳ janvier 2026. Suivront l’Utah le 7 mai et la Louisiane le 1ᵉʳ juillet. Dans les trois cas, Apple et Google sont très critiques de ces législations. « Ces lois imposent de nouvelles exigences importantes et lourdes à de nombreuses applications qui peuvent avoir besoin de fournir des expériences adaptées à l’âge des utilisateurs de ces États », affirme par exemple Google. Apple pointe de son côté « la collecte d’informations sensibles et personnellement identifiables », même pour des actions aussi triviales que consulter la météo.

Reçu avant avant-hier

Apply AI : l’Europe débloque un milliard d’euros pour pousser l’IA dans l’industrie

8 octobre 2025 à 15:59
On a des idées
Apply AI : l’Europe débloque un milliard d’euros pour pousser l’IA dans l’industrie

Consciente sans le dire frontalement que l’Union européenne a pris du retard sur l’intelligence artificielle, la Commission vient d’annoncer l’injection d’un milliard d’euros dans sa mise en avant. Le budget servira divers projets, dont le renforcement d’un maillage autour de la technologie.

« Je veux que l’avenir de l’IA se concrétise en Europe. Parce que lorsque l’IA est utilisée, nous pouvons trouver des solutions plus intelligentes, plus rapides et plus abordables. L’adoption de l’IA doit être généralisée et, grâce à ces stratégies, nous contribuerons à accélérer le processus. Donner la priorité à l’IA, c’est aussi donner la priorité à la sécurité. Nous encouragerons cet état d’esprit «l’IA d’abord» dans tous nos secteurs clés, de la robotique aux soins de santé, en passant par l’énergie et l’automobile », a déclaré Ursula von der Leyen, présidente de la Commission européenne, ce 8 octobre.

L’axe stratégique se nomme « Appliquer l’IA » (Apply AI) et consiste, pour l’essentiel, à injecter un milliard d’euros dans un plan de structuration. Ce dernier doit définir les moyens d’accélérer l’utilisation de l’IA dans les principales industries européennes, la science ainsi que dans le secteur public. Pour la Commission, toutes les conditions sont réunies : quatre supercalculateurs dans le Top 10 mondial, plusieurs projets de gigafactories, une solide infrastructure de connaissance, des talents, un écosystème dynamique de recherche et de start-ups…

En creux, pourtant, le retard du Vieux continent est criant.

Pousser l’IA dans les secteurs clés

Soins de santé, produits pharmaceutiques, énergie, mobilité, fabrication, construction, agroalimentaire, défense, communications, culture : une dizaine de domaines sont explicitement cités par la Commission comme prioritaires. Des exemples concrets sont également cités, comme la création de « centres de dépistage avancé » alimentés par l’IA, le développement de modèles frontières et d’agents IA adaptés pour la fabrication, l’environnement et les produits pharmaceutiques, ou encore l’amélioration de l’efficacité et de l’accessibilité des services publics.

Le plan veut en outre diminuer le délai de mise sur le marché en rapprochant les infrastructures, les données et les autres éléments de l’écosystème. Il est question de renforcer la main-d’œuvre européenne pour qu’elle soit « prête pour l’IA », et ce dans tous les secteurs. Le nouveau plan lance aussi une initiative nommée « Frontier AI » qui doit soutenir l’innovation en rassemblant les principaux acteurs européens.

Ce n’est d’ailleurs pas le seul groupe créé puisque la Commission lance son Apply AI Alliance, décrite comme « forum réunissant l’industrie, le secteur public, le monde universitaire, les partenaires sociaux et la société civile ». Parallèlement, un European AI Observatory est créé pour soutenir l’Alliance et lui faire remonter différents indicateurs sur l’impact de l’IA (selon une méthodologie créée avec l’OCDE). Et pour s’assurer que tout le monde comprenne bien les règles du jeu, elle lance dans le même temps son « AI Act Service Desk » et sa « Single Information Platform » pour concentrer les ressources et répondre aux questions sur l’application de la législation.

Un soutien supplémentaire va être accordé au domaine scientifique, notamment en renforçant les investissements d’Horizon Europe pour leur faire passer le cap des 3 milliards d’euros. Il est aussi question de faciliter l’accès à la puissance de calcul disponible pour les scientifiques, avec du temps réservé dans les futures gigafactories d’IA.

La Commission indique que le prochain sommet sur l’IA dans le domaine de la science se tiendra à Copenhague les 3 et 4 novembre et que de nouvelles annonces y seront faites. De plus, la Commission publie un important rapport sur l’IA dans le domaine de la science et les défis qui l’accompagnent, en dépit de ses qualités.

Pas la première, mais…

La Commission européenne est consciente que l’Union est loin d’être première, les États-Unis et la Chine étant loin devant. Comme relevé par Politico, c’est un double problème, car elle n’est bien placée ni dans la production de cette technologie, ni dans son utilisation. Nos confrères rapportent ainsi que la moyenne d’utilisation dans les entreprises européennes n’était que de 14 % en 2024, loin derrière le reste du monde.

Lors d’un évènement organisé par Politico au début du mois, Lucilla Sioli, à la tête du Bureau de l’IA de la Commission européenne, a admis que l’Union affichait un retard réel. Un constat qui aurait mené à l’annonce du nouveau plan, qui doit remédier progressivement à la situation par des mesures ciblées. Outre le danger d’être à la traîne, l’Europe fait pleinement face à la menace d’une forte dépendance.

Nos confrères insistent d’ailleurs sur ce décalage. Ursula von der Leyen, en déplacement à Turin le 3 octobre, posait ainsi la question : « Chaque fois qu’une entreprise ou un bureau public est confronté à un nouveau défi, la première question doit être : comment l’IA peut-elle aider ? ». Pourtant, il existe une grande différence d’utilisation entre les grandes entreprises d’un côté (41,17 % en 2024) et les PME/PMI (13,48 %), d’après les propres chiffres de la Commission. Une profonde différence avec les États-Unis où 60 % des petites structures l’utiliseraient déjà sous une forme ou une autre, selon la Chambre de Commerce du pays.

Le nouveau plan annoncé par la Commission européenne ambitionne ainsi de répondre à une question lancinante, illustrée par les propos de Dariusz Standerski, ministre polonais du Numérique. En septembre, il affirmait ainsi que plus de 600 000 entreprises polonaises voulaient investir, mais ne savaient où commencer. Le problème ? Elles ne verraient que des « solutions universelles », sans savoir ce que ces produits peuvent faire pour elles.

L’Europe ne pourra peut-être pas être la première sur les modèles ou l’utilisation dans les entreprises, mais elle se rêve en « chef de file mondial en matière d’IA digne de confiance », comme la Commission l’indique dans son communiqué.

Apply AI : l’Europe débloque un milliard d’euros pour pousser l’IA dans l’industrie

8 octobre 2025 à 15:59
On a des idées
Apply AI : l’Europe débloque un milliard d’euros pour pousser l’IA dans l’industrie

Consciente sans le dire frontalement que l’Union européenne a pris du retard sur l’intelligence artificielle, la Commission vient d’annoncer l’injection d’un milliard d’euros dans sa mise en avant. Le budget servira divers projets, dont le renforcement d’un maillage autour de la technologie.

« Je veux que l’avenir de l’IA se concrétise en Europe. Parce que lorsque l’IA est utilisée, nous pouvons trouver des solutions plus intelligentes, plus rapides et plus abordables. L’adoption de l’IA doit être généralisée et, grâce à ces stratégies, nous contribuerons à accélérer le processus. Donner la priorité à l’IA, c’est aussi donner la priorité à la sécurité. Nous encouragerons cet état d’esprit «l’IA d’abord» dans tous nos secteurs clés, de la robotique aux soins de santé, en passant par l’énergie et l’automobile », a déclaré Ursula von der Leyen, présidente de la Commission européenne, ce 8 octobre.

L’axe stratégique se nomme « Appliquer l’IA » (Apply AI) et consiste, pour l’essentiel, à injecter un milliard d’euros dans un plan de structuration. Ce dernier doit définir les moyens d’accélérer l’utilisation de l’IA dans les principales industries européennes, la science ainsi que dans le secteur public. Pour la Commission, toutes les conditions sont réunies : quatre supercalculateurs dans le Top 10 mondial, plusieurs projets de gigafactories, une solide infrastructure de connaissance, des talents, un écosystème dynamique de recherche et de start-ups…

En creux, pourtant, le retard du Vieux continent est criant.

Pousser l’IA dans les secteurs clés

Soins de santé, produits pharmaceutiques, énergie, mobilité, fabrication, construction, agroalimentaire, défense, communications, culture : une dizaine de domaines sont explicitement cités par la Commission comme prioritaires. Des exemples concrets sont également cités, comme la création de « centres de dépistage avancé » alimentés par l’IA, le développement de modèles frontières et d’agents IA adaptés pour la fabrication, l’environnement et les produits pharmaceutiques, ou encore l’amélioration de l’efficacité et de l’accessibilité des services publics.

Le plan veut en outre diminuer le délai de mise sur le marché en rapprochant les infrastructures, les données et les autres éléments de l’écosystème. Il est question de renforcer la main-d’œuvre européenne pour qu’elle soit « prête pour l’IA », et ce dans tous les secteurs. Le nouveau plan lance aussi une initiative nommée « Frontier AI » qui doit soutenir l’innovation en rassemblant les principaux acteurs européens.

Ce n’est d’ailleurs pas le seul groupe créé puisque la Commission lance son Apply AI Alliance, décrite comme « forum réunissant l’industrie, le secteur public, le monde universitaire, les partenaires sociaux et la société civile ». Parallèlement, un European AI Observatory est créé pour soutenir l’Alliance et lui faire remonter différents indicateurs sur l’impact de l’IA (selon une méthodologie créée avec l’OCDE). Et pour s’assurer que tout le monde comprenne bien les règles du jeu, elle lance dans le même temps son « AI Act Service Desk » et sa « Single Information Platform » pour concentrer les ressources et répondre aux questions sur l’application de la législation.

Un soutien supplémentaire va être accordé au domaine scientifique, notamment en renforçant les investissements d’Horizon Europe pour leur faire passer le cap des 3 milliards d’euros. Il est aussi question de faciliter l’accès à la puissance de calcul disponible pour les scientifiques, avec du temps réservé dans les futures gigafactories d’IA.

La Commission indique que le prochain sommet sur l’IA dans le domaine de la science se tiendra à Copenhague les 3 et 4 novembre et que de nouvelles annonces y seront faites. De plus, la Commission publie un important rapport sur l’IA dans le domaine de la science et les défis qui l’accompagnent, en dépit de ses qualités.

Pas la première, mais…

La Commission européenne est consciente que l’Union est loin d’être première, les États-Unis et la Chine étant loin devant. Comme relevé par Politico, c’est un double problème, car elle n’est bien placée ni dans la production de cette technologie, ni dans son utilisation. Nos confrères rapportent ainsi que la moyenne d’utilisation dans les entreprises européennes n’était que de 14 % en 2024, loin derrière le reste du monde.

Lors d’un évènement organisé par Politico au début du mois, Lucilla Sioli, à la tête du Bureau de l’IA de la Commission européenne, a admis que l’Union affichait un retard réel. Un constat qui aurait mené à l’annonce du nouveau plan, qui doit remédier progressivement à la situation par des mesures ciblées. Outre le danger d’être à la traîne, l’Europe fait pleinement face à la menace d’une forte dépendance.

Nos confrères insistent d’ailleurs sur ce décalage. Ursula von der Leyen, en déplacement à Turin le 3 octobre, posait ainsi la question : « Chaque fois qu’une entreprise ou un bureau public est confronté à un nouveau défi, la première question doit être : comment l’IA peut-elle aider ? ». Pourtant, il existe une grande différence d’utilisation entre les grandes entreprises d’un côté (41,17 % en 2024) et les PME/PMI (13,48 %), d’après les propres chiffres de la Commission. Une profonde différence avec les États-Unis où 60 % des petites structures l’utiliseraient déjà sous une forme ou une autre, selon la Chambre de Commerce du pays.

Le nouveau plan annoncé par la Commission européenne ambitionne ainsi de répondre à une question lancinante, illustrée par les propos de Dariusz Standerski, ministre polonais du Numérique. En septembre, il affirmait ainsi que plus de 600 000 entreprises polonaises voulaient investir, mais ne savaient où commencer. Le problème ? Elles ne verraient que des « solutions universelles », sans savoir ce que ces produits peuvent faire pour elles.

L’Europe ne pourra peut-être pas être la première sur les modèles ou l’utilisation dans les entreprises, mais elle se rêve en « chef de file mondial en matière d’IA digne de confiance », comme la Commission l’indique dans son communiqué.

☕️ La norme UFS 5.0 permet de dépasser 10 Go/s sur le stockage mobile

8 octobre 2025 à 13:00

UFS, pour Universal Flash Storage, est une norme de l’industrie créée par le JEDEC. Elle est utilisée par la plupart des terminaux mobiles et détermine notamment la vitesse maximale à laquelle les données seront échangées. Comme avec le PCI Express par exemple, les versions plus récentes permettent donc des débits plus élevés.

Lors de la révision 4.0, la bande passante théorique avait ainsi été doublé par rapport à UFS 3.0, passant de 1,45 à 2,9 Go/s (ou 23,2 Gb/s) par ligne, avec la possibilité d’en mettre deux (et donc doubler la bande passante théorique). Le JEDEC parlait d’un débit de « 4,2 Go/s en lecture et en écriture », correspondant davantage à un débit réel.

UFS 5.0 propose d’aller plus loin avec 46,6 Gb/s, soit le double de la bande passante maximale de l’UFS 4.x. Dans la pratique, le JEDEC espère atteindre « jusqu’à 10,8 Go/s lors d’opérations de lecture/écriture pour du stockage UFS 5.0 sur 2 voies », soit plus du double par rapport à UFS 4.0. La rétrocompatibilité est cette fois encore de mise.

Le JEDEC continue de travailler avec la MIPI Alliance pour développer la couche d’interconnexion. Cela se traduit par le passage de la couche M-PHY 5.0 à la 6.0 (avec High-Speed Gear 6 ou HS-G6) et d’UniPro 2.0 à 3.0. HS-G6 apporte le passage à PAM-4 (modulation d’amplitude d’impulsion sur quatre niveaux), comme le rapporte Cadence, permettant certainement d’augmenter les performances, comme c’était le cas pour le PCIe. Peut-être une explication sur le fait que les débits théoriques sont plus que doublés quand la bande passante fait « simplement » x2.

Dans son communiqué, le JEDEC justifie ce bond par la nécessité de répondre « aux exigences de l’IA », une excuse/justification qui revient toujours lors des annonces des hausses de bande passante, que ce soit sur l’Ethernet, le PCIe… Parmi les autres bénéfices de la version 5.0, le consortium évoque aussi une meilleure intégrité du signal, un rail d’alimentation distinct pour réduire le bruit numérique entre les systèmes et une sécurité accrue par le hachage intégré.

Le Pixel 10 de Google utilise UFS 4.1

« UFS offre un stockage embarqué hautes performances à faible consommation d’énergie, ce qui le rend idéal pour une utilisation dans des applications où l’efficacité énergétique est essentielle. Cela inclut les systèmes informatiques et mobiles tels que les smartphones et les appareils portables, ainsi qu’un rôle croissant dans les applications automobiles, l’informatique de pointe et les consoles de jeux », déclare le JEDEC.

Le JEDEC ne donne aucune date concernant la disponibilité des premiers produits en UFS 5.0, mais les fabricants de puces et devraient rapidement sortir du bois pour multiplier les annonces. Il faudra également voir comment se placera l’UFS 5.0 sur deux lignes face à l’UFS 4.1 sur quatre lignes que vient juste d’annoncer MediaTek pour son SoC Dimensity 9500.

☕️ La norme UFS 5.0 permet de dépasser 10 Go/s sur le stockage mobile

8 octobre 2025 à 13:00

UFS, pour Universal Flash Storage, est une norme de l’industrie créée par le JEDEC. Elle est utilisée par la plupart des terminaux mobiles et détermine notamment la vitesse maximale à laquelle les données seront échangées. Comme avec le PCI Express par exemple, les versions plus récentes permettent donc des débits plus élevés.

Lors de la révision 4.0, la bande passante théorique avait ainsi été doublé par rapport à UFS 3.0, passant de 1,45 à 2,9 Go/s (ou 23,2 Gb/s) par ligne, avec la possibilité d’en mettre deux (et donc doubler la bande passante théorique). Le JEDEC parlait d’un débit de « 4,2 Go/s en lecture et en écriture », correspondant davantage à un débit réel.

UFS 5.0 propose d’aller plus loin avec 46,6 Gb/s, soit le double de la bande passante maximale de l’UFS 4.x. Dans la pratique, le JEDEC espère atteindre « jusqu’à 10,8 Go/s lors d’opérations de lecture/écriture pour du stockage UFS 5.0 sur 2 voies », soit plus du double par rapport à UFS 4.0. La rétrocompatibilité est cette fois encore de mise.

Le JEDEC continue de travailler avec la MIPI Alliance pour développer la couche d’interconnexion. Cela se traduit par le passage de la couche M-PHY 5.0 à la 6.0 (avec High-Speed Gear 6 ou HS-G6) et d’UniPro 2.0 à 3.0. HS-G6 apporte le passage à PAM-4 (modulation d’amplitude d’impulsion sur quatre niveaux), comme le rapporte Cadence, permettant certainement d’augmenter les performances, comme c’était le cas pour le PCIe. Peut-être une explication sur le fait que les débits théoriques sont plus que doublés quand la bande passante fait « simplement » x2.

Dans son communiqué, le JEDEC justifie ce bond par la nécessité de répondre « aux exigences de l’IA », une excuse/justification qui revient toujours lors des annonces des hausses de bande passante, que ce soit sur l’Ethernet, le PCIe… Parmi les autres bénéfices de la version 5.0, le consortium évoque aussi une meilleure intégrité du signal, un rail d’alimentation distinct pour réduire le bruit numérique entre les systèmes et une sécurité accrue par le hachage intégré.

Le Pixel 10 de Google utilise UFS 4.1

« UFS offre un stockage embarqué hautes performances à faible consommation d’énergie, ce qui le rend idéal pour une utilisation dans des applications où l’efficacité énergétique est essentielle. Cela inclut les systèmes informatiques et mobiles tels que les smartphones et les appareils portables, ainsi qu’un rôle croissant dans les applications automobiles, l’informatique de pointe et les consoles de jeux », déclare le JEDEC.

Le JEDEC ne donne aucune date concernant la disponibilité des premiers produits en UFS 5.0, mais les fabricants de puces et devraient rapidement sortir du bois pour multiplier les annonces. Il faudra également voir comment se placera l’UFS 5.0 sur deux lignes face à l’UFS 4.1 sur quatre lignes que vient juste d’annoncer MediaTek pour son SoC Dimensity 9500.

☕️ Unity corrige une importante faille de sécurité dans son moteur de jeux

8 octobre 2025 à 09:33

Si vous utilisez Steam, vous avez peut-être remarqué ces derniers jours une avalanche de petites mises à jour pour vos jeux. Ce sont les réponses à une importante faille de sécurité repérée dans le moteur de jeux Unity.

Estampillée CVE-2025-59489, elle réside dans le composant Runtime. Exploitée, elle permet à un acteur malveillant de déclencher le chargement de fichiers arbitraires, y compris locaux, pouvant entrainer l’exécution de commandes arbitraires.

« Les applications qui ont été créées à l’aide des versions affectées de l’éditeur Unity sont susceptibles d’être attaquées par le chargement de fichiers non sécurisés et l’inclusion de fichiers locaux selon le système d’exploitation, ce qui peut permettre l’exécution de code local ou la divulgation d’informations au niveau de privilège de l’application vulnérable. Il n’y a aucune preuve d’exploitation de la vulnérabilité et il n’y a eu aucun impact sur les utilisateurs ou les clients. Unity a fourni des correctifs qui corrigent la vulnérabilité et ils sont déjà disponibles pour tous les développeurs », indique Unity dans son bulletin de sécurité.

La faille a reçu une note de sévérité CVSS de 8,4 sur 10. Sur le bulletin, on peut voir qu’elle a été découverte le 4 juin et que la version corrigée du composant a été envoyée aux éditeurs le 2 octobre. Le bulletin, lui, a été publié le 6 octobre.

La vulnérabilité a été découverte par RyotaK, chercheur en sécurité chez GMO Flat Security. Dans un article, il explique que les conséquences ont initialement été mesurées sur Android, où son exploitation autorise le chargement d’une bibliothèque native malveillante. Cependant, le cœur de la faille – la gestion de l’argument -xrsdk-pre-init-library sans validation ou nettoyage – se retrouve sur les autres plateformes. Ce qui a conduit Steam à réagir, en bloquant les schémas d’URI personnalisés et en recommandant aux développeurs de mettre rapidement à jour les jeux concernés. Microsoft y est allée également de son bulletin, en recommandant notamment de désinstaller les jeux affectés.

☕️ Unity corrige une importante faille de sécurité dans son moteur de jeux

8 octobre 2025 à 09:33

Si vous utilisez Steam, vous avez peut-être remarqué ces derniers jours une avalanche de petites mises à jour pour vos jeux. Ce sont les réponses à une importante faille de sécurité repérée dans le moteur de jeux Unity.

Estampillée CVE-2025-59489, elle réside dans le composant Runtime. Exploitée, elle permet à un acteur malveillant de déclencher le chargement de fichiers arbitraires, y compris locaux, pouvant entrainer l’exécution de commandes arbitraires.

« Les applications qui ont été créées à l’aide des versions affectées de l’éditeur Unity sont susceptibles d’être attaquées par le chargement de fichiers non sécurisés et l’inclusion de fichiers locaux selon le système d’exploitation, ce qui peut permettre l’exécution de code local ou la divulgation d’informations au niveau de privilège de l’application vulnérable. Il n’y a aucune preuve d’exploitation de la vulnérabilité et il n’y a eu aucun impact sur les utilisateurs ou les clients. Unity a fourni des correctifs qui corrigent la vulnérabilité et ils sont déjà disponibles pour tous les développeurs », indique Unity dans son bulletin de sécurité.

La faille a reçu une note de sévérité CVSS de 8,4 sur 10. Sur le bulletin, on peut voir qu’elle a été découverte le 4 juin et que la version corrigée du composant a été envoyée aux éditeurs le 2 octobre. Le bulletin, lui, a été publié le 6 octobre.

La vulnérabilité a été découverte par RyotaK, chercheur en sécurité chez GMO Flat Security. Dans un article, il explique que les conséquences ont initialement été mesurées sur Android, où son exploitation autorise le chargement d’une bibliothèque native malveillante. Cependant, le cœur de la faille – la gestion de l’argument -xrsdk-pre-init-library sans validation ou nettoyage – se retrouve sur les autres plateformes. Ce qui a conduit Steam à réagir, en bloquant les schémas d’URI personnalisés et en recommandant aux développeurs de mettre rapidement à jour les jeux concernés. Microsoft y est allée également de son bulletin, en recommandant notamment de désinstaller les jeux affectés.

☕️ Contre Epic, Google doit appliquer les changements réclamés par la justice aux États-Unis

8 octobre 2025 à 08:29

Dans la guerre qui l’oppose à Epic, Google a perdu cet été une manche importante. Le jugement a confirmé le verdict en première instance : Google abuse de position dominante pour restreindre les installations hors de son Play Store et faire passer les paiements par ses propres services.

Particulièrement mécontente de son échec, Google a indiqué qu’elle allait se tourner vers la Cour Suprême. L’appel à la plus haute juridiction des États-Unis doit se faire officiellement le 27 octobre. Pour bloquer le jugement en appel, Google avait cependant demandé à la Cour Suprême de suspendre l’injonction ordonnée par la cour, afin de retarder autant que possible les travaux réclamés.

Cour suprême

Peine perdue, si l’on en croit Reuters et The Verge. La Cour Suprême a rejeté la requête de Google, permettant à l’injonction de suivre son cours. En d’autres termes, Google doit avoir fait les changements demandés d’ici la fin du mois. Principale mesure : autoriser très officiellement les développeurs à utiliser d’autres systèmes de paiement que le sien pour les applications, qu’elles soient distribuées sur le Play Store ou ailleurs.

Sans surprise, Google se dit déçue : « Android offre plus de choix aux utilisateurs et aux développeurs que n’importe quel système d’exploitation mobile, et les changements ordonnés par le tribunal de district américain compromettront la capacité des utilisateurs à télécharger des applications en toute sécurité. Bien que nous soyons déçus que l’ordonnance ne soit pas suspendue, nous poursuivrons notre appel ». L’argument de la sécurité est souvent cité, comme chez Apple.

Rappelons que dans le cas d’Apple, la Cour Suprême avait refusé d’intervenir sur un dossier équivalent.

☕️ Contre Epic, Google doit appliquer les changements réclamés par la justice aux États-Unis

8 octobre 2025 à 08:29

Dans la guerre qui l’oppose à Epic, Google a perdu cet été une manche importante. Le jugement a confirmé le verdict en première instance : Google abuse de position dominante pour restreindre les installations hors de son Play Store et faire passer les paiements par ses propres services.

Particulièrement mécontente de son échec, Google a indiqué qu’elle allait se tourner vers la Cour Suprême. L’appel à la plus haute juridiction des États-Unis doit se faire officiellement le 27 octobre. Pour bloquer le jugement en appel, Google avait cependant demandé à la Cour Suprême de suspendre l’injonction ordonnée par la cour, afin de retarder autant que possible les travaux réclamés.

Cour suprême

Peine perdue, si l’on en croit Reuters et The Verge. La Cour Suprême a rejeté la requête de Google, permettant à l’injonction de suivre son cours. En d’autres termes, Google doit avoir fait les changements demandés d’ici la fin du mois. Principale mesure : autoriser très officiellement les développeurs à utiliser d’autres systèmes de paiement que le sien pour les applications, qu’elles soient distribuées sur le Play Store ou ailleurs.

Sans surprise, Google se dit déçue : « Android offre plus de choix aux utilisateurs et aux développeurs que n’importe quel système d’exploitation mobile, et les changements ordonnés par le tribunal de district américain compromettront la capacité des utilisateurs à télécharger des applications en toute sécurité. Bien que nous soyons déçus que l’ordonnance ne soit pas suspendue, nous poursuivrons notre appel ». L’argument de la sécurité est souvent cité, comme chez Apple.

Rappelons que dans le cas d’Apple, la Cour Suprême avait refusé d’intervenir sur un dossier équivalent.

❌