Vue lecture

☕️ Le marché n’est pas prêt à accueillir de nouvelles chaînes TNT, estime l’Arcom

L’Arcom, régulateur de la communication audiovisuelle, a décidé de retarder de deux ans la procédure d’attribution relative aux canaux précédemment occupés par les chaînes payantes du Groupe Canal+ sur la TNT.

« Il ressort en effet de l’analyse menée par l’Autorité et de la plupart des contributions des acteurs du secteur que dans un contexte d’érosion de la consommation télévisuelle et d’un marché publicitaire atone, la capacité du secteur à absorber l’arrivée de nouveaux services viables, sans préjudice pour les services existants et leur capacité à financer les contenus, est limitée », indique l’Autorité.

Ses travaux, basés notamment sur une consultation publique et sur une étude d’impact rendue en juillet dernier, font notamment valoir qu’une contraction des recettes publicitaires télévisées est attendue, en France, entre 2025 et 2030, « avec un recul moyen estimé à- 1,7 % par an ».

Partant du principe qu’accepter de nouveaux entrants reviendrait mécaniquement à réduire la part moyenne du marché disponible pour chaque chaîne, l’Arcom choisit, à la place, de lancer « des travaux visant à approfondir le modèle économique de la diffusion de la TNT ».

Bien que l’IPTV ne cesse de gagner du terrain, la diffusion hertzienne représente encore une part significative des usages – source Arcom

« Il a vocation à aboutir au début de l’année 2027 et donnera lieu à des points d’étape, notamment au printemps 2026, au moment du lancement des travaux de réaffectation des fréquences rendues disponibles à l’échéance, le 12 décembre 2027, de six services nationaux de la TNT », précise l’Autorité. Les chaînes concernées par cette échéance sont pour mémoire 6ter, RMC Life (ex-Chérie 25), L’Équipe, RMC Découverte, RMC Story et TF1 Séries Films, qui ont vu leurs autorisations renouvelées pour cinq ans ans en mars 2022.

Rappelons que le périmètre de la TNT a été modifié cette année, avec une nouvelle numérotation entrée en vigueur en juin dernier, pour préparer la sortie des chaînes C8 et NRJ12, ainsi que la fin de la diffusion des chaînes payantes du Groupe Canal+.

La TNT a depuis accueilli deux nouvelles chaînes : T18, portée par le groupe CMI France, lui-même détenu par le milliardaire Daniel Kretinsky, et Novo19, lancée par le groupe Ouest-France.

L’Arcom a par ailleurs cette semaine donné son agrément au changement de nom de la chaîne Chérie 25 qui, sous la houlette de son nouvel actionnaire CMA Media (filiale du groupe CMA CGM de Rodolphe Saadé) devient RMC Life.

  •  

Chrome officialise sa grande bascule dans l’IA, les agents avant la fin de l’année

Des coupes de cheveux simplifiées !
Chrome officialise sa grande bascule dans l’IA, les agents avant la fin de l’année

C’est fait : Google vient d’annoncer le grand déploiement de l’IA dans Chrome. Les fonctions étaient jusque-là réservées aux abonnements les plus onéreux de Gemini, mais se diffusent désormais chez tous les utilisateurs aux États-Unis. D’autres pays seront concernés dans les prochains mois.

« La plus grande mise à jour de son histoire ». C’est ainsi que Google présente l’évolution de Chrome dans un billet publié hier soir. Il n’y est question que d’IA et de l’omniprésence de Gemini. Ce n’est pas entièrement une nouveauté, car nombre de ces fonctions étaient en fait déjà accessibles aux abonnés Google AI Pro et AI Ultra.

Maintenant qu’elle sait qu’elle gardera le contrôle de Chrome, Google ouvre cette fois les vannes : toutes les fonctions débarqueront chez l’intégralité des utilisateurs aux États-Unis (en anglais) avant la fin du mois, et dans le reste du monde au cours des semaines à venir. L’entreprise tient ainsi sa promesse d’une IA déterminante pour l’accès à l’information.

Une déferlante de fonctions

On s’en doute, ce changement signifie tout un lot de fonctions chez monsieur et madame Tout-le-monde. Certaines sont désormais très classiques, comme demander des explications sur un ou plusieurs onglets, un résumé des informations, comparer plusieurs pages, etc. Gemini étant capable d’agir sur plusieurs onglets en même temps, toutes ces opérations peuvent être lancées dans la fenêtre, via un bouton Gemini dédié (tout à droite de la barre de titre), au sein de laquelle les questions pourront être appliquées à l’ensemble des onglets, même si le nombre maximal n’est pas précisé.

Les exemples donnés par Google sont classiques, dont le sempiternel cas du voyage à organiser. On peut avoir ainsi un onglet ouvert sur les trajets en avion, un autre sur les réservations d’hôtels, un autre encore sur les restaurants, et encore un autre sur les déplacements prévus. Dans l’interface de Gemini, on pourra alors demander à l’assistant de résumer le tout et de proposer un projet cohérent.

L’intégration de l’assistant permet surtout, selon Google, de modifier profondément la manière dont on aborde une recherche. Par exemple, plutôt que de chercher le « meilleur » produit d’une catégorie, on peut demander à Gemini de trouver des modèles adaptés à un cas d’usage particulier. Dans une précédente démonstration, Google avait proposé comme exemple une description du type : « Je dors sur le côté avec des douleurs lombaires, je voudrais un tableau comparatif des matelas adaptés ».

Toutes les informations renvoyées par Gemini s’affichent dans un panneau latéral. Et pour être sûr que les internautes verront ces nouvelles capacités, l’Omnibox (nom consacré de ce qui était avant la barre d’adresses) se met à la page. Sans reprendre complètement le comportement du bouton dédié, elle pourra servir à poser des questions sur la page en cours. Elle peut en suggérer, attirant l’attention de la personne sur ces possibilités pour s’assurer qu’elle découvre cette fonction.

Historique, synergies et sécurité

Les conséquences de cette intégration profonde sont nombreuses. D’abord, Gemini pourra puiser dans l’historique de navigation. On pourra donc lui poser des questions comme « quel était le site Web sur lequel j’ai vu le bureau en noyer la semaine dernière ? » ou « quel était ce blog que j’ai lu sur le shopping de la rentrée ? ». Si ce type de fonctionnement vous évoque les mêmes inquiétudes que Recall chez Microsoft, c’est que les dangers en matière de vie privée existent bel et bien, même si le problème se pose de toute façon déjà avec l’historique.

L’intégration se fait en outre avec d’autres services de Google, qui cite Agenda, Docs, YouTube et Maps. Selon les tâches exécutées par Gemini, l’assistant pourra ainsi proposer de lui-même de créer des évènements dans le calendrier, afficher un trajet potentiel dans Maps, etc. En Europe, où ce type d’intégration très poussée a déjà posé problème à Google, il n’est pas certain que ce renforcement soit apprécié.

Google ajoute également un gros tronçon sur la sécurité, via trois angles. D’une part, l’IA va être utilisée pour élargir la protection de Gemini Nano sur les escroqueries au support technique, que l’on trouve notamment dans les smartphones Pixel. Cette défense prendra en compte d’autres scénarios de tromperie, dont les sites prétendant vous avoir fait gagner un cadeau.

D’autre part, l’IA va aussi servir à agir sur les notifications envoyées par les sites. Il s’agit d’une reprise et d’un renforcement d’une fonction déjà existante sur la version Android de Chrome, et dont Google affirme qu’elle a déjà permis de bloquer trois milliards de notifications frauduleuses ou de type spam. « Chrome utilise désormais l’IA pour connaître vos préférences et prendre en compte des signaux tels que la qualité du site », précise l’éditeur.

Enfin, l’IA va venir compléter les fonctions offertes par le gestionnaire de mots de passe. Google propose déjà une surveillance des identifiants pour prévenir quand ils sont retrouvés dans une fuite. Une fonction qui existe depuis des années dans d’autres gestionnaires. Sur les sites pris en charge, l’IA permettra de créer automatiquement un agent chargé d’aller modifier le mot de passe quand une fuite est signalée. Là encore, ce type de fonction existe déjà, notamment chez 1Password et Dashlane. Son efficacité dépendant des sites, on attend de voir comment Chrome s’en sort.

Un futur agentique

Au cours des prochains mois, Google indique que des nouveautés spécifiques aux agents seront introduites. L’idée est simple : généraliser leur usage. Ces agents « permettront à Gemini dans Chrome de gérer ces tâches fastidieuses qui prennent beaucoup de votre temps, comme réserver une coupe de cheveux ou commander vos courses hebdomadaires », selon Google.

Google espère bien sûr que l’arrivée des agents représentera un changement de paradigme dans la navigation. Le concept n’a pas changé : décrire à Gemini le genre de tâches que l’on veut réaliser, l’assistant se chargeant de créer les agents dédiés. Ces derniers agiront comme des éléments autonomes, même si Google affirme que l’on pourra reprendre le contrôle à tout moment. Ces agents pourront par exemple être chargés de collecter des informations quand vous n’êtes pas là, pour vous en fournir un résumé dans Docs, qui attendra votre retour ou dont vous recevrez la notification quand vous êtes en déplacement.

De manière générale, la promesse de Google avec les agents est de transformer « des tâches de 30 minutes en parcours utilisateur en 3 clics ». Google a d’ailleurs en parallèle que les Gems pouvaient maintenant se partager entre utilisateurs. Les Gems sont des agents que l’on peut bâtir avec Gemini pour gérer en permanence des tâches spécifiques. Dans le gestionnaire de Gems de Gemini, on trouve maintenant un bouton de partage, ouvrant une fenêtre dans laquelle on peut sélectionner des contacts. Ces derniers recevront alors une notification, avec possibilité d’installer l’agent correspondant. Ce dernier sera indiqué comme partagé depuis une autre personne.

Notons qu’aucune des annonces de Google pour Chrome hier soir ne précise les limitations pour les comptes gratuits ou pour les différents abonnements.

  •  

☕️ La distribution axée sur l’anonymat Tails passe en 7.0 avec un démarrage plus rapide

La version finale de Tails 7.0 est disponible, avec près d’un mois d’avance sur le calendrier initialement annoncé. Cette distribution GNU/Linux, centrée pour mémoire sur les problématiques de sécurité et d’anonymat en ligne et conçue pour être lancée depuis une clé USB, adopte un nouveau socle centré sur Debian13 Trixie, sortie début août, accompagnée de l’environnement GNOME 48. Le tout fonctionne sur un noyau Linux 6.12.43 LTS (Long Term Support), ce qui devrait selon l’équipe en charge du projet améliorer la compatibilité matérielle de Tails OS.

Alors que la Release Candidate parue début août présentait quelques lenteurs au démarrage, l’équipe indique que le lancement de cette Tails OS 7.0 version finale a gagné 10 à 15 secondes sur la plupart des ordinateurs. Pour ce faire, elle explique être passée d’une compression basée sur xz au format zstd, ce qui se traduit par une image système plus volumineuse d’environ 10 %.

Tails, pour The Amnesic Incognito Live System passe en version 7.0

Elle en profite pour signaler que les performances peuvent varier dans des proportions significatives si Tails OS est lancé depuis une clé USB « de mauvaise qualité », un avertissement destiné notamment aux utilisateurs qui évoluent dans des pays où la contrefaçon de produits électroniques est un phénomène courant.

Par ailleurs, le système recommande désormais 3 Go de mémoire vive, contre 2 Go précédemment. Si la machine hôte dispose de moins de 3 Go, Tails OS se lancera, mais un message d’avertissement signalera un risque d’instabilité ou de performances dégradées.

Outre une longue liste de corrections et les changements liés à GNOME 48, Tails 7.0 est l’occasion d’une mise à jour générale des principaux paquets, du client Tor (0.4.8.17) à Thunderbird (128.14 ESR) en passant par Electrum (4.5.8), OnionShare (2.6.3), KeePassXC (2.7.10) ou Gimp (3.0.4).

Les différentes images et procédures d’installation sont listées sur le site officiel du projet.

  •  

Nouvelle attaque contre NPM, cette fois à une cadence industrielle

Les temps modernes
Nouvelle attaque contre NPM, cette fois à une cadence industrielle

Alors que le dépôt NPM était déjà marqué par une importante attaque le 8 septembre, une autre attaque est en cours depuis 48 heures. Plusieurs centaines de paquets ont été compromis, les pirates à l’origine de la campagne ayant industrialisé le processus, au point de l’avoir transformé en ver. Explications.

L’écosystème NPM (Node Package Manager) fait actuellement face à une nouvelle attaque sophistiquée. De type chaine d’approvisionnement, elle consiste à infecter un maillon de la chaine de distribution en amont, afin que l’infection se répande automatiquement en aval.

Cette nouvelle attaque, d’un genre différent de celle que nous rapportions récemment, reprend dans les grandes lignes le modus operandi de l’attaque du 27 aout. À ceci près que les pirates ont entièrement automatisé le processus, conduisant à un vol de nombreuses informations d’authentification et à leur publication dans des dépôts publics, créés automatiquement ici aussi par les pirates.

Ce comportement de ver informatique a donné son nom à cette attaque : Shai-Hulud, en référence au célèbre ver des sables de l’univers de Dune. L’ingénieur Daniel Pereira a été le premier à signaler un problème le 15 septembre, avant que les sociétés Socket et StepSecurity prennent le relai. Elles notaient d’abord que 40 paquets avaient été compromis, avant que le chiffre s’envole progressivement : dans la seule journée du 16 septembre, le nombre avait atteint 200 paquets, avant de grimper à près de 500 en fin de journée.

Que fait Shai-Hulud ?

Le ver est auto-répliquant et a plusieurs missions. La principale est de voler des informations d’authentification et de les publier sur GitHub dans des dépôts créés pour l’occasion et rendus publics, afin que tout le monde puisse piocher dedans.

Plus en détail, le ver commence par analyser l’hôte et son environnement d’intégration continue pour chercher tout ce qui ressemble à un secret (au sens cybersécurité du terme, tout ce qui touche à l’authentification). Le ver scanne également, via Trufflehog, les points de terminaison des métadonnées des environnements cloud principaux (dont AWS et GCP) pour récupérer des jetons d’identification (GITHUB_TOKEN, NPM_TOKEN, AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY…).

Vient ensuite l’exfiltration, en deux phases. Le ver crée un dépôt Shai-Hulud sur le compte GitHub compromis et y envoie, via un commit, un fichier JSON collectant tout ce qui a été volé : variables d’environnement, éléments d’authentification, informations système, etc. Via un workflow GitHub Actions, ces informations sont envoyées vers un serveur contrôlé par les pirates. Une copie est écrite dans les logs Actions.

Un mécanisme performant de propagation

Enfin, la phase de propagation. Si le vol d’informations a pu mener à des jetons npm, le ver les utilise pour tenter de s’y répliquer. S’il y parvient, toute la chaine recommence, expliquant que des centaines de paquets aient été compromis. Chaque fois qu’un compte privé est ainsi compromis, il est rendu public par le ver, qui en change les paramètres.

« Les versions compromises incluent une fonction (NpmModule.updatePackage) qui télécharge une archive de paquets, modifie package.json, injecte un script local (bundle.js), recompresse l’archive et la republie, permettant ainsi la trojanisation automatique des paquets en aval », explique la société Socket.

Les recommandations faites aux développeurs sont nombreuses, résume Trend Micro : auditer toutes les dépendances (en particulier les paquets mis à jour récemment), révoquer et faire tourner les informations d’authentification (surtout pour les comptes NPM), surveiller d’éventuels signes de présence de Trufflehog ou d’autres outils de balayage, se tenir au courant avec des sources fiables d’informations (dont le registre officiel de NPM), et renforcer la protection des accès ainsi que les politiques de sécurité. Il est notamment conseillé d’activer l’authentification à facteurs multiples (MFA) pour l’ensemble des développeurs et des points d’accès CI/CD.

Encore et toujours du phishing

Comment toute cette attaque a commencé ? Exactement comme les précédentes : par un e-mail frauduleux, demandant au développeur de renouveler son authentification à deux facteurs. Un lien proéminent l’emmenait vers une page ressemblant trait pour trait à celle de NPM, mais permettait aux pirates de capter le jeton d’authentification et les identifiants. Après quoi, les informations étaient utilisées pour accéder au dépôt et débuter l’infection.

En l’occurrence, c’est le dépôt du paquet ctrl/tinycolor qui a été contaminé en premier. Via une mise à jour malveillante, le paquet contenait une fonction NpmModule.updatePackage) capable d’enchainer les opérations : télécharger un tarball, modifier le fichier package.json, injecter un script local, rempaqueter le tout et le republier. C’est ce comportement qui a été repéré initialement par Daniel dos Santos Pereira. Mais le mal était déjà fait, car ctrl/tinycolor est un paquet populaire : 2,2 millions de téléchargements par semaine en moyenne.

Car les paquets téléchargés et installés sur des postes clients contiennent également une charge utile leur étant destinée. Comme pour l’attaque précédente, on y trouve un voleur de cryptomonnaies, qui permet les interceptions des transferts au sein du navigateur et leur orientation vers des portefeuilles contrôlés par les pirates.

Vers une empreinte durable ?

On ne connait pas encore l’ampleur des conséquences de cette campagne. Shai-Hulud risque cependant de remettre en question le modèle de gestion de nombreux dépôts et accentue les questionnements autour de la sécurité. Toutes les sociétés ayant formulé des recommandations sur le sujet reviennent toujours à deux consignes : la généralisation de l’authentification forte à facteurs multiples et la surveillance continue de l’activité sur les dépôts.

Par le nombre de paquets NPM touchés, l’attaque pourrait également remettre en cause le fonctionnement habituel de l’écosystème open source et à sa confiance inhérente. À une époque où les applications web (encapsulées ou non) sont omniprésentes, une contamination de la chaine d’approvisionnement peut signifier rapidement des millions de machines infectées.

Et si cette contamination vous rappelle, en d’autres circonstances, le fiasco mondial de la panne CrowdStrike, le dépôt de l’entreprise a été touché par Shai-Hulud, de multiples paquets ayant été contaminés.

Pour l’instant, on ignore si l’attaque du 8 septembre peut être considérée comme une première manifestation de la nouvelle. La méthode de départ est la même, mais l’exécution technique semble bien plus sophistiquée aujourd’hui. Dans son déroulement, Shai-Hulud ressemble davantage à l’attaque de fin août, même si – là encore – le périmètre et l’automatisation sont bien supérieurs. Si les auteurs sont les mêmes, alors les attaques précédentes ont peut-être été des galops d’essai.

  •  

Pourquoi les chatbots d’IA générative répètent deux fois plus d’infox que l’an passé

Open(Pravd)AI
Pourquoi les chatbots d’IA générative répètent deux fois plus d’infox que l’an passé

Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.

Plusieurs médias français se sont récemment fait l’écho d’une étude de la startup de lutte contre la désinformation NewsGuard, avançant que les IA génératives « propagent » et « diffusent » de nombreuses « fake news », qu’elles se tromperaient « une fois sur trois » et seraient « de moins en moins fiables » en matière de lutte contre la désinformation.

Les titres des articles anglophones consacrés à la même étude évoquaient quant à eux le fait que des acteurs malveillants (russes notamment) les instrumentalisent pour « amplifier » leurs désinformations, ce qui n’est pas tout à fait la même chose.

L’étude qu’ils relayaient, intitulée « Le taux de fausses informations répétées par les chatbots d’IA a presque doublé en un an », est bien plus nuancée que ne le laissent entendre les titres des articles en français. L’audit ne consistait pas en effet à demander aux 10 principaux outils d’IA de répondre à des questions d’actualité, mais à tester « leur propension à répéter de fausses affirmations sur des sujets d’actualité ».

Newsguard leur a donc soumis des questions (ou « prompts ») « élaborées à partir d’un échantillon de 10 Empreintes de récits faux, tirées du catalogue de NewsGuard répertoriant les affirmations manifestement fausses qui se propagent en ligne ».

En juillet 2024, NewsGuard avait en effet lancé un « baromètre mensuel des récits faux générés par IA », afin d’évaluer la manière dont les principaux modèles d’IA générative « traitent les affirmations manifestement fausses sur des sujets polémiques ou susceptibles d’être la cible d’acteurs malveillants cherchant à diffuser de fausses informations ».

Son objectif n’est pas de mesurer le taux de fiabilité des chatbots en matière d’accès à l’information, mais de vérifier « si les modèles s’améliorent dans la détection et la réfutation des fausses informations ou s’ils continuent à les répéter ». Et donc, in fine, leur capacité à identifier voire fact-checker des désinformations, une tâche a priori bien plus complexe que celle d’aller chercher des informations, sans les vérifier.

Les chatbots se trompent plus parce qu’ils ont cessé de refuser de répondre

Pour parfaire l’expérience, et s’inspirer des différents types de questions que posent les utilisateurs des chatbots, NewsGuard a testé trois types de requêtes sur chaque récit, « reflétant trois types d’utilisation des outils d’IA en lien avec l’actualité : une question neutre et innocente, une question orientée partant du principe que le récit faux est vrai, et une instruction telle qu’elle proviendrait d’un acteur malveillant cherchant à contourner les garde-fous du chatbot ».


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Steam se prépare à abandonner les versions 32 bits de Windows

Contrairement à la fin programmée du support de Windows 10 par Microsoft, cette annonce ne devrait pas défrayer la chronique. Valve a en effet signalé que le support de sa plateforme Steam sur les éditions 32 bits de Windows serait interrompu au 1er janvier 2026.

« Les installations existantes du client Steam continueront de fonctionner à court terme sur Windows 10 32 bits, mais ne recevront plus de mises à jour d’aucune sorte, y compris les mises à jour de sécurité », indique l’éditeur.

Pourquoi cette mesure ? « Ce changement est nécessaire car les fonctionnalités principales de Steam reposent sur des pilotes système et d’autres bibliothèques qui ne sont pas pris en charge sur les versions 32 bits de Windows », répond Valve.

On peut voir une certaine ironie dans cette décision, remarque The Verge, dans la mesure où le client principal steam.exe, sous Windows, est toujours une application 32 bits, même si la plupart des processus associés sont, eux, en 64 bits.

Cette fin de support programmée ne devrait cependant pas perturber beaucoup les joueurs (ni les éditeurs, dont les choix d’architecture sont indépendants de ceux de la plateforme). D’après les statistiques de Valve, son Steam Hardware Survey, Windows 10 32 bits représente environ 0,01 % du parc installé.

D’autres acteurs du monde logiciel planchent sur la fin programmée du 32 bits, à l’image de Mozilla avec Firefox sous Linux, ou Fedora, chez qui la question s’est posée au printemps.

Sous Windows, le client Steam.exe est en 32 bits mais les processus associés sont en 64 bits – crédits Next
  •  

☕️ Le PCIe 8.0 (jusqu’à 1 To/s) confirme ses objectifs pour 2028

Cet été, le PCI-SIG a annoncé les grandes lignes des caractéristiques techniques du PCIe 8.0, capable d’atteindre 32 Go/s par ligne, soit 512 Go/s en x16 (avec 16 lignes) et jusqu’à 1 024 Go/s en bi-directionnel (512 Go/s dans chaque sens). C’est simple, depuis le PCIe 1 le débit par ligne est doublé à chaque itération.

La publication de la version 0.3 de cette norme est une étape importante pour le consortium : c’est la première à être disponible pour les membres (qui peuvent donc commencer à travailler dessus). Le consortium confirme au passage le calendrier prévisionnel de 2028.

Le travail sur les connecteurs continue, notamment avec le PCIe Optical Interconnect Solution. Il s’agit pour rappel d’utiliser la fibre optique pour transporter le signal PCIe.

La mise en ligne de la v0.3 est aussi l’occasion pour le PCI-SIG de confirmer des objectifs du PCIe 8.0, notamment sur la latence, la correction d’erreur (FEC ou Forward Error Correction) et la fiabilité. Le PCI-SIG ne donne pour le moment pas plus de détails.

  •  

☕️ Vivaldi 7.6 monte encore d’un cran dans la personnalisation du navigateur

La nouvelle version de Vivaldi fait une nouvelle fois la part belle à la personnalisation, alors que c’était déjà l’un des points forts du navigateur. La mouture 7.6 permet ainsi de tout personnaliser, jusqu’à la barre d’onglets. On peut modifier le nombre et l’emplacement des éléments (dont tous les boutons), pour aller vers une interface minimaliste, ou au contraire très complète.

Le bouton d’onglets est un autre changement majeur dans Vivaldi. Il apparait à droite de la barre de titre, sous forme d’un rectangle intégrant une flèche vers le bas. Quand on clique dessus, on obtient une liste regroupant tous les onglets actifs, synchronisés, doublons ou encore ceux récemment fermés. Cliquer sur le bouton positionne directement le curseur de la souris dans le champ de recherche, de sorte que l’on peut commencer tout de suite à chercher un site spécifique. Via le menu à trois points, on peut désélectionner les catégories.

Crédits : Vivaldi

L’équipe annonce également des menus contextuels plus propres, comme c’est régulièrement la mode en ce moment dans les navigateurs. Les fonctions ont été rassemblées et réorganisées, les actions principales devant être plus facilement accessibles.

La fonction de recherche existante pour les onglets évolue aussi. On peut se servir d’un opérateur pour chercher spécifiquement dans les onglets ouverts (@t), les signets (@b] ou l’historique (@h). Vivaldi 7.6 propose également un blocage des publicités présenté comme plus efficace, la prise en charge des gestes de balayage sous Windows, ainsi qu’un réveil plus rapide des onglets mis en veille.

  •  

Apocalypse Nerds : « Il ne s’agit pas de renverser l’État, mais de subvertir les institutions »

Entretien avec Nastasia Hadjadji et Olivier Tesquet
Apocalypse Nerds : « Il ne s’agit pas de renverser l’État, mais de subvertir les institutions »

À l’occasion de la sortie d’« Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir », Next s’est entretenu avec ses auteurs, les journalistes Nastasia Hadjadji et Olivier Tesquet.

Soutien du capital-risque spécialisé dans l’intelligence artificielle et les cryptomonnaies au camp républicain, ralliement évident des géants numériques à Donald Trump, manipulation des conversations numériques pour pousser les idées les plus conservatrices, aux États-Unis et ailleurs… Depuis plus d’un an, tout un pan de l’industrie numérique a rejoint les courants les plus à droite de la politique états-unienne.

Dans Apocalypse Nerds, Comment les technofascistes ont pris le pouvoir, publié ce 19 septembre aux éditions Divergences, les journalistes Nastasia Hadjadji et Olivier Tesquet détaillent les différents mouvements qui ont permis à cette nouvelle matrice idéologique d’émerger. Next les a rencontrés.

>> L’assassinat de Charlie Kirk a ouvert une nouvelle séquence violente, aux États-Unis. On a vu Elon Musk s’exprimer sur le sujet, toutes sortes de désinformation circuler, le vice-président se transformer en animateur de podcast dans le Charlie Kirk show, ce 15 septembre… Dans quelle mesure y voyez-vous un symptôme de la prise de pouvoir technofasciste ?

Olivier Tesquet : Au début, ça semblait lointain. Mais quand j’ai vu l’image de la prise de parole de J.D. Vance, depuis la Maison Blanche, je n’ai pas pu m’empêcher de faire le rapprochement avec cet autre cliché de début 2025, sur lequel on voyait Elon Musk, son fils sur les épaules, dans le bureau ovale. C’est la scène que nous avons prise pour introduire notre livre.

Dans les deux cas, on a l’impression que Donald Trump est spectateur de sa propre fonction et d’observer en direct un déplacement du pouvoir. Le phénomène qu’on décrit, c’est le déplacement d’un pouvoir habituellement niché dans les institutions vers des milliardaires, des blogueurs, des entrepreneurs, des influenceurs… des gens que l’on pourrait croire à la périphérie du pouvoir, mais qui se retrouvent en plein milieu.

Certains pourraient considérer que Charlie Kirk n’avait pas d’influence, mais son entreprise de débats sur les campus américains, pour faire avancer les idées conservatrices, c’est la mise en pratique d’un programme dressé par le blogueur Curtis Yarvin, lorsque ce dernier évoque la destruction de la « cathédrale ». Yarvin réunit sous ce terme des institutions progressistes qu’il faudrait absolument identifier et renverser, et les universités en font absolument partie.

Nastasia Hadjadji : Par ailleurs, ce n’est pas parce que Musk a quitté le ministère de l’efficacité gouvernementale (DOGE) que les effets directs de sa politique de démantèlement de l’État social et de redistribution américain, par l’installation de structures algorithmiques et techniques, ne se perpétuent pas. Quand Musk explique vouloir réduire l’administration, il n’évoque évidemment pas les fonctions régaliennes de défense et d’armement, puisque c’est la cuisse qui l’a fait naître, et qu’il se nourrit de leurs commandes publiques. Mais l’entreprise amorcée par le DOGE, dont on voit les répercussions directes dans le nombre de morts (au moins 3 000 morts seraient par exemple imputables à la suppression de l’USAID, ndlr), de bébés qui naissent avec le VIH, cette action-là n’a pas cessé.

Olivier Tesquet : Charlie Kirk y participait directement, d’ailleurs. Son organisation avait créé une « professor watchlist » dans laquelle des professeurs considérés comme des ennemis étaient listés. Ces derniers ont reçu des menaces de mort après y avoir été nommés. À mon sens, cette entreprise de contre-révolution, qui ne vise pas tant à renverser l’État qu’à subvertir ses institutions, c’est le dénominateur commun de la multitude de courants qu’on évoque dans Apocalypse Nerds, même s’ils ont chacun leurs nuances.

« Chaque techno-fasciste peut décliner sa marque en fonction de son environnement politique »

>> Définissons donc les termes : qu’est-ce que le techno-fascisme ?

Olivier Tesquet : Quand on s’est lancés dans ce projet de livre, certaines tendances étaient moins visibles qu’aujourd’hui, donc nous avons beaucoup débattu de la terminologie à utiliser. Notre question initiale, c’était : est-ce que la dimension technologique, la vision du monde avec des yeux d’ingénieurs, recompose la définition du fascisme telle qu’on l’entend au sens des fascismes historiques ?

Pour y répondre, il faut d’abord considérer que le fascisme est un mouvement : ça n’advient pas d’un coup. C’est un processus, qui peut devenir régime, ce qui explique que ce ne soit pas nécessairement lié à un moment historique particulier. Ensuite, il faut s’interroger sur les invariants des fascismes historiques. Si on prend les définitions de Zeev Sternhell, de Roger Griffin, ou même la liste d’Umberto Eco sur l’« Ur-fascism », on peut en dégager au moins trois. Le premier, c’est l’idée d’une contre-révolution, anti-modernité.


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

NVIDIA pris entre deux feux : on vous explique la bataille entre les États-Unis et la Chine

Il bluffe ! Pas sur ! Si si il bluffe !
NVIDIA pris entre deux feux : on vous explique la bataille entre les États-Unis et la Chine

Le jeu de ping-pong sur les GPU entre les États-Unis et la Chine continue de plus belle. Quand le premier finit, après des mois, par ouvrir un peu les vannes, le second lui répond finalement « non, merci ». Une situation tendue où chacun dégaine des restrictions/taxes/déclarations à tour de rôle, mais qui pourrait se décanter rapidement avec un entretien entre Donald Trump et Xi Jinping prévu demain.

Voilà des années que les États-Unis ont mis en place un embargo sur les ventes de semi-conducteurs vers la Chine, ce qui n’empêche pas toujours des ventes de quelques lots. En première position, on retrouve les GPU NVIDIA, les plus prisés actuellement pour l’intelligence artificielle.

La Chine, comme le reste du monde, a besoin de grosses quantités de cartes graphiques pour entrainer ses modèles d’intelligence artificielle et rester dans la course.

États-Unis vs Chine : rappel des saisons précédentes


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

En deux clics
LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

Pour LinkedIn, utiliser vos données personnelles pour entrainer des IA génératives de contenus relève de l’intérêt légitime. Le réseau social laisse jusqu’au 3 novembre à ses utilisateurs européens pour désactiver cette fonctionnalité.

Il y a un an, jour pour jour, LinkedIn s’accordait le droit d’utiliser vos informations et publications « pour développer les produits et services de LinkedIn et de ses affiliés », y compris pour entrainer des IA génératives. Les utilisateurs avaient alors deux mois pour faire part de leur désaccord et couper cette fonctionnalité, activée par défaut.

LinkedIn utilisera vos données dès le 3 novembre

Les utilisateurs dans l’Espace économique européen, la Suisse et le Royaume-Uni étaient épargnés, mais le réseau social avait prévenu que cela arriverait prochainement. C’est désormais le cas. L’option est là encore activée par défaut et vous avez jusqu’au 3 novembre pour refuser que vos données soient utilisées.

LinkedIn affiche depuis aujourd’hui un message à ses utilisateurs européens, comme nous avons pu le voir à la rédaction : « À compter du 3 novembre 2025, certaines de vos données LinkedIn seront utilisées par l’intelligence artificielle générative pour améliorer votre expérience, sauf si vous le refusez dans vos préférences. Nos conditions générales évoluent aussi : consultez les changements et gérez vos données ». Un lien vers ce billet permet d’en savoir plus.

Pour désactiver cette option, c’est par là que ça se passe. Il suffit de cliquer sur le bouton pour activer/désactiver l’autorisation d’utiliser ses données pour entrainer des IA de génération de contenus.

« Nous nous fondons sur l’intérêt légitime »

« Nous nous fondons sur l’intérêt légitime pour traiter vos données à cette fin », explique LinkedIn pour justifier le « passage en force » avec un opt-out. Cet intérêt légitime est une des bases légales prévues par le RGPD pour des traitements de données personnelles.

« Le recours à cette base légale suppose que les intérêts (commerciaux, de sécurité des biens, etc.) poursuivis par l’organisme traitant les données ne créent pas de déséquilibre au détriment des droits et intérêts des personnes dont les données sont traitées », rappelle la CNIL. Tout est donc une question d’équilibre.

Si on voit bien l’intérêt pour LinkedIn et donc Microsoft de disposer de toujours plus de données, reste la question des « droits et intérêts » des personnes. Le réseau social en tout cas a pris sa décision et de plus amples précisions sur l’intérêt légitime vu du côté de LinkedIn se trouvent sur cette page.

On peut y lire que « les Membres ou les clients peuvent communiquer des données personnelles en tant qu’entrée dans une fonctionnalité d’IA ou d’IA générative, ce qui peut avoir pour effet que des données personnelles figurent dans la sortie ».

LinkedIn ratisse large : « les données que vous fournissez ou que d’autres fournissent dans le cadre de posts, commentaires, articles ou de tout autre contenu sur nos Services, y compris l’historique de recherches, le fil d’actualité, le contenu que vous consultez, le contenu que vous partagez, qui vous suivez ou qui vous suit, vos relations et votre participation, les pages que vous visitez ou les vidéos que vous visualisez, les actions que vous effectuez sur les publicités (vues et clics) et vos recherches d’emploi ».

Refuser l’entrainement n’empêche pas d’utiliser l’IA générative

LinkedIn précise que cette option ne s’applique qu’à « l’entraînement et à l’amélioration des modèles d’IA générative utilisés pour générer du contenu (par exemple, des posts ou messages suggérés). Elle ne s’applique pas à notre entraînement de modèles d’IA utilisés à d’autres fins, comme les modèles que nous utilisons pour personnaliser votre expérience sur LinkedIn ou à des fins de sécurité, de protection ou de lutte contre les abus ».

Si vous désactivez cette fonction, « vous pourrez continuer à utiliser nos fonctionnalités d’IA générative qui créent du contenu […] Cette préférence ne régit pas l’utilisation de vos données lorsque vous ou d’autres personnes utilisez des fonctionnalités d’IA générative sur LinkedIn. Elle régit uniquement l’utilisation de vos données pour l’entraînement des modèles susceptibles d’alimenter ces fonctionnalités ».

Et si vous vous demandez ce que peut proposer LinkedIn avec ses IA génératives : « Nos fonctionnalités d’IA générative peuvent aider les recruteurs à vous trouver et à vous contacter plus facilement, et assister les membres dans la création de contenu tel que des mises à jour de profil, des messages et des publications ».

  •  

NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Le mariage de la carpe et du lapin
NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Intel et NVIDIA ont posé jeudi les bases d’une collaboration stratégique inédite, qui verra le spécialiste de la carte graphique investir à hauteur de 5 milliards de dollars dans le leader de l’architecture x86. L’accord prévoit notamment qu’Intel intègre des GPU NVIDIA dans certaines de ses puces, mais aussi que les deux industriels fassent converger leurs technologies autour de NVLink dans le datacenter.

Certains y verront un mariage de raison, d’autres un signe des temps : Intel et NVIDIA ont en effet annoncé jeudi un accord de collaboration sans précédent, dont la portée paraitra aussi stratégique que symbolique à ceux qui suivent depuis près de trente ans les démêlés de ces deux piliers du monde informatique.

Selon les termes d’un communiqué, cette collaboration doit leur permettre de développer conjointement « plusieurs générations de produits » sur les segments grand public, entreprises et datacenters, soit en théorie l’ensemble des marchés communs aux deux entreprises.

Des CPU Intel avec un GPU NVIDIA intégré

Quelle nature prendra cette collaboration ? « Intel développera et commercialisera des puces tout-en-un (system-on-chips) intégrant des GPU NVIDIA RTX », destinées à alimenter « une large gamme de PC nécessitant l’intégration de CPU et de GPU de classe mondiale ». La description qu’en font les deux entreprises augure donc des puces tout-en-un signées Intel, mais équipées d’un composant graphique NVIDIA, alors qu’Intel développe aujourd’hui sa propre gamme de contrôleurs graphiques, en intégré ou sous forme de carte dédiée.

Dans le monde du datacenter – de loin le plus significatif pour NVIDIA en matière de chiffre d’affaires, la collaboration porte sur deux aspects. D’abord, le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d’AMD dans les systèmes dédiés à l’intelligence artificielle basés sur des GPU NVIDIA.

L’accord prévoit également qu’Intel développe des CPU personnalisés à la demande de NVIDIA, pour que la firme au caméléon puisse les intégrer, à sa façon, dans ses propres plateformes complètes d’IA. Plutôt que de développer ses propres CPU (une intention qu’on prête de longue date à Jensen Huang) ou de devoir mettre en concurrence les différents fournisseurs du marché, NVIDIA disposerait donc ainsi d’une faculté de développement à la carte avec le concours d’Intel.

NVIDIA entre au capital d’Intel

La mise en œuvre de cette collaboration s’accompagne d’un volet financier : NVIDIA s’engage en effet à acquérir pour 5 milliards de dollars d’actions Intel, au prix déterminé de 23,28 dollars, soit un montant légèrement supérieur à celui négocié par l’administration Trump pour formaliser son entrée au capital de la firme de Santa-Clara.

« L’IA alimente une nouvelle révolution industrielle et réinvente chaque couche de la pile informatique, du silicium aux systèmes en passant par les logiciels. Au cœur de cette réinvention se trouve l’architecture CUDA de NVIDIA », souligne Jensen Huang, CEO de NVIDIA. Nul doute qu’il apprécie cette revanche, alors qu’un certain Pat Gelsinger, ancien patron d’Intel, s’est par le passé fendu de quelques déclarations méprisantes au sujet du coup de chance que représentait ce kit de développement conçu pour convertir les cartes graphiques au calcul.

L’accord, qui reste soumis à l’approbation des autorités compétentes, souligne l’inflexion stratégique engagée par Lip-Bu Tan, CEO d’Intel depuis le début d’année. Il illustre aussi combien le rapport financier s’est inversé entre les deux entreprises. Intel, un temps numéro un mondial des semi-conducteurs, pesait avant cette annonce un peu plus de 100 milliards de dollars en bourse quand son concurrent caracole à plus de 4 000 milliards de capitalisation…

Excited to team up with my good friend Jensen to jointly develop multiple generations of custom data center and PC products!

Our collaboration brings together the best of @Intel and @nvidia to benefit customers – and shows how vital x86 architecture and NVLink will be in… pic.twitter.com/lnEtmJW73A

— Lip-Bu Tan (@LipBuTan1) September 18, 2025

  •  

À l’IGN, « l’avenir de la carte » passe par Panoramax, les communs et jumeaux numériques

Le retour des punks à chien, c’est pas commun
À l’IGN, « l’avenir de la carte » passe par Panoramax, les communs et jumeaux numériques

Sébastien Soriano, directeur général de l’IGN, profite de l’université de la Transition Numérique des Territoires pour parler de sujets dans l’air du temps : les communs et jumeaux numériques, ainsi que le concurrent maison de Street View, Panoramax.

En janvier 2024, une start-up d’État soutenue par l’IGN (Institut national de l’information géographique et forestière), Etalab et OpenStreetMap proposait une alternative libre à Google Street View : Panoramax. La base de données comportait alors 14 millions de photos de 174 contributeurs, pour une distance de 90 000 km. Chacun peut déposer ses photos, sur un système décentralisé : « l’hébergement des photos est réparti entre plusieurs acteurs, chacun stockant des photos sur son serveur (on parle d’instance) », rappelle le projet.

Panoramax : 71 millions d’images et 673 000 km

Aujourd’hui, ce sont plus de 71 millions de photos provenant d’environ 1 500 contributeurs qui sont sur Panoramax, pour une distance totale de 673 000 km. Le premier contributeur avec 7,2 millions d’images est l’entreprise Sogefi, spécialisée dans la géomatique. La métropole européenne de Lille est deuxième avec 6,6 millions et StephaneP troisième avec 4,9 millions.

Nous retrouvons d’autres collectivités dans le classement : l’Eurométropole de Strasbourg est 6ᵉ avec 2,9 millions de photos, le conseil départemental de la Côte-d’Or est 8ᵉ avec 1,3 million (dont 700 000 dans les 30 derniers jours), le département de la Haute-Vienne 14ᵉ avec 1 million, etc.

Sébastien Soriano, directeur général de l’IGN, précisait lors de sa présentation que la Côte-d’Or s’était même engagée à photographier toutes les routes et à les « verser dans Panoramax ». Sébastien Soriano connait bien le monde des télécoms puisqu’il a été président de l’Arcep.

Il ajoute que, en moins de deux ans, ce sont « 500 000 km de voiries » qui ont été photographiés (mais avec certaines prises plusieurs fois en photo), soit près de la moitié du million de km de voies diverses (nationales, départementales…) que compte le territoire. Le but est évidemment de cartographier toutes les routes de France pour devenir une alternative à Street View, mais pas uniquement.

Panoramax vise bien plus large :

« Le projet accepte toutes les photos qui peuvent être utiles à des usages divers et variés. Le projet ne se limite pas à des vues depuis la rue. Vous pouvez même photographier les réseaux des égouts si cela a un intérêt pour vous. La seule limite est celle de votre imagination et de ce que vous pourriez faire de ces photos ».

Les communs : « ce ne sont pas que des punks à chien »

Sébastien Soriano prend l’exemple de Panoramax de l’IGN pour parler d’un sujet plus vaste : les communs numériques. Ils sont désignés par certains comme des piliers de la souveraineté. Le Conseil national du numérique en donne la définition suivante (reprise de celle de Sébastien Shulz ) : « une communauté de producteurs et d’utilisateurs qui gèrent une ressource numérique en vue de son enrichissement dans le temps à travers des règles de gouvernance conjointement élaborées et dont ils protègent le libre accès face aux tentatives d’appropriation exclusive ».

Pour le patron de l’IGN, le levier des communs (et du logiciel libre de manière générale) peut être « utilisé par des gens qui sont en position de challenger. Ils cherchent à atteindre la masse critique d’une manière différente que la plateforme dominante ». « Le système le plus simple, c’est l’ouverture. Les communs numériques, c’est une alternative quand on est challenger pour recréer de la masse critique et peser contre les acteurs dominants  […] Les communs, ce ne sont pas que des punks à chien, c’est une stratégie industrielle », ajoute-t-il. Cette stratégie doit s’installer, mais sans remettre en cause les modèles de business existants ; un équilibre pas toujours simple.

Un exemple (ancien) : Google qui rachète Android pour se lancer dans le smartphone. Un autre avec les États-Unis face aux équipementiers télécoms chinois comme Huawei (et l’absence de concurrents étasuniens) : l’OpenRAN (Réseau d’Accès Radio Ouvert) « avec du logiciel qui va tourner de manière indifférenciée ». Cette architecture réseau « permet, via des protocoles et des interfaces ouverts, de construire des réseaux d’accès radio multi-vendeurs intelligents », explique Orange.

Sébastien Soriano veut aller plus loin avec les communs numériques : « Nous allons proposer la mise en place d’une fabrique de la donnée territoriale pour pouvoir collaborer et relever des défis ». Un projet bien connu dans cette idée est la base adresse nationale.

Les jumeaux numériques « c’est l’avenir de la carte »

Dernier point abordé par le patron de l’IGN : les jumeaux numériques. « Ce n’est pas un jouet, c’est l’avenir de la carte ». Ils permettront de « lire le territoire et de mesurer les conséquences de ses actes. La force du jumeau numérique, c’est de proposer des simulations ».

Il cite un exemple : « Si dans une forêt de chênes, je mets des hêtres et qu’il fait + 3 °C dans 50 ans, qu’est-ce que ça me donne comme prélèvement potentiel de bois ? ». Le jumeau numérique devrait permettre de répondre à ce type de question.

Avec Inria et le Cerema, l’IGN a mis en place un consortium : « nous sommes en discussions très avancées avec France 2030 pour obtenir un financement dans un consortium public-privé, avec l’idée de développer des briques technologiques qui pourront être utilisées par tout un écosystème ». Elles seront « évidemment open-source ».

  •  

GNOME 49 disponible : nouvelles applications et quelques améliorations bien senties

Bye bye Totem et Evince
GNOME 49 disponible : nouvelles applications et quelques améliorations bien senties

Nouvelle version majeure pour GNOME, avec à la clé plusieurs évolutions majeures. Une mouture particulièrement mise à l’honneur cet automne, puisque Fedora 43 et Ubuntu 25.10 vont l’utiliser dans leur variante classique.

La nouvelle version de GNOME se nomme Brescia, « en l’honneur d’une belle ville italienne qui a accueilli la GUADEC cette année ». La GUADEC est la grande conférence annuelle organisée par l’équipe de développement et visant à réunir la communauté. Cette année, elle avait lieu fin juillet.

GNOME 49 est particulièrement sous les feux des projecteurs, car embarqué dans les versions classiques de deux distributions majeures, même si KDE occupe une place importante, avec Kubuntu d’un côté et une version officielle pour Fedora (KDE Plasma 6.5 sortira dans un mois environ).

La récupération de cette nouvelle version de GNOME dépend de la distribution utilisée. Le plus souvent, sur les distributions n’étant pas de type rolling release, les évolutions majeures des environnements sont réservées aux versions suivantes des systèmes.

Passons donc sans plus attendre aux nouveautés.

Applications : ça se bouscule

La plupart des améliorations proposées par GNOME 49 se situent dans le domaine applicatif, à commencer par de nouvelles venues.

Côté lecture vidéo, le vieux Totem est ainsi remplacé officiellement par Showtime. Comme l’indique l’équipe dans son billet, le nouveau lecteur se distingue par une interface sans distraction. Il n’y a par exemple aucun contrôle affiché sur la vidéo pendant la lecture. Ils apparaissent en fondu si l’on bouge la souris. On y retrouve les fonctions que l’on peut attendre d’un lecteur moderne : régulation de la vitesse de lecture, rotation de la vidéo, capture, gestion des pistes audio et sous-titres, etc.

Papers est de son côté la nouvelle visionneuse par défaut, en remplacement d’Evince. GNOME 49 entérine ainsi un changement que l’on a déjà vu dans certaines distributions, notamment dans Ubuntu 25.04. Plus moderne et rapide, elle se débarrasse – comme Showtime – d’une ancienne application en GTK3 au profit du GTK4 et de libadwaita. Les formats PDF, DjVu, TIFF et les archives de bandes dessinées (CBR, CBZ, CBT, CB7) sont pris en charge, avec des fonctions de recherche, d’annotation, d’organisation et de gestion des signatures numériques.

Deux autres applications apparaissent. D’abord Mahjongg, déclinaison du jeu bien connu. Ensuite Wordbook, qui est exactement ce que son nom laisse penser : un dictionnaire. Compatible avec le français, l’application est alimentée par les bases WordNet et eSpeak.

Comme toujours avec les applications de GNOME, toutes ne sont pas présentes en fonction des choix des distributions. Sur une installation neuve de Fedora 43 bêta par exemple, ni le nouveau jeu ni le dictionnaire ne sont installés par défaut. On les trouve cependant dans la boutique Logiciels.

Du neuf dans les applications existantes

Aux côtés des deux nouvelles applications, plusieurs existantes reçoivent des améliorations, parfois significatives. C’est notamment le cas d’Agenda, qui sait enfin exporter des évènements vers un fichier ICS. Les informations sur l’évènement dans la grille ont été rendues plus lisibles. Le client profite aussi d’une adaptation plus efficace du contenu en fonction de la fenêtre et offre la possibilité de masquer manuellement la barre latérale.

La nouvelle version est également plus accessible. L’équipe est ainsi fière d’annoncer que l’application est pleinement adaptée « aux personnes qui comptent exclusivement sur la navigation au clavier, ainsi qu’à celles qui utilisent des technologies d’assistance ».

Du neuf aussi pour Cartes, avec l’arrivée des étiquettes interactives, qui permettent de cliquer sur des noms de rues et des numéros pour obtenir plus d’informations. Certaines icônes sont « localisées » : elles changent en fonction du lieu où l’appareil est utilisé. C’est le cas pour les stations de métro et de train, afin que les symboles soient plus parlants, selon les pays. Les photos de profil OpenStreetMap sont également présentes dans la boite de dialogue du compte.

GNOME 49 inclut en outre des améliorations pour le navigateur Web, même si Firefox et Chromium sont fournis avec la grande majorité des distributions. La nouvelle version se veut plus efficace dans le blocage des publicités et affiche un compteur de temps estimé pour la lecture de l’article sur la page en cours. Elle dispose également d’une boite de dialogue dédiée pour le gestionnaire de mots de passe, de la possibilité de quitter ou désinstaller une application web depuis leur menu intégré, d’un signalement des pages compatibles avec OpenSearch, ainsi qu’un nouveau mode Édition pour les signets.

Améliorations majeures pour Bureau à distance, boutique plus réactive

L’application Bureau à distance reçoit d’importantes améliorations, à commencer par le support des gestes multitouch, qui peuvent être transférés du client à une session distante. En clair, on peut exploiter l’écran tactile d’un appareil client. L’application prend aussi en charge l’entrée relative de la souris, requise par certains jeux et autres logiciels. Enfin, on peut ajouter des écrans virtuels supplémentaires pendant une session à distance, même si ces écrans ne sont pas physiquement présents.

Quant à la boutique Logiciels, elle a reçu des optimisations de performances. C’est surtout le cas avec les installations de paquets Flatpak, l’analyse des dépôts pouvant exiger beaucoup de temps. L’opération se veut donc beaucoup plus rapide et économe en mémoire. L’application elle-même est plus réactive.

Des réorganisations et informations supplémentaires

Comme toujours, la nouvelle version de GNOME déplace un certain nombre d’éléments et améliore l’accès à des fonctions. Un bon exemple est l’accès au mode Ne pas déranger, qui se fait maintenant depuis le panneau d’accès rapide plutôt que de la liste des notifications. Un choix plus cohérent avec ce que l’on peut voir sur d’autres plateformes, notamment macOS et Windows. Dans l’accès rapide, on trouve aussi maintenant le réglage de luminosité quand le HDR est activé.

L’écran verrouillé répare de son côté une vraie carence : il affiche enfin les contrôles de lecture pour le média en cours. Une demande de longue date, notamment pour les possesseurs d’ordinateurs portables, dont l’écran se met rapidement en veille (avec les paramètres par défaut), ce qui obligeait à déverrouiller la session.

Autre information pratique : l’icône de batterie dans la barre supérieure indique désormais quand l’ordinateur est connecté au secteur, mais qu’il ne recharge pas. L’information peut signaler aussi bien un dysfonctionnement qu’un fonctionnement normal, quand l’option « Préserver l’état de la batterie » est activée.

Et bien sûr, il n’y a pas de version majeure de GNOME sans une sélection de nouveaux fonds d’écran.

  •  

OpenAI, Microsoft, NVIDIA et Google promettent une pluie de milliards sur le Royaume-Uni

All your base are belong to us
OpenAI, Microsoft, NVIDIA et Google promettent une pluie de milliards sur le Royaume-Uni

Quelques heures avant l’arrivée de Donald Trump à Londres mardi, OpenAI, NVIDIA, Microsoft et Google ont annoncé des projets d’investissements liés à l’IA au Royaume-Uni, pour une enveloppe globale de l’ordre de 44 milliards de livres. Entre promesses de retombées économiques et entente diplomatique, tous promettent un « Tech prosperity deal » aux vertus transatlantiques.

Accueilli en visite d’État par le roi Charles à Windsor mercredi, Donald Trump n’est pas venu les mains vides. La veille, quelques heures avant l’arrivée du président des États-Unis sur le sol britannique, plusieurs grands noms de la tech US ont formulé des promesses d’investissements significatifs autour de l’IA. Leurs discours respectifs convergent tous dans la même direction : ces dizaines de milliards de dollars, majoritairement consacrés à des infrastructures de calcul informatique, doivent contribuer à faire du Royaume-Uni une « superpuissance de l’IA ».

Plus de 40 milliards de livres sterling annoncés

La palme de l’investissement revient à Microsoft, qui annonce son intention de déployer une enveloppe globale de 30 milliards de dollars entre 2025 et 2028, dont 15 milliards de dollars dédiés spécifiquement à des projets d’infrastructure cloud et IA. Cette somme doit notamment financer la construction d’un supercalculateur doté de 23 000 GPU NVIDIA, en collaboration avec Nscale, le poids lourd britannique des datacenters.

« Cet investissement vise non seulement à répondre à la demande des clients, mais aussi à renforcer les liens économiques bénéfiques des deux côtés de l’Atlantique. Il marque également une avancée significative dans le partenariat technologique entre le Royaume-Uni et les États-Unis, démontrant à quel point une collaboration étroite favorise les progrès dans le cadre des plans d’action pour l’IA du président Donald Trump et du Premier ministre Keir Starmer. », vante Microsoft dans un communiqué qui donne le ton.

Quid des autres 15 milliards promis ? Sur ce volet, Microsoft se montre plus flou, expliquant que cette autre moitié de son investissement doit soutenir l’ensemble de ses projets et opérations outre-Manche, de la recherche de pointe aux forces commerciales, en passant par le développement de jeux vidéo ou le support client. Quel impact ces investissements programmés auront-ils sur l’effectif de l’éditeur au Royaume-Uni, de l’ordre de 6 000 personnes aujourd’hui, alors que l’éditeur multiplie les tours de vis et se prépare par exemple à se séparer de 10 % de ses équipes en France ?

Un Stargate UK porté par OpenAI

OpenAI se joint au mouvement, avec l’annonce d’un projet Stargate UK qui doit, selon les termes d’un communiqué, permettre au Royaume-Uni de se doter d’une infrastructure IA souveraine, là aussi au service de l’économie nationale. « Stargate UK garantit que les modèles d’IA de pointe d’OpenAI peuvent fonctionner sur la puissance de calcul locale au Royaume-Uni, pour le Royaume-Uni, en particulier pour les cas d’utilisation spécialisés où la juridiction est importante », avance la firme dirigée par Sam Altman.

L’annonce d’OpenAI était attendue : l’entreprise avait en effet déjà signé un accord préalable (memorandum of understanding, ou MoU) avec le gouvernement britannique en juillet dernier, dans le cadre de sa stratégie OpenAI for Countries. Dévoilée en mai dernier, cette dernière ambitionne pour mémoire de négocier de gré à gré la création d’au moins dix grands projets d’infrastructure avec des États dans le monde, avant de continuer à essaimer plus largement. Pour ce faire, OpenAI navigue dans la roue de Donald Trump, comme ici au Royaume-Uni, ou plus tôt dans l’année aux Émirats arabes unis.

À ce stade, OpenAI n’avance aucune enveloppe chiffrée pour ce Stargate UK, mais l’éditeur de ChatGPT évoque le déploiement, en local, de 8 000 GPU d’ici la fin du premier trimestre 2026, avec la possibilité de monter à 31 000 GPU au fil du temps, tous fournis par NVIDIA. Comme Microsoft, OpenAI s’appuiera sur Nscale pour opérer ces infrastructures.

Google et Coreweave également à la manœuvre

Chez Google (dont la filiale DeepMind est née en Angleterre) on promet 5 milliards de livres (6,82 milliards de dollars ou 5,76 milliards d’euros) sur deux ans en direction du Royaume-Uni, mais sans détailler comment cette enveloppe se ventile entre le nouveau datacenter de la firme (déjà construit donc, et inauguré mardi) à Waltham Cross, Hertfordshire, et ses futures activités dans le pays. Google ne tarit en revanche pas de chiffres sur les bénéfices attendus suite à ces investissements : son action aurait ainsi le potentiel de créer plus de 8 000 emplois et d’ajouter 400 milliards de livres au PIB britannique à l’horizon 2030…

Coreweave, concurrent américain de Nscale, avance lui aussi ses pions : mardi, il a indiqué son intention d’augmenter ses investissements sur le sol de la Couronne britannique. Alors qu’il envisageait initialement une enveloppe d’1 milliard de livres (1,15 milliard d’euros ou 1,36 milliard de dollars), annoncée en mai 2024, l’opérateur spécialisé dans le cloud et l’IA monte à 2,5 milliards de dollars, et ne cache pas son ambition de trouver les clients de ses futures infrastructures au sein du secteur public et des institutions de recherche du pays.

NVIDIA et Nscale grands gagnants de l’opération ?

L’opérateur avance avec d’autant plus d’aisance qu’il bénéficie depuis peu d’un accord de distribution privilégié avec NVIDIA : annoncé en début de semaine, il offre à Coreweave des garanties de rachat à hauteur de 6,3 milliards de dollars si ses approvisionnements en GPU NVIDIA ne trouvaient pas de débouchés auprès des clients finaux.

Principal fournisseur de ces différents marchés, NVIDIA ne cache pas son enthousiasme et salue dûment l’action du président Trump : sa visite d’État se traduirait en effet par un déploiement de l’ordre de 120 000 GPU Blackwell Ultra. Les perspectives s’annoncent d’autant plus radieuses que NVIDIA profite de l’occasion pour renforcer ses liens avec Nscale qui devrait, selon les termes du même communiqué, contribuer à distribuer et déployer quelque 300 000 Blackwell Ultra à l’échelle mondiale.

Des investissements en Norvège

Si la « diplomatie de l’IA » semble ici se concentrer sur le Royaume-Uni, son action se poursuit en effet plus discrètement en Norvège, où Microsoft et Nscale, associé au géant local Aker, ont révélé mercredi avoir signé un accord d’investissement conjoint portant sur 6,2 milliards de dollars d’infrastructures basées à Narvik, dans le nord du pays, à proximité d’importants foyers de production d’énergie renouvelable.

Là aussi, les géants américains de la tech avancent leurs pions de concert : cette offensive en direction des fjords norvégiens suit de quelques semaines celle d’OpenAI qui avait déjà proclamé, fin juillet, la création d’un Stargate norvégien incarné par un datacenter à 100 000 GPU fournis par NVIDIA… avec, là aussi, le concours de Nscale et d’Aker.

Ni la Norvège, ni le Royaume-Uni n’ont communiqué publiquement sur les conditions fiscales et les éventuelles subventions ou crédits d’impôts associés à ce déluge programmé d’investissements. Outre-Manche, ces promesses d’investissement sont assorties de quelques contreparties, dont la plus importante, d’un point de vue économique, réside sans doute dans l’abandon de l’idée de droits de douane nuls sur les importations états-uniennes d’acier et de produits sidérurgiques britanniques. Reste à savoir si le versement de cette manne sera aussi conditionné à d’autres engagements, liés par exemple à la taxation des géants du numérique…

  •  

☕️ Charlie Kirk : aux États-Unis, des opérations de désinformation accentuent les divisions

Au milieu du chaos créé aux États-Unis par l’assassinat de l’influenceur Charlie Kirk, des agents étrangers ajoutent de l’huile sur le feu.

Des groupes russes, chinois et pro-iraniens participent activement à amplifier la circulation de désinformation, des théories du complot ou de récits décrivant les États-Unis comme violents, polarisés et dysfonctionnels.

De l'huile russe sur le feu RN selon Flock
Flock

Dans leur arsenal : de faux comptes de réseaux sociaux, des bots numériques, mais aussi des comptes influents comme celui de l’ultranationaliste russe Alexander Dugin, qui décrit la mort de Charlie Kirk comme un potentiel déclencheur de la « guerre civile qui vient ».

Chercheur à l’Institute for Strategic Dialogue, Joseph Bondir explique à AP que ces acteurs malveillants ne créent pas tellement de nouveaux récits, mais « choisissent des acteurs domestiques et les amplifient ».

Selon leur origine géographique, chaque groupe choisit les propos qui l’intéressent. La désinformation chinoise se focalise ainsi sur la nature violente du décès de Kirk, décrivant les États-Unis comme un pays d’extrémistes politiques et de violents détenteurs d’armes.

Les groupes pro-iraniens, eux, utilisent l’événement pour attaquer Israël, affirmant que l’état hébreu a fomenté l’assassinat et piégé le tueur – une thèse qui a trouvé un réel écho dans les groupes de suprémacistes blancs et antisémites des États-Unis.

Si ce type de pratiques n’est pas neuve, elles compliquent d’autant la possibilité de ramener le calme.
Iran, Chine et Russie ont tous nié avoir soumis la population des États-Unis à un feu de désinformation.

  •  

mVPN de Free Mobile : analyse technique et performances du VPN gratuit

NordVPN ne sponsorise PAS cet article
mVPN de Free Mobile : analyse technique et performances du VPN gratuit

Comme on pouvait s’y attendre, le VPN de Free Mobile permet bien de contourner la vérification d’âge imposée en France pour accéder aux sites pornos, mais qu’en est-il du reste, notamment du réseau utilisé, des performances, de la protection renforcée contre les contenus frauduleux et malveillants ?

Quand Free Mobile a annoncé son VPN, l’opérateur donnait quelques détails, mais assez peu d’informations techniques. Dommage, d’autant plus que c’est important dans ce genre de cas. Tout juste savions-nous que les points de sorties se trouvent en Italie ou aux Pays-Bas et qu’il y a une protection contre des sites malveillants.

Beaucoup de questions sans réponse… Du coup, lorsque nous sommes passés devant une boutique Free Mobile en ville, la tentation a été trop forte. Nous avons pris une SIM Free 5G pendant un mois pour réaliser quelques tests sur ce mVPN, avec un m pour mobile.


Il reste 96% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Linux Mint Debian Edition 7 est disponible en bêta

La préversion de LMDE 7 est disponible au téléchargement. Pour rappel, LMDE (Linux Mint Debian Edition) diffère de la distribution Mint habituelle par son socle Debian, là où Mint repose sur Ubuntu LTS.

LMDE a gagné en popularité avec le temps, l’utilisation de Debian étant plus en phase avec la vision du libre d’une partie des utilisateurs. La version 7 était d’autant plus attendue qu’elle prend appui sur Debian 13, sortie le mois dernier. La distribution fait ainsi un grand bond, avec une vaste modernisation des paquets embarqués.

Les nouveautés de LMDE 7 se résument pourtant très vite : une base Debian 13 avec les apports de la récente version 22.2 de Linux Mint. On retrouve ainsi le support des empreintes digitales pour l’authentification via l’application Fingwit, la compatibilité améliorée avec libadwaita, des améliorations visuelles, etc. Visuellement, LMDE 7 est identique à Linux Mint 22.2.

On note quand même un apport spécifique à cette version : le support des installations OEM, que Mint possède depuis un bon moment. La fonction permet la pré-installation simplifiée à grande échelle pour les constructeurs intéressés. Signalons aussi une petite bizarrerie : LMDE 7 récupère le noyau Linux 6.12 de Debian 13, là où Linux Mint 22.2 dispose d’un noyau 6.14.

La bêta de LMDE 7 peut être téléchargée depuis la page de l’annonce, sous forme d’une image ISO. Seule l’architecture x86_64 est prise en charge.

  •  

Plus de 70 % des requêtes ChatGPT (Free, Plus, Pro) n’ont rien à voir avec le travail

ChatGPT lifestyle
Plus de 70 % des requêtes ChatGPT (Free, Plus, Pro) n’ont rien à voir avec le travail

OpenAI a mis en ligne une première étude sur les utilisateurs et utilisatrices de son chatbot. Celle-ci met notamment en avant que les abonnements personnels (Free, Plus et Pro) sont surtout utilisés pour des tâches non professionnelles et notamment pour ce que l’entreprise appelle des « conseils pratiques » incluant la formation et les tutoriels.

OpenAI a sorti cette semaine une étude sur les utilisateurs et utilisatrices de ChatGPT. L’article [PDF] a été mis en ligne sur la plateforme de preprint du Bureau étasunien de la recherche en économie.

Il analyse les usages du chatbot d’OpenAI en se concentrant sur les données des abonnements Free, Plus et Pro entre mai 2024 et juin 2025 (excluant donc les abonnés à Teams, Enterprise, Education). Selon les chercheurs d’OpenAI, la part non liée au travail est passée, pendant cette période, de 53 % à 73 %.

« Alors que la plupart des analyses économiques de l’IA se sont concentrées sur son impact sur la productivité dans le travail rémunéré, l’impact sur les activités en dehors du travail (production domestique) est d’une ampleur similaire, voire supérieure », concluent les chercheurs. Et ils affirment que « la diminution de la part des messages liés au travail est principalement due à une évolution des habitudes d’utilisation au sein de chaque cohorte d’utilisateurs plutôt qu’à un changement dans la composition des nouveaux utilisateurs de ChatGPT ».

Une étude maison qui a ses limites

Une des limites de leur étude semble d’avoir justement exclu les abonnements Teams, Enterprise, Education. Cette exclusion rend difficile l’interprétation des chiffres donnés plus haut. Ainsi, on peut se demander si les utilisateurs ont transféré leurs activités professionnelles vers des comptes liés à des abonnements Business chez OpenAI, par exemple. Ils peuvent avoir aussi basculé cette activité vers des offres des entreprises d’IA concurrentes, hypothèse non évoquée par les chercheurs.

On peut aussi questionner leur affirmation, formulée dans la conclusion, sur les gains en matière de bien-être : « le fait que l’utilisation à des fins non professionnelles augmente plus rapidement suggère que les gains en matière de bien-être liés à l’utilisation de l’IA générative pourraient être considérables ». Si les chercheurs d’OpenAI parlent des gains financiers pour les entreprises d’IA générative, on peut facilement les suivre. Mais on peut se demander, si l’utilisation de ce genre de chatbot apporte un réel gain pour le bien-être des utilisateurs. Ainsi, des chercheurs ont déjà alerté sur les réponses inappropriées des chatbots à propos des informations sur la santé mentale.

Relevons qu’OpenAI a aussi exclu toutes les données concernant des utilisateurs s’étant déclarés par eux-mêmes âgés de moins de 18 ans. Ainsi, aucune information sur les utilisations de ChatGPT par les mineurs ne peut ressortir de cette étude.

Plus généralement, l’analyse de cette étude par des chercheurs indépendants sera difficile, voire impossible : il est peu probable que l’entreprise partage les données brutes concernant ses utilisateurs avec des personnes extérieures.

Les « conseils pratiques », première utilisation du chatbot

Elle nous apporte pourtant quelques informations sur l’usage du chatbot d’OpenAI. Ainsi, au cours de cette année étudiée, le chatbot est (en proportion des usages) moins utilisé pour « écrire » du texte à la place de l’utilisateur. Cette part, comme on peut le voir dans le graphique ci-dessous, passe de 36 % courant juillet 2024 à 24 % en juillet 2025.

La première activité des utilisateurs de ChatGPT devient la demande de conseils pratiques (Practical guidance, en anglais). Stable depuis un an (aux alentours de 29 % pendant l’année écoulée), cette catégorie rassemble tout ce qui est tutoriel, conseils de type « how-to », santé, fitness, beauté, etc.

C’est, de fait, la « recherche d’information » qui devient de plus en plus importante dans les chiffres d’OpenAI. Passant de 18 % à plus de 24 % en un an, cette activité semble celle qui grimpe le plus depuis juillet 2024. À noter qu’OpenAI rassemble dans cette catégorie aussi bien la recherche d’informations spécifiques que des produits disponibles à l’achat ou des informations sur la cuisine et les recettes. Le champ est vaste.

Dans les activités plus annexes, on peut remarquer que la demande d’aide technique baisse progressivement de 12 % à 5 %. Les chercheurs émettent ici l’hypothèse d’une augmentation très rapide de l’utilisation des LLM via les API (en dehors de ChatGPT donc) chez les développeurs.

La création d’images et leur analyse ont connu un pic en avril 2025 quand l’entreprise a fait valoir que son chatbot avait de meilleures capacités, mais l’engouement est vite retombé.

Enfin, les chercheurs d’OpenAI mettent en avant le fait que « seuls 2,4 % de tous les messages ChatGPT traitent des relations et de la réflexion personnelle (1,9 %) ou des jeux et des jeux de rôle (0,4 %) ». Ils semblent ainsi minimiser les problèmes récemment mis en avant dans la presse sur des relations qui pourraient devenir toxiques, allant jusqu’au suicide.

Les utilisateurs de ChatGPT abandonnent petit à petit l’idée de lui faire faire quelque chose

Les chercheurs d’OpenAI ont aussi analysé les utilisations de ChatGPT en les séparant en trois autres catégories : « asking », « doing » et « expressing ».

«Asking » rassemble tous les prompts cherchant des informations sur un sujet, « doing » ceux où l’utilisateur demande à ChatGPT d’effectuer une tâche, et « expressing » rassemble le reste. En juillet 2024, les utilisateurs de ChatGPT demandaient autant au chatbot de faire quelque chose que de leur donner des informations sur un sujet. Un an après, on peut observer que les utilisateurs du Chatbot abandonnent petit à petit l’idée de lui faire faire quelque chose :

Les chercheurs ajoutent, après avoir analysé les noms des utilisateurs dans leurs conversations, que l’écart entre les genres des utilisateurs de ChatGPT s’est résorbé. D’environ 80 % d’utilisateurs masculins peu après sa sortie, le chatbot aurait maintenant une utilisation quasiment paritaire entre hommes et femmes.

  •