Vue normale

Reçu aujourd’hui — 31 octobre 2025Actualités numériques

Souveraineté numérique : la Cour des comptes étrille le manque de cohésion en France

31 octobre 2025 à 17:02
Pas bien glorieux
Souveraineté numérique : la Cour des comptes étrille le manque de cohésion en France

La Cour des comptes vient de publier un rapport sur la souveraineté numérique. Dressant un tableau relativement sombre de la situation française, elle pointe les dangers de la dépendance actuelle et dresse une liste de recommandations.

Alors que l’on assiste à un nombre croissant de projets de migration vers des logiciels libres en Europe et que même la Cour pénale internationale va se débarrasser en grande partie de Microsoft, la Cour des comptes publie un rapport sur la souveraineté numérique. Sa définition en est claire : l’État doit maitriser les technologies qui lui permettent de rester autonome en toute circonstance, ce qui comprend le matériel, le logiciel et les données.

Cette définition implique ainsi de ne pas se faire dicter des choix technologiques structurants par un tiers et que soient protégées les données d’une sensibilité particulière des systèmes d’information de l’État. Dans ce domaine, la Cour note que la France a des « ambitions », mais elles sont jugées « encore insatisfaites », avec un décalage important entre la volonté affichée et la pratique.

Synthèse douloureuse

Le rapport de la Cour des comptes dresse un bilan de nombreux sujets ayant un lien avec la souveraineté. D’abord, celle-ci est directement confrontée à la position des États-Unis et d’autres puissances.

La Cour rappelle ainsi que la portée extraterritoriale de certaines lois étrangères est une grosse épine dans le pied de la souveraineté. Trois textes américains sont mis en avant, sans surprise : la section 702 du Foreign Intelligence Surveillance Act qui autorise la collecte de données sur des personnes ou entités non américaines à l’étranger à des fins de sécurité nationale, l’Executive Order 12333 qui définit les objectifs des agences de renseignement et permet notamment la collecte de masse, et le Cloud Act de 2018 qui autorise la justice à délivrer des mandats pour récupérer des données dans les clouds des entreprises américaines, dans le cadre d’enquêtes.

Selon le rapport, le risque réel est difficile à évaluer. Les procédures américaines, dans le cadre de ces trois textes, sont décrites comme « très opaques » : « Les seuls chiffres disponibles, ceux de la FISC au titre du Fisa, montrent un nombre de rejets très faible des demandes émises par les agences fédérales de renseignement ». Même chose pour le Cloud Act : « Les dernières publications en la matière (2024) de quatre grandes entreprises américaines, en l’occurrence Microsoft, Google, AWS et Salesforce, restent vagues ».

Synthèse problématique également pour les « décisions d’adéquation » européennes, à savoir le Safe Harbour de 2000, le Privacy Shield de 2016 et finalement le Data Privacy Framework de 2023. Les deux premiers sont tombés sous les coups de Maximilien Schrems de l’ONG noyb. Ces accords sont cruciaux : ils établissent une adéquation entre le niveau de protection des données personnelles entre l’Union européenne et les États-Unis. Le Data Privacy Framework est lui aussi la cible d’attaques. En France, le député Philippe Latombe a déjà tenté de le faire tomber, la CJUE ayant rejeté son recours début septembre.

Loi SREN trop timide, isolement de la France sur EUCS

La Cour des comptes continue de renverser les quilles en listant tout ce qui cloche, dont une loi SREN jugée trop « prudente sur les enjeux de souveraineté ». Le décret d’application n’a été envoyé qu’en début d’année à la Commission européenne et limite les cas où le référentiel SecNumCloud serait utilisé aux seules données sensibles, dont la violation serait « susceptible d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé ou à la vie des personnes ou à la protection de la propriété intellectuelle ».

Le rapport illustre dans son point 1.2.2 le lien complexe entre la France et la Commission européenne sur ce sujet. La qualification SecNumCloud serait ainsi souhaitable pour de nombreux services de l’État, mais elle n’est pas reconnue au niveau européen. Elle serait donc « susceptible d’écarter d’appels d’offres publics des entreprises basées dans d’autres États membres ». La position française n’a pas été suivie à ce jour, « comme en témoignent les discussions en cours autour du schéma de certification EUCS ». La Cour des comptes les décrit comme « en cours », mais elles semblent au point mort, la France et l’Allemagne ayant des positions diamétralement opposées.

Pourquoi mettre en avant SecNumCloud ? Car il aurait constitué le socle du niveau High+ dans EUCS. Il aurait été alors possible, pour les entreprises, agences étatiques et autres administrations de lancer des appels d’offres dans ce niveau. Or, SecNumCloud, dans sa version 3.2, impose la sélection de services n’étant soumis à aucun cadre juridique extraterritorial. Ce qui aurait court-circuité automatiquement tous les clouds américains.

Nombreuses limitations dans les actions françaises

Le rapport dresse un constat sombre de l’état de souveraineté en France, très loin d’être atteint. C’est particulièrement vrai sur le matériel, très peu d’industries étant présentes en Europe de manière générale. La production de semi-conducteurs se fait ainsi principalement en Asie et aux États-Unis. Même chose pour les ordinateurs, les équipements réseau, les smartphones et de nombreux composants électroniques.

Mais c’est bien dans le logiciel que les problèmes de souveraineté s’illustrent le plus clairement. La Cour des comptes note que différentes approches se heurtent, sans vraiment de cohérence. Certaines administrations et entités préfèrent ainsi développer en interne les applications dont elles ont besoin, avec des problèmes de respect des budgets alloués et de délais de réalisation. D’autres préfèrent recourir à des logiciels du marché, avec l’avantage des fonctions déjà éprouvées et de la rapidité de déploiement, mais avec un contrôle moindre sur la souveraineté.

Le risque de revirement des politiques techniques et commerciales est prégnant et est illustré, selon le rapport, par le cas Microsoft : quand l’entreprise a annoncé déporter de nombreuses applications vers le cloud, la Dinum a demandé aux ministères de ne pas souscrire à ces offres. Même au sein d’une même entité, le manque de coordination est criant, pointe la Cour. Dans l’Éducation nationale par exemple, les produits Microsoft sont très nombreux, quand des académies préfèrent migrer vers du logiciel libre.

En dépit de certains points positifs mis en avant, notamment le réseau interministériel de l’État (RIE) qui garantit la résilience des communications gouvernementales même en cas de défaillances majeures d’internet, les autres initiatives sont sujettes à critiques. C’est le cas de FranceConnect, pensé pour se prémunir contre les services d’authentification des grandes sociétés américaines. Mais s’il est aujourd’hui largement utilisé, il était assorti de problèmes de sécurité que la Dinum a pris tardivement en compte, selon la Cour, dont la dépendance aux prestataires et les risques liés aux sous-traitants.

La Cour pointe en outre les limites de la doctrine « Cloud au centre », ralentie par certains impératifs du marché unique européen (comme dans le cas de SecNumCloud), ou encore le succès limité des clouds interministériels. Pour ces derniers, elle cite Nubo (ministère des Finances) et Pi (ministère de l’Intérieur), mis à disposition des autres administrations. Cependant, à cause d’un manque de services (disponibilité, expérience utilisateur et même manque d’IA) et d’une tarification jugée « inadaptée », ces deux clouds sont « sous-utilisés ».

Et, bien sûr, le rapport de la Cour des comptes illustre les problématiques par les exemples complexes du Health Data Hub et de Virtuo. Le premier illustre toute la difficulté des questions liées à la souveraineté en ayant choisi Microsoft pour héberger des données de santé, par définition sensibles. Le second est le système d’information des ressources humaines du ministère de l’Éducation nationale, dont l’appel d’offres a finalement été remporté par une société américaine. Dans les deux cas, la qualification SecNumCloud est impossible.

Vision stratégique et recommandations

Dans une conclusion intéressante, le rapport met en garde les administrations contre une recherche trop prononcée de performances. La recherche du « plus haut niveau technologique » peut entrainer aussi bien une mise en cause de la souveraineté des données qu’une dépendance de l’administration à la politique commerciale d’un acteur dominant. En clair, les offres des multinationales américaines à l’heure de l’IA.

Face à la question du coût de la souveraineté, l’investissement de l’État est considéré comme « limité » jusqu’ici, avec un marché de l’hébergement souverain « non stabilisé ». 

La Cour formule donc cinq recommandations : le déploiement d’outils bureautiques souverains, l’élaboration d’une stratégie de souveraineté chiffrée (au sens financier du terme), la convergence des clouds interministériels, une cartographie complète des données sensibles et la souveraineté de l’hébergement des données de santé, en alignant la certification HDS (Hébergeur de données de santé) sur les exigences de la qualification SecNumCloud.

Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

31 octobre 2025 à 16:08
💥 ;)💥 ;)💥
Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

Google et Amazon auraient accepté, dans un contrat très lucratif avec l’État israélien, un mécanisme pour contourner d’éventuels contrôles d’autres juridictions, selon des documents obtenus par le Guardian.

Si Microsoft a largement fourni l’armée israélienne en cloud et IA, c’est bien ses deux concurrents qui ont obtenu en 2021 le contrat du « projet Nimbus » de refonte de l’infrastructure cloud de cette même armée. Projet qui, au sein de Google, a fait des remous récemment puisque l’entreprise a licencié 28 de ses employés en janvier dernier après des manifestations de salariés dans les locaux.

Pas de restriction selon les conditions d’utilisation des entreprises

Mais Google et Amazon ont accepté des clauses très particulières dans le contrat qu’ils ont signé avec l’État israélien. En effet, selon des documents du ministère des Finances israélien, dont la version finale du contrat, obtenus par le Guardian (dans le cadre d’une enquête avec les média + 972 et Local Call), les deux entreprises auraient accepté de ne jamais restreindre ou révoquer aucun accès d’Israël à leurs plateformes de cloud, même si celui-ci enfreignait leurs conditions d’utilisation.

Selon le quotidien britannique, cette clause aurait été ajoutée car les responsables auraient anticipé la pression d’activistes et d’associations de défense des droits humains ainsi que d’éventuelles décisions judiciaires dans divers pays. Selon un des documents d’analyse du contrat du ministère des Finances israélien obtenu par le Guardian, « le gouvernement est autorisé à utiliser tout service autorisé par la loi israélienne » à condition que le pays n’enfreigne pas de copyright ou ne revende pas les technologies en question.

Un clin d’œil en forme de versement spécial

Mais une autre clause est encore plus étonnante. Les responsables israéliens auraient voulu éviter la mainmise de toute autorité judiciaire européenne ou états-unienne sur les différents systèmes mis en place par Google et Amazon.

Même si les nouveaux datacenters utilisés par Google et Amazon pour le « projet Nimbus » sont sur le sol israélien, ils craignaient des évolutions législatives étrangères qui auraient contraint les deux entreprises à donner accès aux données aux autorités judiciaires en question.

Les deux entreprises sont régulièrement soumises à ce genre de demandes et ne peuvent s’y soustraire. Les responsables israéliens auraient donc imaginé un mécanisme, qualifié de « clin d’œil », qui permet à Google et Amazon d’informer très rapidement Israël d’une telle demande.

Selon les documents obtenus par le Guardian, le signal donné par l’entreprise concernée devrait se faire sous la forme d’une « compensation spéciale » au gouvernement israélien dont le montant serait lié à l’indicatif téléphonique du pays demandeur.

Ainsi, si la compensation est de 1 000 shekels, ce sont les autorités états-uniennes (indicatif téléphonique :+ 1) qui font la demande. Si c’est l’Italie (indicatif téléphonique :+ 39), la somme serait de 3 900 shekels. La somme de 100 000 shekels indiquerait, elle, que l’entreprise ne peut communiquer aucune information sur le pays en question.

Amazon, Google et Israël bottent en touche et nient en bloc

Les deux entreprises n’ont pas voulu répondre spécifiquement aux diverses questions de nos confrères. « Nous avons mis en place un processus mondial rigoureux pour répondre aux demandes légales et contraignantes concernant les données des clients », a affirmé Amazon, ajoutant « Nous n’avons mis en place aucun processus visant à contourner nos obligations de confidentialité concernant les demandes légales et contraignantes ». Google a rétorqué qu’il était « faux » de « laisser entendre que nous étions d’une manière ou d’une autre impliqués dans des activités illégales, ce qui est absurde ».

De son côté, le ministère des Finances israélien nie en bloc : « L’insinuation contenue dans cet article selon laquelle Israël contraindrait les entreprises à enfreindre la loi est sans fondement ».

Souveraineté numérique : la Cour des comptes étrille le manque de cohésion en France

31 octobre 2025 à 17:02
Pas bien glorieux
Souveraineté numérique : la Cour des comptes étrille le manque de cohésion en France

La Cour des comptes vient de publier un rapport sur la souveraineté numérique. Dressant un tableau relativement sombre de la situation française, elle pointe les dangers de la dépendance actuelle et dresse une liste de recommandations.

Alors que l’on assiste à un nombre croissant de projets de migration vers des logiciels libres en Europe et que même la Cour pénale internationale va se débarrasser en grande partie de Microsoft, la Cour des comptes publie un rapport sur la souveraineté numérique. Sa définition en est claire : l’État doit maitriser les technologies qui lui permettent de rester autonome en toute circonstance, ce qui comprend le matériel, le logiciel et les données.

Cette définition implique ainsi de ne pas se faire dicter des choix technologiques structurants par un tiers et que soient protégées les données d’une sensibilité particulière des systèmes d’information de l’État. Dans ce domaine, la Cour note que la France a des « ambitions », mais elles sont jugées « encore insatisfaites », avec un décalage important entre la volonté affichée et la pratique.

Synthèse douloureuse

Le rapport de la Cour des comptes dresse un bilan de nombreux sujets ayant un lien avec la souveraineté. D’abord, celle-ci est directement confrontée à la position des États-Unis et d’autres puissances.

La Cour rappelle ainsi que la portée extraterritoriale de certaines lois étrangères est une grosse épine dans le pied de la souveraineté. Trois textes américains sont mis en avant, sans surprise : la section 702 du Foreign Intelligence Surveillance Act qui autorise la collecte de données sur des personnes ou entités non américaines à l’étranger à des fins de sécurité nationale, l’Executive Order 12333 qui définit les objectifs des agences de renseignement et permet notamment la collecte de masse, et le Cloud Act de 2018 qui autorise la justice à délivrer des mandats pour récupérer des données dans les clouds des entreprises américaines, dans le cadre d’enquêtes.

Selon le rapport, le risque réel est difficile à évaluer. Les procédures américaines, dans le cadre de ces trois textes, sont décrites comme « très opaques » : « Les seuls chiffres disponibles, ceux de la FISC au titre du Fisa, montrent un nombre de rejets très faible des demandes émises par les agences fédérales de renseignement ». Même chose pour le Cloud Act : « Les dernières publications en la matière (2024) de quatre grandes entreprises américaines, en l’occurrence Microsoft, Google, AWS et Salesforce, restent vagues ».

Synthèse problématique également pour les « décisions d’adéquation » européennes, à savoir le Safe Harbour de 2000, le Privacy Shield de 2016 et finalement le Data Privacy Framework de 2023. Les deux premiers sont tombés sous les coups de Maximilien Schrems de l’ONG noyb. Ces accords sont cruciaux : ils établissent une adéquation entre le niveau de protection des données personnelles entre l’Union européenne et les États-Unis. Le Data Privacy Framework est lui aussi la cible d’attaques. En France, le député Philippe Latombe a déjà tenté de le faire tomber, la CJUE ayant rejeté son recours début septembre.

Loi SREN trop timide, isolement de la France sur EUCS

La Cour des comptes continue de renverser les quilles en listant tout ce qui cloche, dont une loi SREN jugée trop « prudente sur les enjeux de souveraineté ». Le décret d’application n’a été envoyé qu’en début d’année à la Commission européenne et limite les cas où le référentiel SecNumCloud serait utilisé aux seules données sensibles, dont la violation serait « susceptible d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé ou à la vie des personnes ou à la protection de la propriété intellectuelle ».

Le rapport illustre dans son point 1.2.2 le lien complexe entre la France et la Commission européenne sur ce sujet. La qualification SecNumCloud serait ainsi souhaitable pour de nombreux services de l’État, mais elle n’est pas reconnue au niveau européen. Elle serait donc « susceptible d’écarter d’appels d’offres publics des entreprises basées dans d’autres États membres ». La position française n’a pas été suivie à ce jour, « comme en témoignent les discussions en cours autour du schéma de certification EUCS ». La Cour des comptes les décrit comme « en cours », mais elles semblent au point mort, la France et l’Allemagne ayant des positions diamétralement opposées.

Pourquoi mettre en avant SecNumCloud ? Car il aurait constitué le socle du niveau High+ dans EUCS. Il aurait été alors possible, pour les entreprises, agences étatiques et autres administrations de lancer des appels d’offres dans ce niveau. Or, SecNumCloud, dans sa version 3.2, impose la sélection de services n’étant soumis à aucun cadre juridique extraterritorial. Ce qui aurait court-circuité automatiquement tous les clouds américains.

Nombreuses limitations dans les actions françaises

Le rapport dresse un constat sombre de l’état de souveraineté en France, très loin d’être atteint. C’est particulièrement vrai sur le matériel, très peu d’industries étant présentes en Europe de manière générale. La production de semi-conducteurs se fait ainsi principalement en Asie et aux États-Unis. Même chose pour les ordinateurs, les équipements réseau, les smartphones et de nombreux composants électroniques.

Mais c’est bien dans le logiciel que les problèmes de souveraineté s’illustrent le plus clairement. La Cour des comptes note que différentes approches se heurtent, sans vraiment de cohérence. Certaines administrations et entités préfèrent ainsi développer en interne les applications dont elles ont besoin, avec des problèmes de respect des budgets alloués et de délais de réalisation. D’autres préfèrent recourir à des logiciels du marché, avec l’avantage des fonctions déjà éprouvées et de la rapidité de déploiement, mais avec un contrôle moindre sur la souveraineté.

Le risque de revirement des politiques techniques et commerciales est prégnant et est illustré, selon le rapport, par le cas Microsoft : quand l’entreprise a annoncé déporter de nombreuses applications vers le cloud, la Dinum a demandé aux ministères de ne pas souscrire à ces offres. Même au sein d’une même entité, le manque de coordination est criant, pointe la Cour. Dans l’Éducation nationale par exemple, les produits Microsoft sont très nombreux, quand des académies préfèrent migrer vers du logiciel libre.

En dépit de certains points positifs mis en avant, notamment le réseau interministériel de l’État (RIE) qui garantit la résilience des communications gouvernementales même en cas de défaillances majeures d’internet, les autres initiatives sont sujettes à critiques. C’est le cas de FranceConnect, pensé pour se prémunir contre les services d’authentification des grandes sociétés américaines. Mais s’il est aujourd’hui largement utilisé, il était assorti de problèmes de sécurité que la Dinum a pris tardivement en compte, selon la Cour, dont la dépendance aux prestataires et les risques liés aux sous-traitants.

La Cour pointe en outre les limites de la doctrine « Cloud au centre », ralentie par certains impératifs du marché unique européen (comme dans le cas de SecNumCloud), ou encore le succès limité des clouds interministériels. Pour ces derniers, elle cite Nubo (ministère des Finances) et Pi (ministère de l’Intérieur), mis à disposition des autres administrations. Cependant, à cause d’un manque de services (disponibilité, expérience utilisateur et même manque d’IA) et d’une tarification jugée « inadaptée », ces deux clouds sont « sous-utilisés ».

Et, bien sûr, le rapport de la Cour des comptes illustre les problématiques par les exemples complexes du Health Data Hub et de Virtuo. Le premier illustre toute la difficulté des questions liées à la souveraineté en ayant choisi Microsoft pour héberger des données de santé, par définition sensibles. Le second est le système d’information des ressources humaines du ministère de l’Éducation nationale, dont l’appel d’offres a finalement été remporté par une société américaine. Dans les deux cas, la qualification SecNumCloud est impossible.

Vision stratégique et recommandations

Dans une conclusion intéressante, le rapport met en garde les administrations contre une recherche trop prononcée de performances. La recherche du « plus haut niveau technologique » peut entrainer aussi bien une mise en cause de la souveraineté des données qu’une dépendance de l’administration à la politique commerciale d’un acteur dominant. En clair, les offres des multinationales américaines à l’heure de l’IA.

Face à la question du coût de la souveraineté, l’investissement de l’État est considéré comme « limité » jusqu’ici, avec un marché de l’hébergement souverain « non stabilisé ». 

La Cour formule donc cinq recommandations : le déploiement d’outils bureautiques souverains, l’élaboration d’une stratégie de souveraineté chiffrée (au sens financier du terme), la convergence des clouds interministériels, une cartographie complète des données sensibles et la souveraineté de l’hébergement des données de santé, en alignant la certification HDS (Hébergeur de données de santé) sur les exigences de la qualification SecNumCloud.

Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

31 octobre 2025 à 16:08
💥 ;)💥 ;)💥
Google, Amazon, Israël et une clause spéciale pour passer outre le contrôle d’autres États

Google et Amazon auraient accepté, dans un contrat très lucratif avec l’État israélien, un mécanisme pour contourner d’éventuels contrôles d’autres juridictions, selon des documents obtenus par le Guardian.

Si Microsoft a largement fourni l’armée israélienne en cloud et IA, c’est bien ses deux concurrents qui ont obtenu en 2021 le contrat du « projet Nimbus » de refonte de l’infrastructure cloud de cette même armée. Projet qui, au sein de Google, a fait des remous récemment puisque l’entreprise a licencié 28 de ses employés en janvier dernier après des manifestations de salariés dans les locaux.

Pas de restriction selon les conditions d’utilisation des entreprises

Mais Google et Amazon ont accepté des clauses très particulières dans le contrat qu’ils ont signé avec l’État israélien. En effet, selon des documents du ministère des Finances israélien, dont la version finale du contrat, obtenus par le Guardian (dans le cadre d’une enquête avec les média + 972 et Local Call), les deux entreprises auraient accepté de ne jamais restreindre ou révoquer aucun accès d’Israël à leurs plateformes de cloud, même si celui-ci enfreignait leurs conditions d’utilisation.

Selon le quotidien britannique, cette clause aurait été ajoutée car les responsables auraient anticipé la pression d’activistes et d’associations de défense des droits humains ainsi que d’éventuelles décisions judiciaires dans divers pays. Selon un des documents d’analyse du contrat du ministère des Finances israélien obtenu par le Guardian, « le gouvernement est autorisé à utiliser tout service autorisé par la loi israélienne » à condition que le pays n’enfreigne pas de copyright ou ne revende pas les technologies en question.

Un clin d’œil en forme de versement spécial

Mais une autre clause est encore plus étonnante. Les responsables israéliens auraient voulu éviter la mainmise de toute autorité judiciaire européenne ou états-unienne sur les différents systèmes mis en place par Google et Amazon.

Même si les nouveaux datacenters utilisés par Google et Amazon pour le « projet Nimbus » sont sur le sol israélien, ils craignaient des évolutions législatives étrangères qui auraient contraint les deux entreprises à donner accès aux données aux autorités judiciaires en question.

Les deux entreprises sont régulièrement soumises à ce genre de demandes et ne peuvent s’y soustraire. Les responsables israéliens auraient donc imaginé un mécanisme, qualifié de « clin d’œil », qui permet à Google et Amazon d’informer très rapidement Israël d’une telle demande.

Selon les documents obtenus par le Guardian, le signal donné par l’entreprise concernée devrait se faire sous la forme d’une « compensation spéciale » au gouvernement israélien dont le montant serait lié à l’indicatif téléphonique du pays demandeur.

Ainsi, si la compensation est de 1 000 shekels, ce sont les autorités états-uniennes (indicatif téléphonique :+ 1) qui font la demande. Si c’est l’Italie (indicatif téléphonique :+ 39), la somme serait de 3 900 shekels. La somme de 100 000 shekels indiquerait, elle, que l’entreprise ne peut communiquer aucune information sur le pays en question.

Amazon, Google et Israël bottent en touche et nient en bloc

Les deux entreprises n’ont pas voulu répondre spécifiquement aux diverses questions de nos confrères. « Nous avons mis en place un processus mondial rigoureux pour répondre aux demandes légales et contraignantes concernant les données des clients », a affirmé Amazon, ajoutant « Nous n’avons mis en place aucun processus visant à contourner nos obligations de confidentialité concernant les demandes légales et contraignantes ». Google a rétorqué qu’il était « faux » de « laisser entendre que nous étions d’une manière ou d’une autre impliqués dans des activités illégales, ce qui est absurde ».

De son côté, le ministère des Finances israélien nie en bloc : « L’insinuation contenue dans cet article selon laquelle Israël contraindrait les entreprises à enfreindre la loi est sans fondement ».

Google Working on Bare-Bones Maps That Removes Almost All Interface Elements and Labels

Par :msmash
31 octobre 2025 à 16:41
Google Maps is testing a power saving mode in its latest Android beta release that strips the navigation interface to its bare essentials. The feature transforms the screen into a monochrome display and removes nearly all UI elements during navigation, according to AndroidAuthority. Users discovered code strings in version 25.44.03.824313610 indicating the mode activates through the phone's physical power button rather than through any in-app menu. The stripped-down interface eliminates standard map labels and appears to omit even the name of the upcoming street where drivers need to turn. The mode supports walking, driving, and two-wheeler directions but currently cannot be used in landscape orientation.

Read more of this story at Slashdot.

NVIDIA vaut maintenant 5 billions de dollars, et Jensen Huang 190 milliards de dollars !

Le 9 juillet 2025, NVIDIA était la première entreprise de l'histoire à valoir plus de 4 billions de dollars. Cela semble "hier", et pourtant il est déjà temps d'annoncer le palier suivant franchi. Mercredi, le 29 octobre 2025 donc, NVIDIA était la première société à valoir 5 billions de dollars. Cel...

You Can't Refuse To Be Scanned by ICE's Facial Recognition App, DHS Document Says

Par :msmash
31 octobre 2025 à 16:02
An anonymous reader shares a report: Immigration and Customs Enforcement (ICE) does not let people decline to be scanned by its new facial recognition app, which the agency uses to verify a person's identity and their immigration status, according to an internal Department of Homeland Security (DHS) document obtained by 404 Media. The document also says any face photos taken by the app, called Mobile Fortify, will be stored for 15 years, including those of U.S. citizens. The document provides new details about the technology behind Mobile Fortify, how the data it collects is processed and stored, and DHS's rationale for using it. On Wednesday 404 Media reported that both ICE and Customs and Border Protection (CBP) are scanning peoples' faces in the streets to verify citizenship. "ICE does not provide the opportunity for individuals to decline or consent to the collection and use of biometric data/photograph collection," the document, called a Privacy Threshold Analysis (PTA), says. A PTA is a document that DHS creates in the process of deploying new technology or updating existing capabilities. It is supposed to be used by DHS's internal privacy offices to determine and describe the privacy risks of a certain piece of tech. "CBP and ICE Privacy are jointly submitting this new mobile app PTA for the ICE Mobile Fortify Mobile App (Mobile Fortify app), a mobile application developed by CBP and made accessible to ICE agents and officers operating in the field," the document, dated February, reads. 404 Media obtained the document (which you can see here) via a Freedom of Information Act (FOIA) request with CBP.

Read more of this story at Slashdot.

Affinity's Image-Editing Apps Go 'Freemium' in First Major Post-Canva Update

Par :msmash
31 octobre 2025 à 15:22
ArsTechnica: When graphic design platform-provider Canva bought the Affinity image-editing and publishing apps early last year, we had some major questions about how the companies' priorities and products would mesh. How would Canva serve the users who preferred Affinity's perpetually licensed apps to Adobe's subscription-only software suite? And how would Affinity's strong stance against generative AI be reconciled with Canva's embrace of those technologies. This week, Canva gave us definitive answers to all of those questions: a brand-new unified Affinity app that melds the Photo, Designer, and Publisher apps into a single piece of software called "Affinity by Canva" that is free to use with a Canva user account, but which gates generative AI features behind Canva's existing paid subscription plans ($120 a year for individuals). This does seem like mostly good news, in the near to mid term, for existing Affinity app users who admired Affinity's anti-AI stance: All three apps' core features are free to use, and the stuff you're being asked to pay for is stuff you mostly don't want anyway. But it may come as unwelcome news for those who like the predictability of pay-once-own-forever software or are nervous about where Canva might draw the line between "free" and "premium" features down the line. [...] There's now a dedicated page for the older versions of the Affinity apps, and an FAQ at the bottom of that page answers several questions about the fate of those apps. Affinity and Canva say they will continue to keep the activation servers and downloads for all Affinity v1 and v2 apps online for the foreseeable future, giving people who already own the existing apps a way to keep using the versions they're comfortable with. Users can opt to link their Serif Affinity store accounts to their new Canva accounts to access the old downloads without juggling multiple accounts. But those older versions of the apps "won't receive future updates" and won't be able to open files created in the new Canva-branded Affinity app.

Read more of this story at Slashdot.

GTBox T1, le mini-PC caché dans une enceinte

Vous faites peut-être vos ultimes préparatifs avant de partir en soirée drapé d’un linceul d’apparat ou emmailloté dans votre costume de citrouille. Mais plus que votre harnachement, cette vraie-fausse enceinte pourrait garantir votre plus bel effet... [Tout lire]

Sapphire Edge AI : des MiniPC Strix Point très compacts

31 octobre 2025 à 15:48

Trois modèles de MiniPC Sapphire Edge AI sont annoncés par la marque. Identiques à tous les niveaux, les trois minimachines ont droit à la même emphase sur leurs capacités IA même si toutes ne sont pas équipées de la même manière.

Sapphire Edge AI

Sapphire Edge AI

Le modèle de Sapphire Edge AI le plus haut de gamme propose un Ryzen AI 9 HX 370. Une puce 12 cœurs composée de 4 cœurs en Zen 5 et 8 cœurs Zen 5C pour un total de 24 Threads. Modèle le plus puissant de la gamme, il propose un circuit graphique AMD Radeon 890M avec 16 Compute Unit cadencées à 2.9 GHz sur une architecture RDNA 3.5. Si Sapphire insiste sur le côté IA c’est que cette gamme de processeurs Strix Point propose un NPU 50 TOPS.

Le second modèle embarquera un Ryzen AI 7 350 et le troisième un Ryzen AI 5 340, des puces moins musclées, mais également moins chères et tout aussi « IA ». C’est là toute la magie de ce marketing. On met l’accent sur le NPU pour mettre en avant des usages d’Intelligence Artificielle aux usages locaux encore très flous. Et on vend finalement des machines dans une gamme de compétences, ma foi, très différentes. 

Les trois MiniPC proposeront deux emplacements de mémoire vive en DDR5 non détaillée pour un maximum de 96 Go. Le stockage sera confié à deux slots M.2. Le premier en NVMe PCIE Gen 4 x4 2280, le second à un 2242 de même qualité. Un port M.2 2230 PCIe permettra d’accueillir une carte Wi-Fi6E et Bluetooth 5.2. L’accès aux composants se fera par la coque supérieure qui sera simplement magnétisée à la surface du boitier.

Pas la solution la plus appréciée en général par les entreprises mais qui plait en général aux clients particuliers. Avec des modèles qui seront proposés en format barebone et qu’il faudra équiper en mémoire et en stockage, on comprend l’intérêt du dispositif.

Le boitier est compact avec 11.7 cm de large, 11.1 cm de profondeur et 3 cm d’épaisseur. Compatible VESA, il pourra disparaitre derrière un écran.

La connectique de façade liste un jack audio combo 3.5 mm, un bouton de démarrage illuminé d’une LED et deux USB 3.2 Gen 2 Type-A.

À l’arrière, on retrouvera une paire de sorties vidéos HDMI 2.1, deux ports USB4 avec PowerDelivery 3.0, un USB 3.2 Gen 2 Type-A supplémentaire, un USB 2.0 Type-A et un Ethernet 2.5 Gigabit. Sapphire ne précise pas les composants employés pour ses ports réseau et sans fil, mais assure une compatibilité Linux à ses minimachines. À noter, enfin, que le côté gauche de la machine proposera un port Antivol type Kensington Lock.

Pas d’informations de prix ou de disponibilité pour le moment. La page de la gamme de MiniPC est par ici.

Je me demande tout de même qui est vraiment séduit par la perspective des capacités d’IA intégrées dans ce type de machine chez les particuliers. Si le logo « Copilot+ » provoque un réel émoi chez les acheteurs ? Si le fait de coller un « AI » dans le nom d’un produit à un réel impact sur les ventes. Autour de moi, j’ai l’impression que c’est plutôt l’inverse, mais c’est probablement un biais personnel. Il faudrait que je me renseigne auprès de vendeurs pour connaitre l’impact réel de tout ce vacarme à ce sujet.

Sapphire Edge AI : des MiniPC Strix Point très compacts © MiniMachines.net. 2025

☕️ L’association MO5.com prévoit d’ouvrir un musée du jeu vidéo à Arcueil en décembre

31 octobre 2025 à 15:02

Présente à la Paris Games Week, l’association MO5.com a profité, jeudi, de ce grand rassemblement dédié au jeu vidéo pour annoncer l’ouverture prochaine de son « Musée National du Jeu Vidéo », qui couvrira des années 50 à l’époque moderne.

C’est à Arcueil, à proximité immédiate du périphérique parisien et de l’A6 que prendra place cet espace d’exposition permanent estimé à 1200 m² dans un premier temps, « pouvant accueillir jusqu’à 200 personnes simultanément et incluant micros-ordinateurs, consoles, bornes d’arcade jouables en libre accès ».

Attendu de longue date par MO5.com, ce futur musée mettra le rétrogaming à l’honneur – crédit MO5.com

« Le musée sera doté d’un espace restauration, d’un atelier de 200 m² dédié à la préservation et à la recherche, mais aussi d’un atelier d’entretien et de diagnostic permettant au public de faire réparer ses machines (selon une liste prédéfinie) », promet encore l’association dédiée à la conservation du patrimoine vidéoludique.

L’ouverture est programmée à une date comprise entre le 5 et le 15 décembre, avec un musée accessible au public de 14 h à 18 h les mercredis, samedis et dimanches (les autres jours étant réservés aux groupes). Le ticket d’entrée devrait être facturé moins de 10 euros, et l’accès sera gratuit pour les adhérents de l’association, dont les collections étaient déjà stockées dans un local situé à Arcueil.

« À terme, l’association vise le label « Musée de France » qui garantit la protection de la collection et permet des prêts de pièces avec d’autres musées », espère MO5.com, qui promet l’arrivée imminente d’un site web dédié à son musée, et remercie les nombreux partenaires, locaux ou du secteur, qui ont soutenu sa démarche.

Jusqu’ici, l’association exposait principalement ses collections au travers d’expositions temporaires, comme Game Story, organisée entre octobre 2024 et avril 2025 à Versailles. MO5.com milite de longue date pour disposer d’un espace permanent.

Outre ce « Musée National du Jeu Vidéo », la région parisienne devrait par ailleurs s’enorgueillir d’un autre projet, baptisé Odyssée et porté par Tev, un youtubeur spécialisé dans la culture japonaise. Attendu pour 2028, il prévoit qu’un musée du jeu vidéo et un village japonais d’une surface de 11 000 m² soient intégrés à un pôle d’activités dédié au jeu et à la culture pop, à Bussy-Saint-Georges.

☕️ Création, retouches : la suite Affinity est désormais gratuite, sauf pour l’IA

31 octobre 2025 à 14:53

La suite Affinity s’est fait un nom au cours des dernières années comme une alternative crédible aux outils d’Adobe. Le positionnement tarifaire était également très différent, avec des applications coutant chacune 60 euros environ, en achat définitif. Son éditeur, Canva, vient de lancer une nouvelle version, avec plusieurs changements majeurs à bord.

D’abord, la suite est désormais gratuite, mais réclame un compte Canva pour être téléchargée. Les fonctions dopées à l’IA comme la génération d’images, le nettoyage de photos ou encore la copie instantanée sont en revanche payantes, réservées aux personnes disposant d’un compte Canva premium, via Canva AI Studio (à partir de 110 euros par an). La formule comprend également 100 Go de stockage dans le cloud de l’entreprise.

Ensuite, les trois applications ont été fusionnées en une seule, appelée Affinity Professional et disponible pour Windows, macOS et prochainement sur iPad. La même application sert donc à la fois pour la retouche photo, l’illustration vectorielle et la mise en page. Le tout fonctionne sur un nouveau type de fichier décrit comme « universel » pour gérer l’ensemble des fonctions des trois applications réunies. Les anciennes, bien que retirées du site de Canva, continueront de fonctionner jusqu’à ce que l’éditeur en décide autrement.

« Que vous éditiez un portrait, construisiez une identité de marque ou conceviez une publication, le tout nouvel Affinity vous permet de garder le rythme, en combinant puissance, précision et vitesse dans un seul environnement de qualité studio », vante Canva dans son annonce. L’entreprise met également en avant la personnalisation de l’interface, les performances et la familiarité des contrôles pour les personnes qui se servaient des anciennes applications.

« Affinity est maintenant entièrement gratuit, pour toujours. L’expérience Affinity complète, de qualité professionnelle, accessible à tous », promet l’éditeur, qui assure aussi que les documents créés par la suite ne seront pas utilisés pour entrainer l’IA.

☕️ L’association MO5.com prévoit d’ouvrir un musée du jeu vidéo à Arcueil en décembre

31 octobre 2025 à 15:02

Présente à la Paris Games Week, l’association MO5.com a profité, jeudi, de ce grand rassemblement dédié au jeu vidéo pour annoncer l’ouverture prochaine de son « Musée National du Jeu Vidéo », qui couvrira des années 50 à l’époque moderne.

C’est à Arcueil, à proximité immédiate du périphérique parisien et de l’A6 que prendra place cet espace d’exposition permanent estimé à 1200 m² dans un premier temps, « pouvant accueillir jusqu’à 200 personnes simultanément et incluant micros-ordinateurs, consoles, bornes d’arcade jouables en libre accès ».

Attendu de longue date par MO5.com, ce futur musée mettra le rétrogaming à l’honneur – crédit MO5.com

« Le musée sera doté d’un espace restauration, d’un atelier de 200 m² dédié à la préservation et à la recherche, mais aussi d’un atelier d’entretien et de diagnostic permettant au public de faire réparer ses machines (selon une liste prédéfinie) », promet encore l’association dédiée à la conservation du patrimoine vidéoludique.

L’ouverture est programmée à une date comprise entre le 5 et le 15 décembre, avec un musée accessible au public de 14 h à 18 h les mercredis, samedis et dimanches (les autres jours étant réservés aux groupes). Le ticket d’entrée devrait être facturé moins de 10 euros, et l’accès sera gratuit pour les adhérents de l’association, dont les collections étaient déjà stockées dans un local situé à Arcueil.

« À terme, l’association vise le label « Musée de France » qui garantit la protection de la collection et permet des prêts de pièces avec d’autres musées », espère MO5.com, qui promet l’arrivée imminente d’un site web dédié à son musée, et remercie les nombreux partenaires, locaux ou du secteur, qui ont soutenu sa démarche.

Jusqu’ici, l’association exposait principalement ses collections au travers d’expositions temporaires, comme Game Story, organisée entre octobre 2024 et avril 2025 à Versailles. MO5.com milite de longue date pour disposer d’un espace permanent.

Outre ce « Musée National du Jeu Vidéo », la région parisienne devrait par ailleurs s’enorgueillir d’un autre projet, baptisé Odyssée et porté par Tev, un youtubeur spécialisé dans la culture japonaise. Attendu pour 2028, il prévoit qu’un musée du jeu vidéo et un village japonais d’une surface de 11 000 m² soient intégrés à un pôle d’activités dédié au jeu et à la culture pop, à Bussy-Saint-Georges.

☕️ Création, retouches : la suite Affinity est désormais gratuite, sauf pour l’IA

31 octobre 2025 à 14:53

La suite Affinity s’est fait un nom au cours des dernières années comme une alternative crédible aux outils d’Adobe. Le positionnement tarifaire était également très différent, avec des applications coutant chacune 60 euros environ, en achat définitif. Son éditeur, Canva, vient de lancer une nouvelle version, avec plusieurs changements majeurs à bord.

D’abord, la suite est désormais gratuite, mais réclame un compte Canva pour être téléchargée. Les fonctions dopées à l’IA comme la génération d’images, le nettoyage de photos ou encore la copie instantanée sont en revanche payantes, réservées aux personnes disposant d’un compte Canva premium, via Canva AI Studio (à partir de 110 euros par an). La formule comprend également 100 Go de stockage dans le cloud de l’entreprise.

Ensuite, les trois applications ont été fusionnées en une seule, appelée Affinity Professional et disponible pour Windows, macOS et prochainement sur iPad. La même application sert donc à la fois pour la retouche photo, l’illustration vectorielle et la mise en page. Le tout fonctionne sur un nouveau type de fichier décrit comme « universel » pour gérer l’ensemble des fonctions des trois applications réunies. Les anciennes, bien que retirées du site de Canva, continueront de fonctionner jusqu’à ce que l’éditeur en décide autrement.

« Que vous éditiez un portrait, construisiez une identité de marque ou conceviez une publication, le tout nouvel Affinity vous permet de garder le rythme, en combinant puissance, précision et vitesse dans un seul environnement de qualité studio », vante Canva dans son annonce. L’entreprise met également en avant la personnalisation de l’interface, les performances et la familiarité des contrôles pour les personnes qui se servaient des anciennes applications.

« Affinity est maintenant entièrement gratuit, pour toujours. L’expérience Affinity complète, de qualité professionnelle, accessible à tous », promet l’éditeur, qui assure aussi que les documents créés par la suite ne seront pas utilisés pour entrainer l’IA.

Amazon CEO Says Massive Corporate Layoffs Were About Agility - Not AI or Cost-Cutting

Par :msmash
31 octobre 2025 à 14:40
Amazon CEO Andy Jassy says the company's latest big round of layoffs -- about 14,000 corporate jobs -- wasn't triggered by financial strain or AI replacing workers, but rather a push to stay nimble. From a report: Speaking with analysts on Amazon's quarterly earnings call Thursday, Jassy said the decision stemmed from a belief that the company had grown too big and too layered. "The announcement that we made a few days ago was not really financially driven, and it's not even really AI-driven -- not right now, at least," he said. "Really, it's culture." Jassy's comments are his first public explanation of the layoffs, which reportedly could ultimately total as many as 30,000 people -- and would be the largest workforce reduction in Amazon's history. The news this week prompted speculation that the cuts were tied to automation or AI-related restructuring. Earlier this year, Jassy wrote in a memo to employees that he expected Amazon's total corporate workforce to shrink over time due to efficiency gains from AI. But his comments Thursday framed the layoffs as a cultural reset aimed at keeping the company fast-moving amid what he called "the technology transformation happening right now."

Read more of this story at Slashdot.

#Nextquick : le coût en eau d’une requête ChatGPT

31 octobre 2025 à 14:00
Message in a bottle, yeah !
#Nextquick : le coût en eau d’une requête ChatGPT

Régulièrement sur les réseaux sociaux, la même rengaine revient : le coût en eau d’une requête sur ChatGPT. Après les GW comme unité de calcul de puissance des GPU, le litre pour le coût environnemental des IA génératives ?

50 cl d’eau par requête ChatGPT ? Chiche !

Selon certains, une requête « consommerait 50 cl d’eau ». Partons de ce postulat. Selon Sam Altman, ChatGPT aurait plus de 800 millions d’utilisateurs actifs par semaine pour 2,5 milliards de requêtes par jour. Cela donnerait donc 1,25 milliard de litres (1 250 000 m³) d’eau par jour, ou encore 450 millions de m³ d’eau sur l’année.

À titre de comparaison, Microsoft annonce des prélèvements de 10,4 millions de m³ d’eau en 2024 au niveau mondial (5,8 millions en Amérique du Nord). Selon l’USGS (United States Geological Survey), la consommation des États-Unis en 2015 était de 322 milliards de gallons (1,2 milliard de m³ d’eau) par jour, soit 450 milliards de m³ par an.

On résume : sur la base des hypothèses, ChatGPT consommerait 45 fois plus d’eau que Microsoft au niveau mondial ou 0,1 % de la consommation totale des États-Unis (en 2015).

Avec 50 cl d’eau par requête, il ne faudrait que 60 millions de requêtes ChatGPT par jour pour arriver à la consommation totale d’eau de Microsoft.

Comment calculer combien d’eau consomme une requête ?

Deuxième approche, comment passe-t-on d’un prompt à un volume d’eau et peut-on retomber sur 50 cl par requête ? Déjà existe-t-il un lien de causalité entre une requête et une consommation d’eau. Oui : l’eau est utilisée pour refroidir les serveurs informatiques. Pour estimer la consommation, deux approches.

La première à partir de la consommation exacte d’une requête. Avec une règle de trois, en connaissant la consommation totale en électricité et en eau sur une période, on pourrait en déduire le volume d’eau moyen pour une requête. Mais on ne connait pas le coût énergétique d’une requête.

La deuxième avec le nombre total de requêtes sur une période (en partant du principe que le serveur ne fait rien d’autre). Si on connait la quantité d’eau utilisée, on peut obtenir la consommation moyenne d’une requête.

Attention, dans les deux cas on parle de moyenne sur l’ensemble des requêtes. Certaines sont plus longues que d’autres et consomment donc davantage.

Les datacenters ne sont pas égaux

Autre point important : la localisation des serveurs. Imaginons que la requête se fasse sur Azure de Microsoft (partenaire d’OpenAI), la consommation d’eau par kWh (on parle de WUE) varie entre 0,02 L/kWh (Irlande) et 1,52 L/kWh (Arizona) selon les données de Microsoft, soit jusqu’à 80x plus. Sur les datacenters Azure aux États-Unis, le WUE va de 0,1 à 1,52, soit un rapport de x15. Une même requête consommerait donc 80 fois plus d’eau en Arizona qu’à Singapour ou en Irlande.

Sans connaitre le datacenter (et on ne le connait pas quand on fait une requête), sa consommation électrique ni son WUE, impossible d’en déduire une estimation (même vague) de la consommation d’une requête à ChatGPT.

« 500 ml pour environ 10 à 50 réponses de longueur moyenne »

D’où viennent alors les 500 ml (50 cl) qu’on voit revenir plus ou moins régulièrement ? D’une étude américaine publiée dans la revue Communications of ACM :

« En prenant comme exemple le modèle GPT-3 avec ses 175 milliards de paramètres, nous montrons que l’entraînement de GPT-3 dans les centres de données américains de Microsoft peut consommer un total de 5,4 millions de litres d’eau, dont 700 000 litres de consommation d’eau sur site (scope 1). De plus, GPT-3 a besoin de « boire » (c’est-à-dire de consommer) une bouteille d’eau de 500 ml pour environ 10 à 50 réponses de longueur moyenne, selon le moment et le lieu de son déploiement ».

500 ml pour 10 à 50 réponses, soit 10 à 50 ml pour une requête GPT-3. OpenAI est depuis passé à GPT-5, mais nous n’avons pas de détails sur son coût environnemental. On se doute qu’il est bien plus important, mais dans quelles proportions ?

Les 10 à 50 ml sont-ils liés au datacenter avec le plus petit WUE, celui avec le plus gros ou à une moyenne ? Selon les hypothèses, la consommation pourrait donc varier de 0,7 à 750 ml… À ce niveau-là, difficile de dire qu’on tient une piste.

« Consommer » de l’eau ?

Et puis, qu’appelle-t-on consommation d’eau ? Microsoft fait bien la différence entre prélèvement, consommation et rejet. La consommation est égale aux prélèvements moins les rejets. Les 10 millions de m³ sont des prélèvements, pour une consommation de 5,8 millions de m³, le reste de l’eau étant rejeté. Rappelons que sur Terre l’eau ne disparait pas, elle suit un cycle.

Dernier point : on n’a même pas parlé du coût de l’entrainement du modèle (des batteries de GPU pendant des mois), de la production de l’électricité, du réseau… Mais ce serait autant d’éléments à intégrer.

Ubuntu 25.10 amd64v3 Benchmarks: Some Minor & Rare Performance Advantages For Desktop Workloads

31 octobre 2025 à 13:36
Yesterday Canonical announced architecture variants for Ubuntu Linux with Ubuntu 25.10 seeing the introduction of "amd64v3" packages that are built for the x86_64-v3 micro-architecture feature level to assume AVX/AVX2 and other newer CPU ISA features found since Intel Haswell and AMD Excavator processors. Eager to run some initial tests, here is a first look at the Ubuntu 25.10 amd64v3 performance for desktop workloads.

Carte mère ASRock B850M Steel Legend, enfin du pas cher !

31 octobre 2025 à 12:20

Petite carte mère pour terminer la journée avec ASRock et la B850M Steel Legend. Petite, mais complète et bien agencée avec une connectique riche, de quoi mettre un gros processeur pour faire de l'overclocking, et le tout avec un design séduisant. A 180 U+20AC, un bon plan ? Voyons ça ici : ASRock B850M Steel Legend ou sur la source. […]

Lire la suite

Adobe Struggles To Assure Investors That It Can Thrive in AI Era

Par :msmash
31 octobre 2025 à 14:00
An anonymous reader shares a report: Adobe brought together 10,000 marketers, filmmakers and content creators to its annual conference this week to persuade them that the company's software products are adapting to AI and remain the best tools for their work. But it's Adobe's investors, rather than its users, who are the most skeptical that generative AI technology won't disrupt the company's business as the top seller of software for creative professionals. Despite a strong strategy, Adobe is "at risk of structural AI-driven competitive and pricing pressure," wrote Tyler Radke, an analyst at Citigroup. The company's shares have lost about a quarter of their value this year as AI tools like Google's video-generating model Veo have gained steam. In an interview with Bloomberg Television earlier this week, Adobe Chief Executive Officer Shantanu Narayen said the company is undervalued as the market is focused on semiconductors and the training of AI models.

Read more of this story at Slashdot.

❌