Vue lecture

Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé

Régimen de Incentivo para Grandes Inversiones
Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé

OpenAI et Sur Energy ont signé une lettre d’intention pour un nouveau projet de centre de données à 25 milliards de dollars.

« Aujourd’hui, nous sommes heureux d’annoncer le lancement de Stargate Argentina », déclare Sam Altman dans une vidéo visiblement lue depuis son écran. À moins, suggère la chercheuse Milagros Miceli, qu’il ne s’agisse d’un deepfake.

Derrière le nom de Stargate Argentina se cache pour le moment un projet de centre de données à 25 milliards de dollars, qui devrait être construit en Patagonie. Évoquant une « opportunité historique » de faire de l’Argentine un « acteur clé dans le nouveau paysage numérique et énergétique mondial », le gouvernement argentin précisait le 10 octobre qu’une lettre d’intention avait été signée entre OpenAI et l’entreprise argentino-états-unienne Sur Energy, pour alimenter le futur bâtiment.

Celui-ci pourrait atteindre une capacité de 500 mégawatts, indiquent les diverses annonces officielles, quand bien même ce type d’élément relève plus du marketing que de la réelle indication.

Stargate 2, le retour…

Inspiré du film éponyme, le nom Stargate fait ici référence au premier projet de grande ampleur lancé par OpenAI aux États-Unis. Au lendemain de la seconde investiture de Donald Trump, Sam Altman se retrouvait aux côtés du patron d’Oracle Larry Ellison dans le bureau ovale pour annoncer un plan à 500 milliards de dollars, selon lequel OpenAI, Oracle, Arm, Microsoft et NVIDIA s’associeraient pour construire de nouvelles infrastructures dédiées à l’intelligence artificielle.

Six mois plus tard, cette première annonce retentissante – au point de créer de très publiques frictions entre Sam Altman et Elon Musk – s’annonçait relativement complexe. En juillet, toujours aucun contrat n’avait été signé par la coentreprise créée pour l’occasion.

Régime fiscal controversé

En Argentine, la porte des étoiles voulue par OpenAI sera donc 20 fois plus modeste en termes financiers. Sa localisation précise n’est pas indiquée. Le projet est, en revanche, tout aussi soutenu par Javier Milei que sa version américaine l’a été par Donald Trump.

L’alliance entre OpenAI et Sur Energy est, par ailleurs, construite dans le cadre du Régime d’incitation pour les grands investissements (RIGI), un système pensé par le gouvernement Milei pour favoriser les investissements de plus de 200 millions de dollars en Argentine, en échange d’avantages fiscaux. Adopté en 2024, ce régime est controversé pour les facilités qu’il crée aux industries fossiles, minières (l’Argentine est aussi l’un des principaux producteurs de lithium), sidérurgiques ou encore touristiques, et pour les conséquences que le développement de ces diverses activités peuvent avoir sur les droits humains et l’environnement.

En l’espèce, grâce au RIGI, OpenAI sera « exempté de payer des impôts, d’embaucher de la main-d’œuvre locale et d’acheter du matériel argentin », liste Milagros Miceli sur LinkedIn. Et de comparer ce projet à d’autres investissements de géants numériques états-uniens dans d’autres pays du globe, que ce soit au Chili, où la population a finalement fait bloquer un projet de centre de données de Google pour protéger ses ressources en eau, ou au Mexique, où les infrastructures électriques sont soumises à une importante pression par le déploiement des infrastructures liées à l’IA.

Si ce projet de centre de données se confirme, il viendra grossir les rangs des multiples partenariats signés ces derniers mois par OpenAI, au point de placer la société d’intelligence artificielle au sein d’un réseau de mille milliards de dollars de contrats variés.

  •  

Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé

Régimen de Incentivo para Grandes Inversiones
Argentine : OpenAI lance un nouveau projet Stargate dans un contexte controversé

OpenAI et Sur Energy ont signé une lettre d’intention pour un nouveau projet de centre de données à 25 milliards de dollars.

« Aujourd’hui, nous sommes heureux d’annoncer le lancement de Stargate Argentina », déclare Sam Altman dans une vidéo visiblement lue depuis son écran. À moins, suggère la chercheuse Milagros Miceli, qu’il ne s’agisse d’un deepfake.

Derrière le nom de Stargate Argentina se cache pour le moment un projet de centre de données à 25 milliards de dollars, qui devrait être construit en Patagonie. Évoquant une « opportunité historique » de faire de l’Argentine un « acteur clé dans le nouveau paysage numérique et énergétique mondial », le gouvernement argentin précisait le 10 octobre qu’une lettre d’intention avait été signée entre OpenAI et l’entreprise argentino-états-unienne Sur Energy, pour alimenter le futur bâtiment.

Celui-ci pourrait atteindre une capacité de 500 mégawatts, indiquent les diverses annonces officielles, quand bien même ce type d’élément relève plus du marketing que de la réelle indication.

Stargate 2, le retour…

Inspiré du film éponyme, le nom Stargate fait ici référence au premier projet de grande ampleur lancé par OpenAI aux États-Unis. Au lendemain de la seconde investiture de Donald Trump, Sam Altman se retrouvait aux côtés du patron d’Oracle Larry Ellison dans le bureau ovale pour annoncer un plan à 500 milliards de dollars, selon lequel OpenAI, Oracle, Arm, Microsoft et NVIDIA s’associeraient pour construire de nouvelles infrastructures dédiées à l’intelligence artificielle.

Six mois plus tard, cette première annonce retentissante – au point de créer de très publiques frictions entre Sam Altman et Elon Musk – s’annonçait relativement complexe. En juillet, toujours aucun contrat n’avait été signé par la coentreprise créée pour l’occasion.

Régime fiscal controversé

En Argentine, la porte des étoiles voulue par OpenAI sera donc 20 fois plus modeste en termes financiers. Sa localisation précise n’est pas indiquée. Le projet est, en revanche, tout aussi soutenu par Javier Milei que sa version américaine l’a été par Donald Trump.

L’alliance entre OpenAI et Sur Energy est, par ailleurs, construite dans le cadre du Régime d’incitation pour les grands investissements (RIGI), un système pensé par le gouvernement Milei pour favoriser les investissements de plus de 200 millions de dollars en Argentine, en échange d’avantages fiscaux. Adopté en 2024, ce régime est controversé pour les facilités qu’il crée aux industries fossiles, minières (l’Argentine est aussi l’un des principaux producteurs de lithium), sidérurgiques ou encore touristiques, et pour les conséquences que le développement de ces diverses activités peuvent avoir sur les droits humains et l’environnement.

En l’espèce, grâce au RIGI, OpenAI sera « exempté de payer des impôts, d’embaucher de la main-d’œuvre locale et d’acheter du matériel argentin », liste Milagros Miceli sur LinkedIn. Et de comparer ce projet à d’autres investissements de géants numériques états-uniens dans d’autres pays du globe, que ce soit au Chili, où la population a finalement fait bloquer un projet de centre de données de Google pour protéger ses ressources en eau, ou au Mexique, où les infrastructures électriques sont soumises à une importante pression par le déploiement des infrastructures liées à l’IA.

Si ce projet de centre de données se confirme, il viendra grossir les rangs des multiples partenariats signés ces derniers mois par OpenAI, au point de placer la société d’intelligence artificielle au sein d’un réseau de mille milliards de dollars de contrats variés.

  •  

IA, réseaux sociaux : la Californie encadre l’usage des technologies par les mineurs

From Big Tobacco to Big Tech
IA, réseaux sociaux : la Californie encadre l’usage des technologies par les mineurs

Le gouverneur de Californie vient de signer plusieurs lois visant à protéger les mineurs dans leurs interactions avec les équipements numériques, les réseaux sociaux et les chatbots conversationnels.

Le gouverneur de Californie Gavin Newsom a signé ce 13 octobre plusieurs textes visant à encadrer le recours aux nouvelles technologies par les mineurs.

Outre instituer l’obligation, pour les réseaux sociaux, de diffuser des messages de santé publique à destination des moins de 18 ans et d’obliger les fabricants d’appareils comme Apple ou Google à collecter l’âge des internautes lorsque les parents paramètrent des équipements pour leurs enfants, l’État adopte ainsi le premier texte des États-Unis qui oblige les opérateurs de robots conversationnels à déployer des protocoles de sécurité dans leurs compagnons d’IA.

Vérifications d’âge et messages d’alertes

Pour commencer, le gouverneur place la Californie dans les débats sur les vérifications d’âge des internautes, après que des textes très débattus ont été passés au Texas, dans l’Utah et en Louisiane.

En l’occurrence, le texte oblige désormais des fabricants d’équipements comme Apple ou Google à vérifier l’âge des internautes californiens lorsque leurs parents paramètrent les ordinateurs, smartphones ou tablettes. Les mineurs doivent ensuite être classés dans une des quatre catégories d’âge créées, puis rendre ces catégories accessibles pour les créateurs d’applications.

Le projet avait été soutenu par Google, Meta, OpenAI ou encore Snap, rapporte Politico, tandis que la Motion Picture Association, qui représente des studios cinématographiques dont Amazon et Netflix, s’y opposait.

Autre tactique, à destination des réseaux sociaux, cette fois : la Californie oblige désormais ces acteurs à diffuser des messages d’alerte sur les risques de santé mentale posés par ces outils. L’État du Minnesota a passé un texte similaire en juillet, inspiré – comme pour la Californie – des messages d’alertes imposés sur les paquets de cigarettes pour sensibiliser aux risques du tabagisme.

En pratique, les plateformes devront diffuser un message de 10 secondes chaque fois que l’enfant s’y connectera pour la première fois de la journée, puis un message de 30 seconde impossible à passer si l’enfant y reste connecté plus de trois heures. Au-delà de ces trois heures, le message de trente secondes devra à nouveau être diffusé, de manière inévitable, toutes les heures supplémentaires.

Le premier texte encadrant les relations aux chatbots conversationnels

Proposé en janvier, un autre projet de loi vise à encadrer l’usage de chatbots alimentés par IA générative. Il a gagné en importance dans le débat public local après la mort d’Adam Raine, qui s’est suicidé à l’âge de 16 ans, après de longues conversations sur le sujet avec ChatGPT. Le texte législatif a par ailleurs fait suite aux révélations sur les propos déclarés acceptables par Meta lorsque des enfants échangent avec ses outils génératifs. Dans le lot : des contenus jugés « sensuels » par les équipes de l’entreprise, de la désinformation médicale ou encore des propos racistes.

À partir du 1ᵉʳ janvier 2026, des sociétés comme Meta, Open AI, Character AI ou Replika devront donc intégrer diverses fonctionnalités parmi lesquelles des outils vérifications d’âges, des messages d’alertes relatifs à leurs robots, et des dispositifs rendant évident que toute interaction avec leurs machines sont générées de manière artificielle (plutôt que de laisser, par exemple, un robot produire du texte laissant croire qu’un professionnel de santé est en train de répondre).

Un nouveau texte prévoit par ailleurs des peines susceptibles de grimper jusqu’à 250 000 dollars pour toute personne qui tirerait profit de deepfakes, et oblige les sociétés concernées à mettre en place des protocoles de gestion du suicide et des auto-mutilations.

Plusieurs sociétés, dont OpenAI et Replika, ont déjà commencé à déployer des fonctionnalités allant du contrôle parental à divers outils de filtrage, précise TechCrunch.

À l’heure actuelle, plusieurs familles poursuivent des constructeurs de robots conversationnels pour les effets qu’ils ont eus sur leurs proches. C’est le cas de la famille Raine, mais aussi d’une famille du Colorado, qui attaque la start-up Character AI en justice après que sa fille s’est suicidée à l’âge de 13 ans. Là encore, l’enfant avait entretenu une série de conversations sexualisées et problématiques avec le robot compagnon.

Le texte californien vient s’ajouter à une autre loi, signée le 2 octobre par Gavin Newsom, et imposant diverses mesures de transparence aux constructeurs de modèles d’IA dits « de frontière ». Avec ces différentes mesures, l’État du sud se place en fer de lance de l’encadrement de l’intelligence artificielle aux États-Unis.

  •  

IA, réseaux sociaux : la Californie encadre l’usage des technologies par les mineurs

From Big Tobacco to Big Tech
IA, réseaux sociaux : la Californie encadre l’usage des technologies par les mineurs

Le gouverneur de Californie vient de signer plusieurs lois visant à protéger les mineurs dans leurs interactions avec les équipements numériques, les réseaux sociaux et les chatbots conversationnels.

Le gouverneur de Californie Gavin Newsom a signé ce 13 octobre plusieurs textes visant à encadrer le recours aux nouvelles technologies par les mineurs.

Outre instituer l’obligation, pour les réseaux sociaux, de diffuser des messages de santé publique à destination des moins de 18 ans et d’obliger les fabricants d’appareils comme Apple ou Google à collecter l’âge des internautes lorsque les parents paramètrent des équipements pour leurs enfants, l’État adopte ainsi le premier texte des États-Unis qui oblige les opérateurs de robots conversationnels à déployer des protocoles de sécurité dans leurs compagnons d’IA.

Vérifications d’âge et messages d’alertes

Pour commencer, le gouverneur place la Californie dans les débats sur les vérifications d’âge des internautes, après que des textes très débattus ont été passés au Texas, dans l’Utah et en Louisiane.

En l’occurrence, le texte oblige désormais des fabricants d’équipements comme Apple ou Google à vérifier l’âge des internautes californiens lorsque leurs parents paramètrent les ordinateurs, smartphones ou tablettes. Les mineurs doivent ensuite être classés dans une des quatre catégories d’âge créées, puis rendre ces catégories accessibles pour les créateurs d’applications.

Le projet avait été soutenu par Google, Meta, OpenAI ou encore Snap, rapporte Politico, tandis que la Motion Picture Association, qui représente des studios cinématographiques dont Amazon et Netflix, s’y opposait.

Autre tactique, à destination des réseaux sociaux, cette fois : la Californie oblige désormais ces acteurs à diffuser des messages d’alerte sur les risques de santé mentale posés par ces outils. L’État du Minnesota a passé un texte similaire en juillet, inspiré – comme pour la Californie – des messages d’alertes imposés sur les paquets de cigarettes pour sensibiliser aux risques du tabagisme.

En pratique, les plateformes devront diffuser un message de 10 secondes chaque fois que l’enfant s’y connectera pour la première fois de la journée, puis un message de 30 seconde impossible à passer si l’enfant y reste connecté plus de trois heures. Au-delà de ces trois heures, le message de trente secondes devra à nouveau être diffusé, de manière inévitable, toutes les heures supplémentaires.

Le premier texte encadrant les relations aux chatbots conversationnels

Proposé en janvier, un autre projet de loi vise à encadrer l’usage de chatbots alimentés par IA générative. Il a gagné en importance dans le débat public local après la mort d’Adam Raine, qui s’est suicidé à l’âge de 16 ans, après de longues conversations sur le sujet avec ChatGPT. Le texte législatif a par ailleurs fait suite aux révélations sur les propos déclarés acceptables par Meta lorsque des enfants échangent avec ses outils génératifs. Dans le lot : des contenus jugés « sensuels » par les équipes de l’entreprise, de la désinformation médicale ou encore des propos racistes.

À partir du 1ᵉʳ janvier 2026, des sociétés comme Meta, Open AI, Character AI ou Replika devront donc intégrer diverses fonctionnalités parmi lesquelles des outils vérifications d’âges, des messages d’alertes relatifs à leurs robots, et des dispositifs rendant évident que toute interaction avec leurs machines sont générées de manière artificielle (plutôt que de laisser, par exemple, un robot produire du texte laissant croire qu’un professionnel de santé est en train de répondre).

Un nouveau texte prévoit par ailleurs des peines susceptibles de grimper jusqu’à 250 000 dollars pour toute personne qui tirerait profit de deepfakes, et oblige les sociétés concernées à mettre en place des protocoles de gestion du suicide et des auto-mutilations.

Plusieurs sociétés, dont OpenAI et Replika, ont déjà commencé à déployer des fonctionnalités allant du contrôle parental à divers outils de filtrage, précise TechCrunch.

À l’heure actuelle, plusieurs familles poursuivent des constructeurs de robots conversationnels pour les effets qu’ils ont eus sur leurs proches. C’est le cas de la famille Raine, mais aussi d’une famille du Colorado, qui attaque la start-up Character AI en justice après que sa fille s’est suicidée à l’âge de 13 ans. Là encore, l’enfant avait entretenu une série de conversations sexualisées et problématiques avec le robot compagnon.

Le texte californien vient s’ajouter à une autre loi, signée le 2 octobre par Gavin Newsom, et imposant diverses mesures de transparence aux constructeurs de modèles d’IA dits « de frontière ». Avec ces différentes mesures, l’État du sud se place en fer de lance de l’encadrement de l’intelligence artificielle aux États-Unis.

  •  

Services publics : un Français sur deux fait ses démarches en ligne seul

Kafka dans la machine
Services publics : un Français sur deux fait ses démarches en ligne seul

Un Français sur deux parvient à réaliser ses démarches administratives en ligne sans chercher d’aide, selon un rapport de la Défenseure des droits.

En 2014, la France se classait première au classement des pays disposant des meilleurs services publics en ligne. Onze ans plus tard, l’expansion de ce mode de relation entre la population et les services publics se traduit par de vrais casse-têtes, et un accès variable aux droits, alerte la Défenseure des droits.

Le nombre de difficultés signalées par les internautes a même augmenté entre 2016 et 2024, selon un rapport publié ce 13 octobre par l’institution. L’an dernier, près de deux répondants sur trois (61 % des interrogés) témoignaient avoir rencontré des difficultés dans leurs relations aux administrations, contre 39 % en 2016. Surtout, moins d’un sur deux parvient à effectuer ses démarches administratives en ligne sans se faire aider.

Difficultés en augmentation pour tous les publics

Pour mener cette nouvelle édition de son enquête sur l’accès aux droits (la première remonte à 2016), les services de la Défenseure de droits ont réalisé avec des équipes du CNRS 5 030 entretiens, auprès d’un panel représentatif de la population âgée de 18 à 79 ans habitant en France métropolitaine.

Le but : comprendre les difficultés rencontrées lors de la réalisation de démarches administratives, celles rencontrées au moment de résoudre un problème avec une administration ou un service public, et les cas dans lesquels les personnes renoncent à faire valoir un droit.

Constat principal : les échanges avec les services publics sont complexes, notamment lorsqu’ils sont réalisés en ligne, et le problème concerne tous les publics. Cadres, diplômés de master ou plus, personnes de nationalité française depuis la naissance, tous ces profils qui rencontrent habituellement moins de problèmes dans leurs échanges avec l’administration rapportent davantage de difficultés en 2024 qu’en 2016.

Pour autant, 31 % des ouvriers et employés et 33 % des personnes en difficultés financières rencontrent fréquemment des difficultés, ce qui en fait des populations plus exposées aux problèmes de relation avec les services publics que les autres. Pour les échanges spécifiquement réalisés en ligne, 36 % des interrogés cherchent de l’aide, 8 % déclarent avoir besoin d’être accompagnés et 7 % évitent de réaliser des démarches en ligne, par choix.

Ces enjeux de facilité d’usage des démarches numériques se traduisent par une forte corrélation avec la facilité à réaliser des démarches administratives de manière générale.

Tentatives de contournement de l’outil numérique

Pour ce qui est de la gestion de problèmes spécifiques rencontrés avec l’administration, la Défenseure des droits constate que le nombre de difficultés déclarées a baissé, de 54 % en 2016 à 42 % en 2024. Cela dit, en 2024, quatre usagers interrogés sur dix déclarent tout de même avoir rencontré au moins un problème avec un service public. 

Parmi ces enjeux sont cités, par ordre de fréquence, la difficulté à contacter quelqu’un pour échanger ou obtenir un rendez-vous ; à obtenir des informations fiables ; la demande répétée de pièces justificatives ; l’absence de réponse ou les réponses tardives. Près de 2 personnes sur 5 citent aussi des problématiques (39 %) d’erreur de traitement.

Face à un ou plusieurs des cas tout juste cités, l’essentiel des répondants (88 %) tente de re-contacter le service public concerné. Dans ces cas-là, les deux tactiques les plus plébiscités consistent à éviter l’outil numérique : 55 % essaient d’appeler et 33 % de se déplacer directement dans les bureaux de l’administration concernée. Le taux de résolution de problème varie selon la méthode employée – le déplacement est un succès dans 72 % des cas, quand le courrier le permet dans seulement 56 % des cas. Il varie aussi, entre autres, selon la facilité d’usage des services numériques : 68 % de ceux qui savent y recourir parviennent à résoudre leurs problèmes, contre 58 % de ceux qui ne le savent pas.

Conséquence de ces diverses embûches, près d’une personne sur quatre déclarent avoir déjà renoncé à un droit auquel elle aurait pu prétendre, devant la complexité de la démarche pour l’obtenir. Les personnes qui rencontrent des difficultés ont deux fois plus de chances de renoncer à leur démarche administrative que celles qui n’en rencontrent pas.

La Défenseure des droits souligne l’ambivalence de la dématérialisation des services publics qui, s’ils facilitent certaines interactions, se transforment aussi en obstacle pour celles et ceux qui préfèrent les interactions directes avec l’administration.

Pour leur apporter de l’aide, la France a lancé en 2021 le dispositif des « conseillers numériques », 4 000 personnes employées partout sur le territoire pour aider celles et ceux qui en ont besoin à réaliser leurs diverses démarches en ligne. Mais le budget 2025 avait déjà conduit à une réduction du nombre de postes, une tendance qui pourrait se poursuivre.

  •  

Services publics : un Français sur deux fait ses démarches en ligne seul

Kafka dans la machine
Services publics : un Français sur deux fait ses démarches en ligne seul

Un Français sur deux parvient à réaliser ses démarches administratives en ligne sans chercher d’aide, selon un rapport de la Défenseure des droits.

En 2014, la France se classait première au classement des pays disposant des meilleurs services publics en ligne. Onze ans plus tard, l’expansion de ce mode de relation entre la population et les services publics se traduit par de vrais casse-têtes, et un accès variable aux droits, alerte la Défenseure des droits.

Le nombre de difficultés signalées par les internautes a même augmenté entre 2016 et 2024, selon un rapport publié ce 13 octobre par l’institution. L’an dernier, près de deux répondants sur trois (61 % des interrogés) témoignaient avoir rencontré des difficultés dans leurs relations aux administrations, contre 39 % en 2016. Surtout, moins d’un sur deux parvient à effectuer ses démarches administratives en ligne sans se faire aider.

Difficultés en augmentation pour tous les publics

Pour mener cette nouvelle édition de son enquête sur l’accès aux droits (la première remonte à 2016), les services de la Défenseure de droits ont réalisé avec des équipes du CNRS 5 030 entretiens, auprès d’un panel représentatif de la population âgée de 18 à 79 ans habitant en France métropolitaine.

Le but : comprendre les difficultés rencontrées lors de la réalisation de démarches administratives, celles rencontrées au moment de résoudre un problème avec une administration ou un service public, et les cas dans lesquels les personnes renoncent à faire valoir un droit.

Constat principal : les échanges avec les services publics sont complexes, notamment lorsqu’ils sont réalisés en ligne, et le problème concerne tous les publics. Cadres, diplômés de master ou plus, personnes de nationalité française depuis la naissance, tous ces profils qui rencontrent habituellement moins de problèmes dans leurs échanges avec l’administration rapportent davantage de difficultés en 2024 qu’en 2016.

Pour autant, 31 % des ouvriers et employés et 33 % des personnes en difficultés financières rencontrent fréquemment des difficultés, ce qui en fait des populations plus exposées aux problèmes de relation avec les services publics que les autres. Pour les échanges spécifiquement réalisés en ligne, 36 % des interrogés cherchent de l’aide, 8 % déclarent avoir besoin d’être accompagnés et 7 % évitent de réaliser des démarches en ligne, par choix.

Ces enjeux de facilité d’usage des démarches numériques se traduisent par une forte corrélation avec la facilité à réaliser des démarches administratives de manière générale.

Tentatives de contournement de l’outil numérique

Pour ce qui est de la gestion de problèmes spécifiques rencontrés avec l’administration, la Défenseure des droits constate que le nombre de difficultés déclarées a baissé, de 54 % en 2016 à 42 % en 2024. Cela dit, en 2024, quatre usagers interrogés sur dix déclarent tout de même avoir rencontré au moins un problème avec un service public. 

Parmi ces enjeux sont cités, par ordre de fréquence, la difficulté à contacter quelqu’un pour échanger ou obtenir un rendez-vous ; à obtenir des informations fiables ; la demande répétée de pièces justificatives ; l’absence de réponse ou les réponses tardives. Près de 2 personnes sur 5 citent aussi des problématiques (39 %) d’erreur de traitement.

Face à un ou plusieurs des cas tout juste cités, l’essentiel des répondants (88 %) tente de re-contacter le service public concerné. Dans ces cas-là, les deux tactiques les plus plébiscités consistent à éviter l’outil numérique : 55 % essaient d’appeler et 33 % de se déplacer directement dans les bureaux de l’administration concernée. Le taux de résolution de problème varie selon la méthode employée – le déplacement est un succès dans 72 % des cas, quand le courrier le permet dans seulement 56 % des cas. Il varie aussi, entre autres, selon la facilité d’usage des services numériques : 68 % de ceux qui savent y recourir parviennent à résoudre leurs problèmes, contre 58 % de ceux qui ne le savent pas.

Conséquence de ces diverses embûches, près d’une personne sur quatre déclarent avoir déjà renoncé à un droit auquel elle aurait pu prétendre, devant la complexité de la démarche pour l’obtenir. Les personnes qui rencontrent des difficultés ont deux fois plus de chances de renoncer à leur démarche administrative que celles qui n’en rencontrent pas.

La Défenseure des droits souligne l’ambivalence de la dématérialisation des services publics qui, s’ils facilitent certaines interactions, se transforment aussi en obstacle pour celles et ceux qui préfèrent les interactions directes avec l’administration.

Pour leur apporter de l’aide, la France a lancé en 2021 le dispositif des « conseillers numériques », 4 000 personnes employées partout sur le territoire pour aider celles et ceux qui en ont besoin à réaliser leurs diverses démarches en ligne. Mais le budget 2025 avait déjà conduit à une réduction du nombre de postes, une tendance qui pourrait se poursuivre.

  •  

☕️ Le conseiller de Meta sur les biais politiques diffuse de la désinformation à tout-va

Robby Starbuck recourt à sa plateforme chez Meta pour diffuser de la désinformation sur les récentes tueries qui ont secoué les États-Unis, les personnes transgenres, les vaccins et divers autres événements d’actualité.

Il avait été nommé mi-août à ce poste, après avoir porté plainte contre Meta pour le fonctionnement de son robot conversationnel Meta AI. Ce dernier avait en effet diffusé des informations « manifestement fausses et diffamatoires », selon la plainte de Starbuck, selon lesquelles ce dernier aurait participé à l’attaque du Capitole à Washington le 6 janvier 2021.

Depuis qu’il a été nommé conseiller de Meta sur la question des biais, cet influenceur connu pour son positionnement anti-diversité, équité et inclusion a diffusé diverses théories fausses ou trompeuses. Il a notamment cherché à plusieurs reprises à lier des attentats récents au parti démocrate, ou amplifier des théories conspirationnistes sur les vaccins.

Pour la cofondatrice du Global Project against Hate and extremism Heidi Birch, interrogée par the Guardian, la nomination de Starbuck à un tel rôle est un problème en soi, dans la mesure où ce dernier « promeut des mensonges et de l’extrémisme ». Pour le vice-président de Human Rights Campaign Foundation, Starbuck participe à la promotion d’un « agenda anti-LGBTQ dangereux ».

Auprès du média britannique, ce dernier décrit son rôle comme « simple » : dédié à « rendre l’IA sûre pour tout le monde, quelles que soient leurs positions. Ce que vous essayez vraiment de faire ici ressemble à de la cancel culture et à de l’activisme déguisés en journalisme, et je ne vais pas me cacher parce que je partage les mêmes opinions que le parti politique qui a remporté le vote populaire il y a moins d’un an aux États-Unis. »

illustration d'une personne manipulée comme une marionnette par une fausse actualité
  •  

☕️ Le conseiller de Meta sur les biais politiques diffuse de la désinformation à tout-va

Robby Starbuck recourt à sa plateforme chez Meta pour diffuser de la désinformation sur les récentes tueries qui ont secoué les États-Unis, les personnes transgenres, les vaccins et divers autres événements d’actualité.

Il avait été nommé mi-août à ce poste, après avoir porté plainte contre Meta pour le fonctionnement de son robot conversationnel Meta AI. Ce dernier avait en effet diffusé des informations « manifestement fausses et diffamatoires », selon la plainte de Starbuck, selon lesquelles ce dernier aurait participé à l’attaque du Capitole à Washington le 6 janvier 2021.

Depuis qu’il a été nommé conseiller de Meta sur la question des biais, cet influenceur connu pour son positionnement anti-diversité, équité et inclusion a diffusé diverses théories fausses ou trompeuses. Il a notamment cherché à plusieurs reprises à lier des attentats récents au parti démocrate, ou amplifier des théories conspirationnistes sur les vaccins.

Pour la cofondatrice du Global Project against Hate and extremism Heidi Birch, interrogée par the Guardian, la nomination de Starbuck à un tel rôle est un problème en soi, dans la mesure où ce dernier « promeut des mensonges et de l’extrémisme ». Pour le vice-président de Human Rights Campaign Foundation, Starbuck participe à la promotion d’un « agenda anti-LGBTQ dangereux ».

Auprès du média britannique, ce dernier décrit son rôle comme « simple » : dédié à « rendre l’IA sûre pour tout le monde, quelles que soient leurs positions. Ce que vous essayez vraiment de faire ici ressemble à de la cancel culture et à de l’activisme déguisés en journalisme, et je ne vais pas me cacher parce que je partage les mêmes opinions que le parti politique qui a remporté le vote populaire il y a moins d’un an aux États-Unis. »

illustration d'une personne manipulée comme une marionnette par une fausse actualité
  •  

☕️ Europe : Nextcloud abandonne sa plainte contre Microsoft

Lassée par l’absence de progrès dans l’enquête pour pratiques anticoncurrentielles de l’Union européenne contre Microsoft, Nextcloud annonce retirer sa plainte contre le géant états-unien.

Auprès de Reuters, le fondateur de l’éditeur allemand de logiciels, Frank Karlitschek, indique avoir perdu tout espoir que la Commission n’intervienne.

En 2021, Nextcloud avait porté plainte avec une trentaine de petits éditeurs devant la Commission et le Bundeskartellamt allemand.

L’entreprise critiquait la pré-installation de OneDrive sur Windows, une pratique permettant à la société américaine d’inciter les usagers à recourir à ce service de cloud, plutôt que de leur proposer le choix entre divers fournisseurs.

Depuis, rien n’a bougé, déclare Frank Karlitschek, qui espérait voir Microsoft obligée de fournir différentes options à ses utilisateurs lors de l’installation, comme c’est le cas pour les navigateurs internet.

La procédure devant l’Office allemand de lutte contre les cartels reste en cours, précise-t-il.

  •  

☕️ Europe : Nextcloud abandonne sa plainte contre Microsoft

Lassée par l’absence de progrès dans l’enquête pour pratiques anticoncurrentielles de l’Union européenne contre Microsoft, Nextcloud annonce retirer sa plainte contre le géant états-unien.

Auprès de Reuters, le fondateur de l’éditeur allemand de logiciels, Frank Karlitschek, indique avoir perdu tout espoir que la Commission n’intervienne.

En 2021, Nextcloud avait porté plainte avec une trentaine de petits éditeurs devant la Commission et le Bundeskartellamt allemand.

L’entreprise critiquait la pré-installation de OneDrive sur Windows, une pratique permettant à la société américaine d’inciter les usagers à recourir à ce service de cloud, plutôt que de leur proposer le choix entre divers fournisseurs.

Depuis, rien n’a bougé, déclare Frank Karlitschek, qui espérait voir Microsoft obligée de fournir différentes options à ses utilisateurs lors de l’installation, comme c’est le cas pour les navigateurs internet.

La procédure devant l’Office allemand de lutte contre les cartels reste en cours, précise-t-il.

  •  

Règles de modération, suppression d’app : Apple renforce la protection des agents de l’ICE

Pomme glacée
Règles de modération, suppression d’app : Apple renforce la protection des agents de l’ICE

De nouvelles applications dédiées aux activités des agents de l’ICE ont été supprimées de l’Apple Store. Dans un cas, l’entreprise a justifié sa décision par ses règles de protection des minorités contre les discours de haine – assimilant de fait les fonctionnaires concernés à une minorité.

Après les applications de signalement des services d’immigration, celles d’enregistrements de vidéos de violences commises par les agents de l’administration états-unienne.

Apple vient de supprimer de son magasin d’application Eyes Up, une application dédiée à enregistrer des vidéos TikTok, des Reels Instagram, des vidéos et des clips d’informations revenant sur des cas de violences commises par le personnel de l’Immigration and Customs Enforcement (ICE, le service des douanes états-unien).

DeICER, une autre application dédiée à enregistrer les activités de forces de l’ordre affiliées à l’ICE, a elle aussi été supprimée. D’après Migrant Insider, le motif utilisé pour justifier ce retrait est habituellement utilisé pour protéger les populations minorisées des discours de haine.

Pression accrue du gouvernement Trump

La suspension d’Eyes Up suggère que la pression exercée par le gouvernement des États-Unis sur les géants numériques prend un tour plus large que le retrait déjà obtenu d’outils pour partager en temps réel la localisation d’agents de l’ICE.

En début de semaine, Apple et Google suspendaient en effet ICEBlock, une application disponible depuis le mois d’avril pour permettre à qui le souhaitait de surveiller et de s’échanger des informations de localisation sur les équipes de l’ICE.

Eyes Up se contentant de fonctionner comme un agrégateur de contenu – certes, spécifique –, son créateur affirme à 404 Media : « je pense que l’administration est simplement trop embarrassée par le nombre de vidéos incriminantes que nous avons ».

Agents de l’ICE, nouvelle catégorie protégée ?

Quelles que soient les raisons du gouvernement local, elles influent visiblement sur les conditions d’utilisation des sociétés numériques. Apple a en effet utilisé des règles initialement écrites afin de protéger des minorités des discours de haine pour justifier la suppression d’une autre application. De fait, l’entreprise fait de la catégorie professionnelle des agents de l’ICE une minorité demandant une protection spécifique.

Pour le créateur de DeICER, le risque n’est pourtant pas que ces agents soient discriminés. « Enregistrer des fonctionnaires n’est pas du harcèlement, c’est la démocratie », souligne-t-il auprès de Migrant Insider.

Au quotidien, l’ICE recourt de son côté à un outil de surveillance de la localisation de centaines de millions de téléphones mobiles. L’outil permet aux agents de fouiller dans des masses de données de localisation et en provenance des réseaux sociaux et s’appuierait notamment sur les solutions Tangles et Webloc, historiquement produites par la société israélienne Cobwebs et désormais vendues par Penlink.

  •  

☕️ Data center en feu : le gouvernement coréen perd 858 To de données

Un data center détruit dans l’incendie causé par l’explosion d’une batterie au lithium-ion. Tel est l’événement qui paralyse la Corée du Sud depuis le 26 septembre : d’une batterie, le feu s’est propagé à 384 autres.

Le feu a pris lors d’un exercice de réduction des risques, alors que des batteries UPS (Uninterrupted Power Supply, dédiées à la continuité de l’alimentation électrique) d’une salle de serveurs installée au cinquième étage du bâtiment étaient déplacées vers les sous-sols pour protéger des infrastructures critiques.

Installées en 2014, ces batteries avaient dépassé leur durée de vie recommandée (10 ans), note le Korea Herald, même si elles avaient subi des inspections régulières.

Le centre hébergeant les données de l’administration sud-coréenne, 647 des 1 600 services numériques gouvernementaux se sont retrouvés bloqués. Parmi eux, le portail centralisé qui permet aux citoyens d’accéder à leurs services publics, les services postaux et logistiques, ou encore les services d’urgence, dont ceux permettant de géolocaliser les appels 119 pour répartir efficacement les unités.

Au bout de quatre jours, seuls 85 services étaient restaurés, et le gouvernement estimait à quatre semaines pleines le temps nécessaire à une reprise normale des activités.

Au passage, 858 To de données relatives aux citoyens ont été définitivement perdues. Les fonctionnaires avaient accès à 30 Go de stockage sur leur G-Drive (pour Government drive, et non Google drive) pour sauvegarder leurs activités. Les travaux de 750 000 d’entre eux ont brûlé avec les serveurs, d’après le ministère de l’Intérieur coréen.

L’incendie fait écho à celui qui avait frappé OVHcloud en 2021. Sur le coup, plusieurs clients de l’entreprise française avaient, eux aussi, intégralement perdu leurs données, notamment faute d’avoir souscrit un service de sauvegarde.

L’administration sud-coréenne a fait la même erreur.

  •  

Règles de modération, suppression d’app : Apple renforce la protection des agents de l’ICE

Pomme glacée
Règles de modération, suppression d’app : Apple renforce la protection des agents de l’ICE

De nouvelles applications dédiées aux activités des agents de l’ICE ont été supprimées de l’Apple Store. Dans un cas, l’entreprise a justifié sa décision par ses règles de protection des minorités contre les discours de haine – assimilant de fait les fonctionnaires concernés à une minorité.

Après les applications de signalement des services d’immigration, celles d’enregistrements de vidéos de violences commises par les agents de l’administration états-unienne.

Apple vient de supprimer de son magasin d’application Eyes Up, une application dédiée à enregistrer des vidéos TikTok, des Reels Instagram, des vidéos et des clips d’informations revenant sur des cas de violences commises par le personnel de l’Immigration and Customs Enforcement (ICE, le service des douanes états-unien).

DeICER, une autre application dédiée à enregistrer les activités de forces de l’ordre affiliées à l’ICE, a elle aussi été supprimée. D’après Migrant Insider, le motif utilisé pour justifier ce retrait est habituellement utilisé pour protéger les populations minorisées des discours de haine.

Pression accrue du gouvernement Trump

La suspension d’Eyes Up suggère que la pression exercée par le gouvernement des États-Unis sur les géants numériques prend un tour plus large que le retrait déjà obtenu d’outils pour partager en temps réel la localisation d’agents de l’ICE.

En début de semaine, Apple et Google suspendaient en effet ICEBlock, une application disponible depuis le mois d’avril pour permettre à qui le souhaitait de surveiller et de s’échanger des informations de localisation sur les équipes de l’ICE.

Eyes Up se contentant de fonctionner comme un agrégateur de contenu – certes, spécifique –, son créateur affirme à 404 Media : « je pense que l’administration est simplement trop embarrassée par le nombre de vidéos incriminantes que nous avons ».

Agents de l’ICE, nouvelle catégorie protégée ?

Quelles que soient les raisons du gouvernement local, elles influent visiblement sur les conditions d’utilisation des sociétés numériques. Apple a en effet utilisé des règles initialement écrites afin de protéger des minorités des discours de haine pour justifier la suppression d’une autre application. De fait, l’entreprise fait de la catégorie professionnelle des agents de l’ICE une minorité demandant une protection spécifique.

Pour le créateur de DeICER, le risque n’est pourtant pas que ces agents soient discriminés. « Enregistrer des fonctionnaires n’est pas du harcèlement, c’est la démocratie », souligne-t-il auprès de Migrant Insider.

Au quotidien, l’ICE recourt de son côté à un outil de surveillance de la localisation de centaines de millions de téléphones mobiles. L’outil permet aux agents de fouiller dans des masses de données de localisation et en provenance des réseaux sociaux et s’appuierait notamment sur les solutions Tangles et Webloc, historiquement produites par la société israélienne Cobwebs et désormais vendues par Penlink.

  •  

☕️ Data center en feu : le gouvernement coréen perd 858 To de données

Un data center détruit dans l’incendie causé par l’explosion d’une batterie au lithium-ion. Tel est l’événement qui paralyse la Corée du Sud depuis le 26 septembre : d’une batterie, le feu s’est propagé à 384 autres.

Le feu a pris lors d’un exercice de réduction des risques, alors que des batteries UPS (Uninterrupted Power Supply, dédiées à la continuité de l’alimentation électrique) d’une salle de serveurs installée au cinquième étage du bâtiment étaient déplacées vers les sous-sols pour protéger des infrastructures critiques.

Installées en 2014, ces batteries avaient dépassé leur durée de vie recommandée (10 ans), note le Korea Herald, même si elles avaient subi des inspections régulières.

Le centre hébergeant les données de l’administration sud-coréenne, 647 des 1 600 services numériques gouvernementaux se sont retrouvés bloqués. Parmi eux, le portail centralisé qui permet aux citoyens d’accéder à leurs services publics, les services postaux et logistiques, ou encore les services d’urgence, dont ceux permettant de géolocaliser les appels 119 pour répartir efficacement les unités.

Au bout de quatre jours, seuls 85 services étaient restaurés, et le gouvernement estimait à quatre semaines pleines le temps nécessaire à une reprise normale des activités.

Au passage, 858 To de données relatives aux citoyens ont été définitivement perdues. Les fonctionnaires avaient accès à 30 Go de stockage sur leur G-Drive (pour Government drive, et non Google drive) pour sauvegarder leurs activités. Les travaux de 750 000 d’entre eux ont brûlé avec les serveurs, d’après le ministère de l’Intérieur coréen.

L’incendie fait écho à celui qui avait frappé OVHcloud en 2021. Sur le coup, plusieurs clients de l’entreprise française avaient, eux aussi, intégralement perdu leurs données, notamment faute d’avoir souscrit un service de sauvegarde.

L’administration sud-coréenne a fait la même erreur.

  •  

IA : la valse des contrats entre NVIDIA, OpenAI et consorts ravive les craintes d’une bulle

Passion économie circulaire
IA : la valse des contrats entre NVIDIA, OpenAI et consorts ravive les craintes d’une bulle

En un an, Open AI a signé 1 000 milliards de dollars de contrats pour accroître son activité. Les accords financiers à double sens se multiplient autour de l’entreprise et de NVIDIA, au point de dessiner une trame qui pousse divers analystes à envisager à nouveau l’hypothèse d’une bulle financière.

OpenAI est une entreprise à succès. La preuve ? Il y a deux semaines, Nvidia déclarait investir 100 milliards de dollars dans la société pour l’aider à financer ses grands plans de constructions de centres de données. Le constructeur de ChatGPT et Sora promet en retour de recourir à des millions de puces du fabricant états-unien.

OpenAI n’est, si l’on est précis, pas la seule entreprise à succès. L’un des plus grands gagnants de la frénésie qui entoure l’intelligence artificielle générative est un constructeur de matériel : Nvidia lui-même. Depuis septembre 2024, l’entreprise a conclu au moins 50 contrats différents, faisant de la société le deuxième nœud d’un tout petit secteur où l’argent circule en cercle quasi fermé. Dernière annonce en date : elle investirait deux milliards de dollars dans xAI, à l’occasion d’un tour de financement dans lequel la société d’Elon Musk vise à réunir 20 milliards de dollars.

L’activité, on l’a dit, est florissante. Effrénée même. Dans quelle mesure est-elle connectée à la réalité économique ? Telle est la question qui revient de manière toujours plus insistante, à mesure que le nombre d’acteurs impliqué dans ces contrats faramineux se resserre.

Si plusieurs sociétés témoignent de réels gains de productivité – quelques fois traduits en réduction du nombre d’emplois –, la démonstration de retours équivalents voire supérieurs sur les investissements réalisés se fait attendre. Les conséquences sur les factures énergétiques des ménages américains, elles, se font déjà sentir.

Financements circulaires

Au total, calcule le Financial Times, les multiples accords passés par OpenAI au fil de l’année passée se chiffrent autour de 1 000 milliards de dollars. Contrat le plus récent : AMD s’est engagée ce lundi à fournir l’équivalent de 6 GW de capacités de calcul à l’entreprise de Sam Altman. Autre pan de l’accord AMD-OpenAI : la seconde entre au capital de la première.

Cet échange de bons procédés est loin d’être une exception. Spécialiste du calcul de haute performance, CoreWeave a fait son entrée en bourse de Wall Street au mois de mars 2025. À l’époque, Nvidia s’était porté acquéreur de 7 % des parts de la société.

Depuis, l’entreprise a conclu un contrat de 6,3 milliards de dollars pour profiter des services de cloud de CoreWeave. Cette dernière, elle, loue des puces à Nvidia. Open AI n’est pas loin non plus : l’entreprise a signé un contrat de cloud avec CoreWeave à hauteur de 22,4 milliards de dollars, en l’échange de 350 millions de capitaux propres en amont de l’introduction de la société en bourse.

Outre le créateur de ChatGPT et le principal fournisseur de puces du marché, au moins deux sociétés plus installées tirent leurs épingle du jeu : Microsoft et Oracle. Portée par les multiples contrats cloud conclus au fil de l’année, cette dernière a par exemple vu sa valorisation faire un bond début septembre, au point de faire de son patron Larry Ellison l’homme le plus riche du monde pendant quelques heures.

Alors que des inquiétudes autour d’une potentielle bulle financière se font entendre depuis 2023, certains analystes comparent les contrats circulaires réalisés dans le secteur à d’autres types de partenariats observés en amont de la bulle internet.

À l’époque, explique le chercheur Paulo Carvao à Bloomberg, des sociétés promouvaient et achetaient les services les unes des autres pour augmenter leur croissance perçue. En 2025, en revanche, les sociétés d’IA « ont de vrais produits et des clients, mais leurs dépenses continuent de dépasser leur monétisation ».

Pour la directrice exécutive d’Open AI Fidji Simo, interrogée par l’AFP, cette frénésie d’investissements est le « nouveau normal ». Elle traduit une nouvelle réalité : celle selon laquelle la capacité de calcul « est la ressource la plus stratégique ».

Traduction énergétique des puissances de calcul financées

Concrètement, cette quête de puissance de calcul a déjà des effets en termes énergétiques. L’activité actuelle est telle que même la manière d’évoquer les capacités informatiques nécessaires au fonctionnement des plus gros systèmes d’IA a évolué : désormais, le milieu en parle en termes de puissance électrique potentiellement consommée pour alimenter les centres de données. Et les sociétés de la tech s’étendent directement dans le secteur de l’énergie.

Au total, selon les estimations du Financial Times, les différents partenariats signés par OpenAI au fil de l’année écoulée pourraient lui donner accès à l’équivalent de 20 GW de capacités de calcul au fil de la prochaine décennie. 20 gigawatts, précise le média, sont plus ou moins l’équivalent de 20 réacteurs nucléaires.

Se pose néanmoins la question du mix énergétique qui alimentera les activités d’un OpenAI, ou de ses concurrents. En l’occurrence, l’essentiel de l’électricité produite actuellement aux États-Unis est issue des industries fossiles. Et partout sur la planète, les géants numériques déploient déjà leurs propres générateurs, au motif que les infrastructures publiques ne sont pas prêtes à temps.

Cela a aussi des conséquences concrètes sur les ménages, que l’on évoque les pollutions provoquées par les activités de certains centres hyperscalers… ou la facture d’électricité des consommateurs. Aux États-Unis, celle-ci est déjà tirée à la hausse par le domaine de l’IA.

Il en va de même pour le PIB du pays, cela dit. D’après l’économiste Jason Furman, sa croissance aurait peu ou prou stagné au premier semestre 2025 si elle n’avait pas été tirée par la suractivité du secteur des centres de données.

Si une récession se matérialisait dans l’économie des États-Unis pour des raisons extérieures au domaine technologique ; si bulle de l’IA il y avait, et que la bulle éclatait, alors son explosion pourrait jouer un rôle d’accélérateur de ladite récession, soulignait tout de même Barclays fin septembre. Mais l’existence d’une bulle, précisait l’auteur de la newsletter spécialisée Alphaville, n’est qu’une hypothèse.

  •  

IA : la valse des contrats entre NVIDIA, OpenAI et consorts ravive les craintes d’une bulle

Passion économie circulaire
IA : la valse des contrats entre NVIDIA, OpenAI et consorts ravive les craintes d’une bulle

En un an, Open AI a signé 1 000 milliards de dollars de contrats pour accroître son activité. Les accords financiers à double sens se multiplient autour de l’entreprise et de NVIDIA, au point de dessiner une trame qui pousse divers analystes à envisager à nouveau l’hypothèse d’une bulle financière.

OpenAI est une entreprise à succès. La preuve ? Il y a deux semaines, Nvidia déclarait investir 100 milliards de dollars dans la société pour l’aider à financer ses grands plans de constructions de centres de données. Le constructeur de ChatGPT et Sora promet en retour de recourir à des millions de puces du fabricant états-unien.

OpenAI n’est, si l’on est précis, pas la seule entreprise à succès. L’un des plus grands gagnants de la frénésie qui entoure l’intelligence artificielle générative est un constructeur de matériel : Nvidia lui-même. Depuis septembre 2024, l’entreprise a conclu au moins 50 contrats différents, faisant de la société le deuxième nœud d’un tout petit secteur où l’argent circule en cercle quasi fermé. Dernière annonce en date : elle investirait deux milliards de dollars dans xAI, à l’occasion d’un tour de financement dans lequel la société d’Elon Musk vise à réunir 20 milliards de dollars.

L’activité, on l’a dit, est florissante. Effrénée même. Dans quelle mesure est-elle connectée à la réalité économique ? Telle est la question qui revient de manière toujours plus insistante, à mesure que le nombre d’acteurs impliqué dans ces contrats faramineux se resserre.

Si plusieurs sociétés témoignent de réels gains de productivité – quelques fois traduits en réduction du nombre d’emplois –, la démonstration de retours équivalents voire supérieurs sur les investissements réalisés se fait attendre. Les conséquences sur les factures énergétiques des ménages américains, elles, se font déjà sentir.

Financements circulaires

Au total, calcule le Financial Times, les multiples accords passés par OpenAI au fil de l’année passée se chiffrent autour de 1 000 milliards de dollars. Contrat le plus récent : AMD s’est engagée ce lundi à fournir l’équivalent de 6 GW de capacités de calcul à l’entreprise de Sam Altman. Autre pan de l’accord AMD-OpenAI : la seconde entre au capital de la première.

Cet échange de bons procédés est loin d’être une exception. Spécialiste du calcul de haute performance, CoreWeave a fait son entrée en bourse de Wall Street au mois de mars 2025. À l’époque, Nvidia s’était porté acquéreur de 7 % des parts de la société.

Depuis, l’entreprise a conclu un contrat de 6,3 milliards de dollars pour profiter des services de cloud de CoreWeave. Cette dernière, elle, loue des puces à Nvidia. Open AI n’est pas loin non plus : l’entreprise a signé un contrat de cloud avec CoreWeave à hauteur de 22,4 milliards de dollars, en l’échange de 350 millions de capitaux propres en amont de l’introduction de la société en bourse.

Outre le créateur de ChatGPT et le principal fournisseur de puces du marché, au moins deux sociétés plus installées tirent leurs épingle du jeu : Microsoft et Oracle. Portée par les multiples contrats cloud conclus au fil de l’année, cette dernière a par exemple vu sa valorisation faire un bond début septembre, au point de faire de son patron Larry Ellison l’homme le plus riche du monde pendant quelques heures.

Alors que des inquiétudes autour d’une potentielle bulle financière se font entendre depuis 2023, certains analystes comparent les contrats circulaires réalisés dans le secteur à d’autres types de partenariats observés en amont de la bulle internet.

À l’époque, explique le chercheur Paulo Carvao à Bloomberg, des sociétés promouvaient et achetaient les services les unes des autres pour augmenter leur croissance perçue. En 2025, en revanche, les sociétés d’IA « ont de vrais produits et des clients, mais leurs dépenses continuent de dépasser leur monétisation ».

Pour la directrice exécutive d’Open AI Fidji Simo, interrogée par l’AFP, cette frénésie d’investissements est le « nouveau normal ». Elle traduit une nouvelle réalité : celle selon laquelle la capacité de calcul « est la ressource la plus stratégique ».

Traduction énergétique des puissances de calcul financées

Concrètement, cette quête de puissance de calcul a déjà des effets en termes énergétiques. L’activité actuelle est telle que même la manière d’évoquer les capacités informatiques nécessaires au fonctionnement des plus gros systèmes d’IA a évolué : désormais, le milieu en parle en termes de puissance électrique potentiellement consommée pour alimenter les centres de données. Et les sociétés de la tech s’étendent directement dans le secteur de l’énergie.

Au total, selon les estimations du Financial Times, les différents partenariats signés par OpenAI au fil de l’année écoulée pourraient lui donner accès à l’équivalent de 20 GW de capacités de calcul au fil de la prochaine décennie. 20 gigawatts, précise le média, sont plus ou moins l’équivalent de 20 réacteurs nucléaires.

Se pose néanmoins la question du mix énergétique qui alimentera les activités d’un OpenAI, ou de ses concurrents. En l’occurrence, l’essentiel de l’électricité produite actuellement aux États-Unis est issue des industries fossiles. Et partout sur la planète, les géants numériques déploient déjà leurs propres générateurs, au motif que les infrastructures publiques ne sont pas prêtes à temps.

Cela a aussi des conséquences concrètes sur les ménages, que l’on évoque les pollutions provoquées par les activités de certains centres hyperscalers… ou la facture d’électricité des consommateurs. Aux États-Unis, celle-ci est déjà tirée à la hausse par le domaine de l’IA.

Il en va de même pour le PIB du pays, cela dit. D’après l’économiste Jason Furman, sa croissance aurait peu ou prou stagné au premier semestre 2025 si elle n’avait pas été tirée par la suractivité du secteur des centres de données.

Si une récession se matérialisait dans l’économie des États-Unis pour des raisons extérieures au domaine technologique ; si bulle de l’IA il y avait, et que la bulle éclatait, alors son explosion pourrait jouer un rôle d’accélérateur de ladite récession, soulignait tout de même Barclays fin septembre. Mais l’existence d’une bulle, précisait l’auteur de la newsletter spécialisée Alphaville, n’est qu’une hypothèse.

  •  

☕️ Sans les centres de données, la croissance des États-Unis aurait stagné début 2025

Sans les investissements dans les centres de données et les technologies de traitement de l’information, la croissance du PIB des États-Unis n’aurait été que de 0,1 % comparée à l’année précédente, selon les calculs de l’économiste de Harvard Jason Furman.

Ce constat fait écho à celui formulé par d’autres analystes au fil des mois : fin août, déjà, une étude de Renaissance Macro Research estimait que les investissements déversés dans l’industrie des centres de données avaient dépassé en valeur la consommation des américains. Une performance, dans la mesure où les dépenses de consommation représentent deux tiers du PIB dans le pays.

Si les investissements dans le domaine n’avaient pas été aussi intenses, précise Jason Furman, l’économie aurait évolué un peu différemment, ne serait-ce qu’en permettant des taux d’intérêt et des factures d’électricité plus bas que ce qui est constaté aujourd’hui.

Début octobre, le Shift Project publiait un rapport pointant l’impréparation de la France, de l’Europe, et de l’économie en général à l’explosion du secteur des centres de données, tiré par celui de l’IA, et à ses conséquences sur l’environnement et l’approvisionnement en énergie.

Quelques jours plus tôt, relève Fortune, la directrice des investissements de Morgan Stanley, Lisan Shallet, soulignait les montants stratosphériques déversés dans le domaine du côté des États-Unis, en particulier dans la construction d’ « hyperscalers », c’est-à-dire de centres de données de très grande taille. En quelques années, ces montants ont été multipliés par 4, pour s’approcher des 400 milliards de dollars par an.

Ces mouvements peuvent expliquer que les alertes sur une possible récession de l’économie américaine, alimentée par les licenciements et le ralentissement du marché de l’emploi, soient pour le moment détrompées.

  •  

☕️ Sans les centres de données, la croissance des États-Unis aurait stagné début 2025

Sans les investissements dans les centres de données et les technologies de traitement de l’information, la croissance du PIB des États-Unis n’aurait été que de 0,1 % comparée à l’année précédente, selon les calculs de l’économiste de Harvard Jason Furman.

Ce constat fait écho à celui formulé par d’autres analystes au fil des mois : fin août, déjà, une étude de Renaissance Macro Research estimait que les investissements déversés dans l’industrie des centres de données avaient dépassé en valeur la consommation des américains. Une performance, dans la mesure où les dépenses de consommation représentent deux tiers du PIB dans le pays.

Si les investissements dans le domaine n’avaient pas été aussi intenses, précise Jason Furman, l’économie aurait évolué un peu différemment, ne serait-ce qu’en permettant des taux d’intérêt et des factures d’électricité plus bas que ce qui est constaté aujourd’hui.

Début octobre, le Shift Project publiait un rapport pointant l’impréparation de la France, de l’Europe, et de l’économie en général à l’explosion du secteur des centres de données, tiré par celui de l’IA, et à ses conséquences sur l’environnement et l’approvisionnement en énergie.

Quelques jours plus tôt, relève Fortune, la directrice des investissements de Morgan Stanley, Lisan Shallet, soulignait les montants stratosphériques déversés dans le domaine du côté des États-Unis, en particulier dans la construction d’ « hyperscalers », c’est-à-dire de centres de données de très grande taille. En quelques années, ces montants ont été multipliés par 4, pour s’approcher des 400 milliards de dollars par an.

Ces mouvements peuvent expliquer que les alertes sur une possible récession de l’économie américaine, alimentée par les licenciements et le ralentissement du marché de l’emploi, soient pour le moment détrompées.

  •  

OpenAI a banni des comptes chinois cherchant à surveiller les réseaux sociaux

Chevalier OpenAI à l'assaut de la menace
OpenAI a banni des comptes chinois cherchant à surveiller les réseaux sociaux

Dans son dernier rapport de sécurité, le fabricant de ChatGPT et Sora se penche sur les activités d’acteurs malveillants de langues chinoises, coréenne et russe. Au menu : vibe-coding, production marketing et traduction de vidéos de propagande.

Plusieurs comptes liés au gouvernement chinois auraient eu recours à ChatGPT pour créer des pistes de travail sur un système de surveillance des conversations sur les réseaux sociaux. La « République populaire de Chine fait de vrais progrès dans sa fabrication d’une version autocratique de l’IA », écrit OpenAI dans son dernier rapport de sécurité.

Parmi les comptes finalement bannis par OpenAI, cette dernière rapporte des usages de ChatGPT pour développer des outils de surveillance de grande échelle de réseaux sociaux occidentaux ou chinois, et pour générer des contenus de promotion de ces outils. L’un des utilisateurs bloqués avait ainsi généré des contenus vantant une « sonde » capable de scanner X, Facebook, Instagram, Reddit, TikTok et Youtube pour y repérer « ce que l’utilisateur décrivait comme des discours extrémistes et du contenu ethnique, religieux et politique ». Un autre avait recouru à ChatGPT pour créer une proposition de « modèle d’alerte précoce » relatif à la population Ouïghour.

Outre ce type d’usage, l’entreprise revient sur les pratiques des acteurs malveillants dont elle a récemment banni des comptes de ses systèmes. Elle s’attarde notamment sur les tentatives de création de malware d’un réseau de langue coréenne, ou encore sur les activités de vibe-coding (programmation par requêtes à un modèle d’IA) d’un réseau russe et sur le retour d’une opération de désinformation probablement produite par une agence de marketing russe, dont les activités avaient déjà été détaillées par l’agence gouvernementale française VIGINUM.

Vibe-coding malveillant

OpenAI indique par exemple avoir repéré un groupe de comptes recourant à ChatGPT pour tenter de développer des logiciels malveillants liés à des serveurs de command-and-control (C2). L’entreprise suspecte que ces comptes soient liés à une opération nord-coréenne de spear-phishing détaillée par Trellix, mais ne peut pas réaliser d’attribution certaine. Elle précise bloquer l’accès à ses services à la Corée du Nord.

Autre pratique de développement chez les usagers malveillants : OpenAI a repéré et banni plusieurs comptes de langue russe recourant à ChatGPT pour s’aider à développer des logiciels problématiques, dont un cheval de Troie, des outils pour voler des identifiants, ou encore des fonctionnalités visant à éviter la détection. Leurs auteurs auraient ensuite publié des démonstrations de leurs activités de développement dans un groupe Telegram dédié.

Toujours en langue russe, l’entreprise souligne la reprise d’activité d’un réseau d’acteurs bloqué une première fois en octobre 2024. Cette fois, ces derniers génèrent beaucoup moins d’images. En revanche, ils recourent à ChatGPT pour générer, en russe, des scripts et descriptions de vidéos courtes, puis pour traduire ces vidéos en français, en leur liant des descriptions et des hashtags de nature à favoriser leur référencement.

La plupart de ces contenus intègrent ou évoquent des événements liés à divers pays africains, avec pour propos principaux la critique des activités françaises et états-uniennes sur le continent, la promotion des intérêts russes, mais aussi la critique de l’Ukraine et de ses soutiens.

Multiplication des outils d’IA

En termes de pratique, les acteurs malveillants passent sans cesse d’un outil d’IA à l’autre, constate le fabricant de ChatGPT et Sora. De multiples comptes de langues chinoises recourent ainsi aux outils d’OpenAI pour générer leurs campagnes de phishing et de diffusion de malwares, y compris pour leur faire continuer des tâches entamées sur DeepSeek.

L’un des réseaux de génération de scams repérés par l’entreprise a par ailleurs mis en place des tactiques pour effacer certains des signes désormais connus de recours à l’IA – dont la présence récurrente de tirets cadratins. Leur usage est régulièrement qualifié, en ligne, de preuve qu’un texte a été généré par IA (nous promettons avoir écrit la phrase précédente sans recourir au moindre modèle de langage).

OpenAI relève enfin que les acteurs malveillants finalement bannis « tendent à intégrer l’IA à leurs processus de travail préexistants plutôt que de construire de nouveaux processus de travail autour de l’IA ».

  •  

OpenAI a banni des comptes chinois cherchant à surveiller les réseaux sociaux

Chevalier OpenAI à l'assaut de la menace
OpenAI a banni des comptes chinois cherchant à surveiller les réseaux sociaux

Dans son dernier rapport de sécurité, le fabricant de ChatGPT et Sora se penche sur les activités d’acteurs malveillants de langues chinoises, coréenne et russe. Au menu : vibe-coding, production marketing et traduction de vidéos de propagande.

Plusieurs comptes liés au gouvernement chinois auraient eu recours à ChatGPT pour créer des pistes de travail sur un système de surveillance des conversations sur les réseaux sociaux. La « République populaire de Chine fait de vrais progrès dans sa fabrication d’une version autocratique de l’IA », écrit OpenAI dans son dernier rapport de sécurité.

Parmi les comptes finalement bannis par OpenAI, cette dernière rapporte des usages de ChatGPT pour développer des outils de surveillance de grande échelle de réseaux sociaux occidentaux ou chinois, et pour générer des contenus de promotion de ces outils. L’un des utilisateurs bloqués avait ainsi généré des contenus vantant une « sonde » capable de scanner X, Facebook, Instagram, Reddit, TikTok et Youtube pour y repérer « ce que l’utilisateur décrivait comme des discours extrémistes et du contenu ethnique, religieux et politique ». Un autre avait recouru à ChatGPT pour créer une proposition de « modèle d’alerte précoce » relatif à la population Ouïghour.

Outre ce type d’usage, l’entreprise revient sur les pratiques des acteurs malveillants dont elle a récemment banni des comptes de ses systèmes. Elle s’attarde notamment sur les tentatives de création de malware d’un réseau de langue coréenne, ou encore sur les activités de vibe-coding (programmation par requêtes à un modèle d’IA) d’un réseau russe et sur le retour d’une opération de désinformation probablement produite par une agence de marketing russe, dont les activités avaient déjà été détaillées par l’agence gouvernementale française VIGINUM.

Vibe-coding malveillant

OpenAI indique par exemple avoir repéré un groupe de comptes recourant à ChatGPT pour tenter de développer des logiciels malveillants liés à des serveurs de command-and-control (C2). L’entreprise suspecte que ces comptes soient liés à une opération nord-coréenne de spear-phishing détaillée par Trellix, mais ne peut pas réaliser d’attribution certaine. Elle précise bloquer l’accès à ses services à la Corée du Nord.

Autre pratique de développement chez les usagers malveillants : OpenAI a repéré et banni plusieurs comptes de langue russe recourant à ChatGPT pour s’aider à développer des logiciels problématiques, dont un cheval de Troie, des outils pour voler des identifiants, ou encore des fonctionnalités visant à éviter la détection. Leurs auteurs auraient ensuite publié des démonstrations de leurs activités de développement dans un groupe Telegram dédié.

Toujours en langue russe, l’entreprise souligne la reprise d’activité d’un réseau d’acteurs bloqué une première fois en octobre 2024. Cette fois, ces derniers génèrent beaucoup moins d’images. En revanche, ils recourent à ChatGPT pour générer, en russe, des scripts et descriptions de vidéos courtes, puis pour traduire ces vidéos en français, en leur liant des descriptions et des hashtags de nature à favoriser leur référencement.

La plupart de ces contenus intègrent ou évoquent des événements liés à divers pays africains, avec pour propos principaux la critique des activités françaises et états-uniennes sur le continent, la promotion des intérêts russes, mais aussi la critique de l’Ukraine et de ses soutiens.

Multiplication des outils d’IA

En termes de pratique, les acteurs malveillants passent sans cesse d’un outil d’IA à l’autre, constate le fabricant de ChatGPT et Sora. De multiples comptes de langues chinoises recourent ainsi aux outils d’OpenAI pour générer leurs campagnes de phishing et de diffusion de malwares, y compris pour leur faire continuer des tâches entamées sur DeepSeek.

L’un des réseaux de génération de scams repérés par l’entreprise a par ailleurs mis en place des tactiques pour effacer certains des signes désormais connus de recours à l’IA – dont la présence récurrente de tirets cadratins. Leur usage est régulièrement qualifié, en ligne, de preuve qu’un texte a été généré par IA (nous promettons avoir écrit la phrase précédente sans recourir au moindre modèle de langage).

OpenAI relève enfin que les acteurs malveillants finalement bannis « tendent à intégrer l’IA à leurs processus de travail préexistants plutôt que de construire de nouveaux processus de travail autour de l’IA ».

  •