Netflix et Warner Bros ont annoncé vendredi la signature d’un accord selon les termes duquel le géant du streaming va racheter l’intégralité des studios de cinéma et de télévision, ainsi que le service HBO Max, pour une enveloppe globale de près de 83 milliards de dollars.
Netflix, qui développe depuis quinze ans son portefeuille de droits d’exploitation, s’apprête à franchir un cap : le géant du streaming a en effet confirmé vendredi la signature d’un accord avec Warner Bros Discovery. Il prévoit l’acquisition de la totalité du studio hollywoodien et de ses licences emblématiques, ainsi que de son service de streaming HBO Max, pour une valorisation totale de 82,7 milliards de dollars.
Un immense catalogue
Au terme de l’opération, qui devrait être bouclée au troisième trimestre 2026, Netflix détiendra les droits d’une longue liste de licences de premier plan, déclinées aussi bien en télévision qu’au cinéma, en parcs à thèmes ou en jeux vidéo. Dans le lot figurent notamment The Big Bang Theory, The Sopranos, Game of Thrones, l’univers DC, la franchise Harry Potter, Friends ou Citizen Kane… une longue liste de créations dont les droits viendront enrichir le catalogue développé en propre par Netflix.
L’acquisition se fait sur la base d’un montant de 27,75 dollars par action Warner Bros Discovery, dont 23,25 dollars en cash et le reste en actions Netflix.
Netflix indique que les studios Warner ont vocation à poursuivre leurs activités, et donc à développer des œuvres pour la télévision ou le cinéma. HBO et HBO Max sont également maintenus (au moins pour l’instant), dans la mesure où ils proposent une offre « complémentaire et attrayante pour les consommateurs ».
Pour Netflix, ce rapprochement se traduira par une amélioration de la qualité perçue par ses abonnés, notamment grâce à l’enrichissement de son offre avec les différents catalogues Warner. D’un point de vue plus opérationnel, l’entreprise dit également s’attendre à l’équivalent de 2 à 3 milliards de dollars par an en synergies, sans préciser l’éventuel impact en matière d’effectifs salariés.
Une opération complexe
Le plan se déroulera-t-il sans accroc ? Si les deux parties prenantes sont tombées d’accord, le succès de l’opération est conditionné à la réussite de quelques étapes clés. Warner Bros Discovery, issue de la fusion entre WarnerMedia et Discovery en 2022, doit d’abord boucler son processus de scission, annoncé en juin dernier. Ce dernier prévoit pour mémoire de scinder le groupe en deux, avec d’un côté les chaînes de télévision, et de l’autre les activités de studio désormais en passe de basculer chez Netflix.
La transaction devra également recueillir l’assentiment des autorités de la concurrence aux États-Unis, ce qui reviendra vraisemblablement à obtenir l’aval de la Maison-Blanche. Or sur ce point, la concurrence fourbit déjà ses armes, à l’image de Paramount, qui souhaitait de son côté racheter l’intégralité des activités de Warner. Le groupe dirigé par David Ellison (fils de Larry, patron d’Oracle) a laissé fuiter au Wall Street Journal la teneur de certains courriers adressés aux conseils de Warner et arguant que le rachat par Netflix créerait une situation problématique d’un point de vue antitrust.
Netflix et Warner Bros ont annoncé vendredi la signature d’un accord selon les termes duquel le géant du streaming va racheter l’intégralité des studios de cinéma et de télévision, ainsi que le service HBO Max, pour une enveloppe globale de près de 83 milliards de dollars.
Netflix, qui développe depuis quinze ans son portefeuille de droits d’exploitation, s’apprête à franchir un cap : le géant du streaming a en effet confirmé vendredi la signature d’un accord avec Warner Bros Discovery. Il prévoit l’acquisition de la totalité du studio hollywoodien et de ses licences emblématiques, ainsi que de son service de streaming HBO Max, pour une valorisation totale de 82,7 milliards de dollars.
Un immense catalogue
Au terme de l’opération, qui devrait être bouclée au troisième trimestre 2026, Netflix détiendra les droits d’une longue liste de licences de premier plan, déclinées aussi bien en télévision qu’au cinéma, en parcs à thèmes ou en jeux vidéo. Dans le lot figurent notamment The Big Bang Theory, The Sopranos, Game of Thrones, l’univers DC, la franchise Harry Potter, Friends ou Citizen Kane… une longue liste de créations dont les droits viendront enrichir le catalogue développé en propre par Netflix.
L’acquisition se fait sur la base d’un montant de 27,75 dollars par action Warner Bros Discovery, dont 23,25 dollars en cash et le reste en actions Netflix.
Netflix indique que les studios Warner ont vocation à poursuivre leurs activités, et donc à développer des œuvres pour la télévision ou le cinéma. HBO et HBO Max sont également maintenus (au moins pour l’instant), dans la mesure où ils proposent une offre « complémentaire et attrayante pour les consommateurs ».
Pour Netflix, ce rapprochement se traduira par une amélioration de la qualité perçue par ses abonnés, notamment grâce à l’enrichissement de son offre avec les différents catalogues Warner. D’un point de vue plus opérationnel, l’entreprise dit également s’attendre à l’équivalent de 2 à 3 milliards de dollars par an en synergies, sans préciser l’éventuel impact en matière d’effectifs salariés.
Une opération complexe
Le plan se déroulera-t-il sans accroc ? Si les deux parties prenantes sont tombées d’accord, le succès de l’opération est conditionné à la réussite de quelques étapes clés. Warner Bros Discovery, issue de la fusion entre WarnerMedia et Discovery en 2022, doit d’abord boucler son processus de scission, annoncé en juin dernier. Ce dernier prévoit pour mémoire de scinder le groupe en deux, avec d’un côté les chaînes de télévision, et de l’autre les activités de studio désormais en passe de basculer chez Netflix.
La transaction devra également recueillir l’assentiment des autorités de la concurrence aux États-Unis, ce qui reviendra vraisemblablement à obtenir l’aval de la Maison-Blanche. Or sur ce point, la concurrence fourbit déjà ses armes, à l’image de Paramount, qui souhaitait de son côté racheter l’intégralité des activités de Warner. Le groupe dirigé par David Ellison (fils de Larry, patron d’Oracle) a laissé fuiter au Wall Street Journal la teneur de certains courriers adressés aux conseils de Warner et arguant que le rachat par Netflix créerait une situation problématique d’un point de vue antitrust.
Microsoft procédera à compter du 1ᵉʳ juillet 2026 à une hausse de prix généralisée sur les différentes formules Microsoft 365 commercialisées en volume auprès des entreprises et du secteur public. L’éditeur justifie cette augmentation par l’introduction de nouvelles fonctionnalités et services, principalement liés à l’IA et aux produits Copilot.
Le changement n’interviendra qu’à l’été prochain, mais l’éditeur commence dès à présent à préparer le terrain : la plupart des abonnements professionnels Microsoft 365 verront leur prix augmenter à compter du 1ᵉʳ juillet prochain. La hausse varie dans des proportions importantes selon la formule envisagée. L’abonnement d’entrée de gamme Office 365 E1 reste par exemple facturé à 10 dollars, mais l’augmentation varie entre 8 % et 33 % pour les autres licences.
Jusqu’à 33 % de hausse
La hausse la plus notable concerne la licence Microsoft 365 F1, destinée aux « employés de première ligne » (frontline workers), c’est-à-dire les travailleurs qui ne disposent pas d’un poste attitré (vendeur en magasin, personnel hospitalier, etc.).
Microsoft annonce les nouveaux tarifs des licences Microsoft 365, en dollars, valables au 1er juillet 2026
L’annonce a été formulée par l’intermédiaire d’un billet de blog, illustré par des tarifs en dollars, valables aux États-Unis, mais l’éditeur précise bien qu’elle sera répercutée sur tous les marchés, avec toutefois de possibles variations. En Europe, rappelons que toutes ces offres sont également déclinées dans une version dépourvue des outils de communication Teams, au tarif révisé en conséquence.
Pour Microsoft, c’est avant tout l’enrichissement des offres qui justifie cette hausse de prix. L’éditeur annonce en effet que plusieurs produits ou services ont été ou seront bientôt intégrés au bouquet Microsoft 365. Il évoque notamment « des fonctionnalités de sécurité et de gestion supplémentaires, optimisées par l’IA ».
L’éditeur mentionne par exemple l’arrivée récente de Copilot Chat dans les principaux logiciels bureautiques de la suite (Word, Excel, etc.), et rappelle qu’il a annoncé, lors de la conférence Ignite 2025, son introduction à venir dans Outlook, avec la promesse d’outils de gestion adaptés pour les administrateurs systèmes. La suite devrait aussi s’enrichir de nouvelles options de gestion des terminaux et de support au sein des abonnements E3 et E5.
Microsoft annonce également l’introduction d’une option de vérification des URL au niveau des formules d’entrée de gamme, et l’arrivée de nouvelles fonctions de prévention des risques liés aux malwares ou au phishing dans Microsoft Defender au sein des plans d’abonnement les plus courants. Le tableau ci-dessous résume, selon l’éditeur, les ajouts programmés dans les différentes formules.
Copilot Chat s’invite dans toutes les formules entreprise
Hausses de prix en vue pour le secteur public
Les licences destinées au secteur public (gouvernements, institutions, etc.) vont elles aussi faire l’objet d’une hausse de prix, prévient Microsoft par l’intermédiaire d’une autre note d’information. Cette fois encore, la formule Office 365 E1 est épargnée, mais les autres abonnements subissent une hausse comprise entre 5 % et 13 %, résumée dans le tableau ci-dessous. Là encore, la hausse est programmée au 1ᵉʳ juillet 2026, avec toutefois une mise en œuvre en deux temps pour les licences Office 365 E3.
La hausse de 13 % sur les licences Office 365 E3 est appliquée en deux temps, avec une seconde échéance en juillet 2027
Rappelons que les formules Microsoft 365 grand public ont elles aussi fait l’objet d’une augmentation significative en 2025, justifiée principalement par l’intégration des fonctions IA liées à Copilot.
Microsoft procédera à compter du 1ᵉʳ juillet 2026 à une hausse de prix généralisée sur les différentes formules Microsoft 365 commercialisées en volume auprès des entreprises et du secteur public. L’éditeur justifie cette augmentation par l’introduction de nouvelles fonctionnalités et services, principalement liés à l’IA et aux produits Copilot.
Le changement n’interviendra qu’à l’été prochain, mais l’éditeur commence dès à présent à préparer le terrain : la plupart des abonnements professionnels Microsoft 365 verront leur prix augmenter à compter du 1ᵉʳ juillet prochain. La hausse varie dans des proportions importantes selon la formule envisagée. L’abonnement d’entrée de gamme Office 365 E1 reste par exemple facturé à 10 dollars, mais l’augmentation varie entre 8 % et 33 % pour les autres licences.
Jusqu’à 33 % de hausse
La hausse la plus notable concerne la licence Microsoft 365 F1, destinée aux « employés de première ligne » (frontline workers), c’est-à-dire les travailleurs qui ne disposent pas d’un poste attitré (vendeur en magasin, personnel hospitalier, etc.).
Microsoft annonce les nouveaux tarifs des licences Microsoft 365, en dollars, valables au 1er juillet 2026
L’annonce a été formulée par l’intermédiaire d’un billet de blog, illustré par des tarifs en dollars, valables aux États-Unis, mais l’éditeur précise bien qu’elle sera répercutée sur tous les marchés, avec toutefois de possibles variations. En Europe, rappelons que toutes ces offres sont également déclinées dans une version dépourvue des outils de communication Teams, au tarif révisé en conséquence.
Pour Microsoft, c’est avant tout l’enrichissement des offres qui justifie cette hausse de prix. L’éditeur annonce en effet que plusieurs produits ou services ont été ou seront bientôt intégrés au bouquet Microsoft 365. Il évoque notamment « des fonctionnalités de sécurité et de gestion supplémentaires, optimisées par l’IA ».
L’éditeur mentionne par exemple l’arrivée récente de Copilot Chat dans les principaux logiciels bureautiques de la suite (Word, Excel, etc.), et rappelle qu’il a annoncé, lors de la conférence Ignite 2025, son introduction à venir dans Outlook, avec la promesse d’outils de gestion adaptés pour les administrateurs systèmes. La suite devrait aussi s’enrichir de nouvelles options de gestion des terminaux et de support au sein des abonnements E3 et E5.
Microsoft annonce également l’introduction d’une option de vérification des URL au niveau des formules d’entrée de gamme, et l’arrivée de nouvelles fonctions de prévention des risques liés aux malwares ou au phishing dans Microsoft Defender au sein des plans d’abonnement les plus courants. Le tableau ci-dessous résume, selon l’éditeur, les ajouts programmés dans les différentes formules.
Copilot Chat s’invite dans toutes les formules entreprise
Hausses de prix en vue pour le secteur public
Les licences destinées au secteur public (gouvernements, institutions, etc.) vont elles aussi faire l’objet d’une hausse de prix, prévient Microsoft par l’intermédiaire d’une autre note d’information. Cette fois encore, la formule Office 365 E1 est épargnée, mais les autres abonnements subissent une hausse comprise entre 5 % et 13 %, résumée dans le tableau ci-dessous. Là encore, la hausse est programmée au 1ᵉʳ juillet 2026, avec toutefois une mise en œuvre en deux temps pour les licences Office 365 E3.
La hausse de 13 % sur les licences Office 365 E3 est appliquée en deux temps, avec une seconde échéance en juillet 2027
Rappelons que les formules Microsoft 365 grand public ont elles aussi fait l’objet d’une augmentation significative en 2025, justifiée principalement par l’intégration des fonctions IA liées à Copilot.
Les grandes manœuvres financières se poursuivent sur le terrain de l’IA générative, avec une révélation de taille : Anthropic, éditeur de Claude, étudierait les modalités d’une introduction en bourse dès 2026. OpenAI aurait pour sa part décidé de retarder son offensive dans la publicité en ligne, en raison d’une consigne d’urgence passée par Sam Altman. Celui-ci s’inquiéterait en effet de l’accueil réservé à Gemini 3, que Google diffuse le plus largement possible…
Alors que la rumeur prête à OpenAI l’intention d’aller chercher le carburant nécessaire à sa frénésie d’investissements en bourse, l’éditeur de ChatGPT pourrait-il se faire damer le pion par son concurrent Anthropic ? C’est l’une des questions qui a animé les milieux financiers de la tech cette semaine, après que le Financial Times a révélé mercredi que la maison mère des modèles de langage Claude travaillait à la question avec son conseil, le cabinet Wilson Sonsini.
Anthropic sur le sentier de la bourse ?
À ce stade, il ne s’agit encore que de bruits de couloir, mais ces derniers résonnent assez fort pour que le quotidien britannique se risque à avancer cette éventualité d’une introduction en bourse, pour laquelle Dario Amodei et ses équipes auraient déjà sondé plusieurs grandes banques. Une autre source évoque un processus engagé dès 2026.
Du côté d’Anthropic, on répond qu’il est naturel, à ce niveau d’activités, d’étudier les différentes options stratégiques possibles, sans confirmer quoi que ce soit. « Nous n’avons pris aucune décision quant à une date ou même une éventuelle ouverture [du capital, ndlr] au public, et nous n’avons aucune information à partager pour le moment », indique un porte-parole.
L’entrée en bourse d’Anthropic constituerait à n’en pas douter une opération d’un montant record, d’où l’attention particulière accordée au sujet. Le dernier tour de financement réalisé par l’entreprise, mi-novembre, portait sur 15 milliards de dollars, amenés par NVIDIA et Microsoft, en échange de promesses d’achat de composants et de services cloud, conformément à la logique d’engagements circulaires qui semble désormais prévaloir dans le secteur.
Cet accord tripartite a été conclu, estime le FT, sur la base d’une capitalisation comprise entre 300 et 350 milliards de dollars pour Anthropic. Une introduction en bourse signifierait une nouvelle révision à la hausse de cette valorisation, sur un marché dont la dimension spéculative et les montages financiers hasardeux font redouter à certains l’éclatement à venir d’une bulle de l’IA…
L’entrée, à Wall Street, des deux pure players les plus emblématiques du secteur déplacerait par ailleurs leur rivalité vers un nouveau terrain de jeu, purement financier cette fois. De quoi, sans doute, soutenir un phénomène à venir de concentration dans le secteur.
Anthropic vient à ce sujet d’annoncer l’acquisition de Bun, éditeur d’un framework JavaScript open source qui sous-tend déjà le fonctionnement de certains composants de Claude Code. Reste à savoir pourquoi Anthropic n’a pas fait créer un fork de Bun à son IA, si cette dernière est si performante, s’interroge un internaute taquin.
« Code rouge » autour de ChatGPT chez OpenAI
En attendant, la bataille se joue à l’échelle commerciale bien sûr – comme en témoignent les nombreux accords annoncés entre acteurs de l’IA et poids lourds des pans plus traditionnels de l’économie –, mais aussi technique. Et sur ce point, c’est Google qui semble avoir pris l’avantage, au moins temporairement, avec la sortie de Gemini 3 Pro, dont les performances sont globalement saluées.
En matière de communication, Google s’est d’ailleurs trouvé un allié de poids, en la personne de Marc Benioff, CEO de Salesforce, qui a littéralement encensé Gemini 3 le 23 novembre dernier : « Bordel de merde. J’utilise ChatGPT tous les jours depuis 3 ans. Je viens de passer deux heures sur Gemini 3. Je ne reviendrai pas en arrière ».
Marc Benioff, VRP pas super élégant mais très efficace de Gemini 3 – capture d’écran Next
Le succès de Gemini 3 n’a pas laissé Sam Altman indifférent, c’est peu de le dire. Dans un mémo interne, envoyé lundi 1ᵉʳ décembre aux équipes d’OpenAI et révélé par The Information, le patron d’OpenAI a annoncé un « code rouge », face à ce qu’il considère comme une « situation critique » pour ChatGPT. L’alerte se traduirait par un focus accru sur le développement produit de ChatGPT, quitte à retarder ou abandonner certains projets connexes.
« Notre priorité est désormais de continuer à améliorer ChatGPT, de poursuivre sa croissance et d’étendre son accessibilité à travers le monde, tout en le rendant encore plus intuitif et personnalisé », a souligné publiquement Nick Tuley, patron de ChatGPT chez OpenAI, tout en se réjouissant des résultats accomplis au cours de ces trois premières années de mise à disposition au public.
De la pub dans ChatGPT… mais quand ?
Le code rouge prononcé par Sam Altman pourrait avoir un effet sur un des sujets les plus stratégiques qui soient pour OpenAI : la monétisation via la publicité. D’après The Information, l’intégration de publicités au sein de ChatGPT ferait en effet partie des dossiers sortis du haut de la pile, alors même que l’entreprise a besoin de justifier de revenus en hausse pour soutenir sa recherche de financements.
OpenAI n’a pas communiqué publiquement sur ses velléités en matière de publicités, mais une confirmation de ses travaux sur le sujet a fait surface fin novembre. Des internautes ont effet découvert, au sein d’une bêta de l’application Android de ChatGPT, des mentions à l’intitulé explicitement rattaché à l’affichage de réclames, telles que ads feature, bazaar content, search ad, ou search ads carousel.
Le sujet n’est pas trivial : pour être efficace, la réclame au sein de ChatGPT devra en effet être contextualisée soit en fonction des requêtes de l’utilisateur (ce qui pose des questions de neutralité dans la génération de la réponse), soit en fonction de la connaissance qu’a le modèle de l’utilisateur (et donc d’éléments relevant de sa vie privée).
Google ouvre les vannes sur Gemini 3, puis les referme (un peu)
S’il y en a dont les projets en la matière seront scrutés de près, c’est bien sûr Google, qui dispose avec son moteur de recherche, Android et Chrome, de multiples points de contact pour toucher l’internaute et lui dispenser des services d’IA générative financés par la publicité.
Et Google semble bien décidée à accélérer la conquête de nouveaux utilisateurs. Si OpenAI caracole en tête en revendiquant 800 millions d’utilisateurs par semaine sur ChatGPT, Google est de son côté passé de 450 millions à 650 millions d’utilisateurs actifs mensuels, selon les déclarations d’Alphabet lors de la présentation de ses derniers résultats financiers.
Pour continuer sur cette lancée, Google joue la carte de la synergie. Les abonnés à l’offre de stockage cloud Google One Premium ont ainsi reçu cette semaine une invitation à profiter sans surcoût des avantages de l’abonnement AI Plus, qui intègre un accès plus généreux à Gemini 3 Pro et Nano Banana pour les images. La dernière version du modèle s’est également invitée dans l’AI Mode, l’agent conversationnel de recherche de Google (encore non disponible en France) qui constitue une alternative à la traditionnelle liste de liens.
Problème : gagner des utilisateurs coûte cher, et tous ne basculent pas vers des formules payantes, ce qui conduit dans le même temps Google, comme OpenAI, à limiter en volume les possibilités offertes en version gratuite. Chez OpenAI, c’est au niveau de Sora, le modèle de génération vidéo, que la barre est abaissée à six requêtes par jour, contre trente précédemment. « Nos cartes graphiques surchauffent, et nous voulons permettre au plus grand nombre de personnes possible d’accéder à Sora ! », explique Bill Peebles, patron de Sora, dans un message du 28 novembre.
La veille, Google avait procédé à un mouvement similaire, en réduisant les paliers d’utilisation gratuite de Gemini 3 Pro et de Nano Banana.
Les grandes manœuvres financières se poursuivent sur le terrain de l’IA générative, avec une révélation de taille : Anthropic, éditeur de Claude, étudierait les modalités d’une introduction en bourse dès 2026. OpenAI aurait pour sa part décidé de retarder son offensive dans la publicité en ligne, en raison d’une consigne d’urgence passée par Sam Altman. Celui-ci s’inquiéterait en effet de l’accueil réservé à Gemini 3, que Google diffuse le plus largement possible…
Alors que la rumeur prête à OpenAI l’intention d’aller chercher le carburant nécessaire à sa frénésie d’investissements en bourse, l’éditeur de ChatGPT pourrait-il se faire damer le pion par son concurrent Anthropic ? C’est l’une des questions qui a animé les milieux financiers de la tech cette semaine, après que le Financial Times a révélé mercredi que la maison mère des modèles de langage Claude travaillait à la question avec son conseil, le cabinet Wilson Sonsini.
Anthropic sur le sentier de la bourse ?
À ce stade, il ne s’agit encore que de bruits de couloir, mais ces derniers résonnent assez fort pour que le quotidien britannique se risque à avancer cette éventualité d’une introduction en bourse, pour laquelle Dario Amodei et ses équipes auraient déjà sondé plusieurs grandes banques. Une autre source évoque un processus engagé dès 2026.
Du côté d’Anthropic, on répond qu’il est naturel, à ce niveau d’activités, d’étudier les différentes options stratégiques possibles, sans confirmer quoi que ce soit. « Nous n’avons pris aucune décision quant à une date ou même une éventuelle ouverture [du capital, ndlr] au public, et nous n’avons aucune information à partager pour le moment », indique un porte-parole.
L’entrée en bourse d’Anthropic constituerait à n’en pas douter une opération d’un montant record, d’où l’attention particulière accordée au sujet. Le dernier tour de financement réalisé par l’entreprise, mi-novembre, portait sur 15 milliards de dollars, amenés par NVIDIA et Microsoft, en échange de promesses d’achat de composants et de services cloud, conformément à la logique d’engagements circulaires qui semble désormais prévaloir dans le secteur.
Cet accord tripartite a été conclu, estime le FT, sur la base d’une capitalisation comprise entre 300 et 350 milliards de dollars pour Anthropic. Une introduction en bourse signifierait une nouvelle révision à la hausse de cette valorisation, sur un marché dont la dimension spéculative et les montages financiers hasardeux font redouter à certains l’éclatement à venir d’une bulle de l’IA…
L’entrée, à Wall Street, des deux pure players les plus emblématiques du secteur déplacerait par ailleurs leur rivalité vers un nouveau terrain de jeu, purement financier cette fois. De quoi, sans doute, soutenir un phénomène à venir de concentration dans le secteur.
Anthropic vient à ce sujet d’annoncer l’acquisition de Bun, éditeur d’un framework JavaScript open source qui sous-tend déjà le fonctionnement de certains composants de Claude Code. Reste à savoir pourquoi Anthropic n’a pas fait créer un fork de Bun à son IA, si cette dernière est si performante, s’interroge un internaute taquin.
« Code rouge » autour de ChatGPT chez OpenAI
En attendant, la bataille se joue à l’échelle commerciale bien sûr – comme en témoignent les nombreux accords annoncés entre acteurs de l’IA et poids lourds des pans plus traditionnels de l’économie –, mais aussi technique. Et sur ce point, c’est Google qui semble avoir pris l’avantage, au moins temporairement, avec la sortie de Gemini 3 Pro, dont les performances sont globalement saluées.
En matière de communication, Google s’est d’ailleurs trouvé un allié de poids, en la personne de Marc Benioff, CEO de Salesforce, qui a littéralement encensé Gemini 3 le 23 novembre dernier : « Bordel de merde. J’utilise ChatGPT tous les jours depuis 3 ans. Je viens de passer deux heures sur Gemini 3. Je ne reviendrai pas en arrière ».
Marc Benioff, VRP pas super élégant mais très efficace de Gemini 3 – capture d’écran Next
Le succès de Gemini 3 n’a pas laissé Sam Altman indifférent, c’est peu de le dire. Dans un mémo interne, envoyé lundi 1ᵉʳ décembre aux équipes d’OpenAI et révélé par The Information, le patron d’OpenAI a annoncé un « code rouge », face à ce qu’il considère comme une « situation critique » pour ChatGPT. L’alerte se traduirait par un focus accru sur le développement produit de ChatGPT, quitte à retarder ou abandonner certains projets connexes.
« Notre priorité est désormais de continuer à améliorer ChatGPT, de poursuivre sa croissance et d’étendre son accessibilité à travers le monde, tout en le rendant encore plus intuitif et personnalisé », a souligné publiquement Nick Tuley, patron de ChatGPT chez OpenAI, tout en se réjouissant des résultats accomplis au cours de ces trois premières années de mise à disposition au public.
De la pub dans ChatGPT… mais quand ?
Le code rouge prononcé par Sam Altman pourrait avoir un effet sur un des sujets les plus stratégiques qui soient pour OpenAI : la monétisation via la publicité. D’après The Information, l’intégration de publicités au sein de ChatGPT ferait en effet partie des dossiers sortis du haut de la pile, alors même que l’entreprise a besoin de justifier de revenus en hausse pour soutenir sa recherche de financements.
OpenAI n’a pas communiqué publiquement sur ses velléités en matière de publicités, mais une confirmation de ses travaux sur le sujet a fait surface fin novembre. Des internautes ont effet découvert, au sein d’une bêta de l’application Android de ChatGPT, des mentions à l’intitulé explicitement rattaché à l’affichage de réclames, telles que ads feature, bazaar content, search ad, ou search ads carousel.
Le sujet n’est pas trivial : pour être efficace, la réclame au sein de ChatGPT devra en effet être contextualisée soit en fonction des requêtes de l’utilisateur (ce qui pose des questions de neutralité dans la génération de la réponse), soit en fonction de la connaissance qu’a le modèle de l’utilisateur (et donc d’éléments relevant de sa vie privée).
Google ouvre les vannes sur Gemini 3, puis les referme (un peu)
S’il y en a dont les projets en la matière seront scrutés de près, c’est bien sûr Google, qui dispose avec son moteur de recherche, Android et Chrome, de multiples points de contact pour toucher l’internaute et lui dispenser des services d’IA générative financés par la publicité.
Et Google semble bien décidée à accélérer la conquête de nouveaux utilisateurs. Si OpenAI caracole en tête en revendiquant 800 millions d’utilisateurs par semaine sur ChatGPT, Google est de son côté passé de 450 millions à 650 millions d’utilisateurs actifs mensuels, selon les déclarations d’Alphabet lors de la présentation de ses derniers résultats financiers.
Pour continuer sur cette lancée, Google joue la carte de la synergie. Les abonnés à l’offre de stockage cloud Google One Premium ont ainsi reçu cette semaine une invitation à profiter sans surcoût des avantages de l’abonnement AI Plus, qui intègre un accès plus généreux à Gemini 3 Pro et Nano Banana pour les images. La dernière version du modèle s’est également invitée dans l’AI Mode, l’agent conversationnel de recherche de Google (encore non disponible en France) qui constitue une alternative à la traditionnelle liste de liens.
Problème : gagner des utilisateurs coûte cher, et tous ne basculent pas vers des formules payantes, ce qui conduit dans le même temps Google, comme OpenAI, à limiter en volume les possibilités offertes en version gratuite. Chez OpenAI, c’est au niveau de Sora, le modèle de génération vidéo, que la barre est abaissée à six requêtes par jour, contre trente précédemment. « Nos cartes graphiques surchauffent, et nous voulons permettre au plus grand nombre de personnes possible d’accéder à Sora ! », explique Bill Peebles, patron de Sora, dans un message du 28 novembre.
La veille, Google avait procédé à un mouvement similaire, en réduisant les paliers d’utilisation gratuite de Gemini 3 Pro et de Nano Banana.
Micron invoque les tensions grandissantes sur l’approvisionnement en mémoire provoquées par les investissements dans l’IA pour justifier une décision radicale : sa sortie prochaine du marché grand public. Ce faisant, il met un terme à la marque Crucial, bien connue des amateurs de hardware.
Les tensions déjà à l’œuvre sur le marché grand public de la mémoire, vive ou flash, risquent de s’accentuer. Le groupe états-unien Micron vient en effet d’annoncer la fin de ses activités grand public, qui s’incarnaient jusqu’ici au travers de la marque Crucial. Il acte sa décision au travers d’un communiqué daté du 3 décembre, qui précise que la vente des produits Crucial va s’interrompre sur tous les canaux de distribution, à l’échelle mondiale.
Des lignes reconverties vers des marchés plus porteurs
S’il prend soin de remercier les équipes et les clients de la marque Crucial, active pendant 29 ans, et souligne le caractère « difficile » de cette décision, le groupe assume la dimension stratégique de cette dernière. Ce mouvement témoignerait « de l’engagement de Micron envers la transformation continue de son portefeuille et l’alignement qui en résulte de ses activités sur des vecteurs de croissance structurels et rentables dans le domaine de la mémoire et du stockage », enrobe le communiqué.
« Alimentée par l’IA, la croissance des centres de données a entraîné une forte augmentation de la demande en mémoire et en stockage. Micron a pris la difficile décision de se retirer du marché grand public de Crucial afin d’améliorer l’approvisionnement et le support pour ses clients stratégiques les plus importants dans les segments à forte croissance », décrit de façon plus explicite Sumit Sadana, vice président exécutif du groupe des activités.
Micron indique que l’approvisionnement en produits Crucial sera assuré jusqu’en février 2026, et promet que le support et le service après-vente seront assurés au-delà de cette date. Les produits RAM et NAND vendus sous la marque Micron sur le marché professionnel (serveurs notamment) resteront quant à eux disponibles. Les lignes précédemment dévolues à la fabrication des puces DDR et NAND intégrées aux barrettes et SSD Crucial seront quant à elles reconverties vers des segments de marché plus lucratifs.
Micron ne précise pas si ses lignes de production de GDDR7, dont les puces équipent une partie des cartes graphiques pour joueurs de la série RTX 5000 chez NVIDIA, sont concernées par ce mouvement.
Etabli par Trendforce, ce tableau classe les principaux fournisseurs de DRAM du marché en fonction de leur chiffre d’affaires et de leurs parts de marché sur le troisième trimestre 2025. Micron arrive en troisième position
Pénurie à venir, des effets déjà sensibles
Cette annonce intervient alors que les analystes évoquent depuis plusieurs semaines une possible pénurie à venir sur le marché de la mémoire. Alors que la demande globale ne cesse d’augmenter, les principaux acteurs du secteur que sont Samsung, SK Hynix et Micron concentrent en effet leurs capacités de production, actuelles ou en cours de développement, vers les segments associés à l’IA générative : la mémoire vive DDR pour serveurs et surtout la mémoire HBM (High Bandwidth Memory) utilisée au sein des puces spécialisées dans l’IA, qu’il s’agisse des composants signés NVIDIA, des derniers TPU de Google ou des produits développés par Amazon.
Il faut dire que la demande, nourrie par les promesses d’investissement de tous les grands noms de l’IA, est phénoménale. Début 2024, le Coréen SK Hynix indiquait par exemple avoir déjà vendu la quasi-totalité de sa production prévisionnelle pour 2025. Le phénomène s’est depuis considérablement accéléré, et les tensions déjà sensibles devraient s’accentuer, sur la DDR comme sur la NAND.
D’après le cabinet spécialisé Trendforce, les fournisseurs de mémoire flash n’auraient plus que sept à dix semaines de stock d’avance, contre 10 à 15 semaines un trimestre plus tôt. Côté mémoire vive, les leaders coréens Samsung et SK Hynix ont tous deux émis des alertes quant à la disponibilité de leurs puces DRAM. Le premier serait par exemple en mesure de ne traiter que 70 % des demandes entrantes, et ne verrait pas l’horizon s’éclaircir avant 2028.
Reste à voir quels seront les effets concrets de cette pénurie sur le marché de l’informatique grand public ou professionnelle, hors serveurs. Doc_TB, ancien de Canard PC Hardware qui accompagne LDLC sur des sujets d’approvisionnement et de création de composants en marque blanche, remarque que les difficultés déjà à l’oeuvre font revenir un phénomène oublié de longue date : celui des barrettes DDR no-name, faisant appel à des puces mémoire déclassées (n’ayant pas rempli les exigences de contrôle qualité pour être intégrées sur des produits de grande marque).
Micron invoque les tensions grandissantes sur l’approvisionnement en mémoire provoquées par les investissements dans l’IA pour justifier une décision radicale : sa sortie prochaine du marché grand public. Ce faisant, il met un terme à la marque Crucial, bien connue des amateurs de hardware.
Les tensions déjà à l’œuvre sur le marché grand public de la mémoire, vive ou flash, risquent de s’accentuer. Le groupe états-unien Micron vient en effet d’annoncer la fin de ses activités grand public, qui s’incarnaient jusqu’ici au travers de la marque Crucial. Il acte sa décision au travers d’un communiqué daté du 3 décembre, qui précise que la vente des produits Crucial va s’interrompre sur tous les canaux de distribution, à l’échelle mondiale.
Des lignes reconverties vers des marchés plus porteurs
S’il prend soin de remercier les équipes et les clients de la marque Crucial, active pendant 29 ans, et souligne le caractère « difficile » de cette décision, le groupe assume la dimension stratégique de cette dernière. Ce mouvement témoignerait « de l’engagement de Micron envers la transformation continue de son portefeuille et l’alignement qui en résulte de ses activités sur des vecteurs de croissance structurels et rentables dans le domaine de la mémoire et du stockage », enrobe le communiqué.
« Alimentée par l’IA, la croissance des centres de données a entraîné une forte augmentation de la demande en mémoire et en stockage. Micron a pris la difficile décision de se retirer du marché grand public de Crucial afin d’améliorer l’approvisionnement et le support pour ses clients stratégiques les plus importants dans les segments à forte croissance », décrit de façon plus explicite Sumit Sadana, vice président exécutif du groupe des activités.
Micron indique que l’approvisionnement en produits Crucial sera assuré jusqu’en février 2026, et promet que le support et le service après-vente seront assurés au-delà de cette date. Les produits RAM et NAND vendus sous la marque Micron sur le marché professionnel (serveurs notamment) resteront quant à eux disponibles. Les lignes précédemment dévolues à la fabrication des puces DDR et NAND intégrées aux barrettes et SSD Crucial seront quant à elles reconverties vers des segments de marché plus lucratifs.
Micron ne précise pas si ses lignes de production de GDDR7, dont les puces équipent une partie des cartes graphiques pour joueurs de la série RTX 5000 chez NVIDIA, sont concernées par ce mouvement.
Etabli par Trendforce, ce tableau classe les principaux fournisseurs de DRAM du marché en fonction de leur chiffre d’affaires et de leurs parts de marché sur le troisième trimestre 2025. Micron arrive en troisième position
Pénurie à venir, des effets déjà sensibles
Cette annonce intervient alors que les analystes évoquent depuis plusieurs semaines une possible pénurie à venir sur le marché de la mémoire. Alors que la demande globale ne cesse d’augmenter, les principaux acteurs du secteur que sont Samsung, SK Hynix et Micron concentrent en effet leurs capacités de production, actuelles ou en cours de développement, vers les segments associés à l’IA générative : la mémoire vive DDR pour serveurs et surtout la mémoire HBM (High Bandwidth Memory) utilisée au sein des puces spécialisées dans l’IA, qu’il s’agisse des composants signés NVIDIA, des derniers TPU de Google ou des produits développés par Amazon.
Il faut dire que la demande, nourrie par les promesses d’investissement de tous les grands noms de l’IA, est phénoménale. Début 2024, le Coréen SK Hynix indiquait par exemple avoir déjà vendu la quasi-totalité de sa production prévisionnelle pour 2025. Le phénomène s’est depuis considérablement accéléré, et les tensions déjà sensibles devraient s’accentuer, sur la DDR comme sur la NAND.
D’après le cabinet spécialisé Trendforce, les fournisseurs de mémoire flash n’auraient plus que sept à dix semaines de stock d’avance, contre 10 à 15 semaines un trimestre plus tôt. Côté mémoire vive, les leaders coréens Samsung et SK Hynix ont tous deux émis des alertes quant à la disponibilité de leurs puces DRAM. Le premier serait par exemple en mesure de ne traiter que 70 % des demandes entrantes, et ne verrait pas l’horizon s’éclaircir avant 2028.
Reste à voir quels seront les effets concrets de cette pénurie sur le marché de l’informatique grand public ou professionnelle, hors serveurs. Doc_TB, ancien de Canard PC Hardware qui accompagne LDLC sur des sujets d’approvisionnement et de création de composants en marque blanche, remarque que les difficultés déjà à l’oeuvre font revenir un phénomène oublié de longue date : celui des barrettes DDR no-name, faisant appel à des puces mémoire déclassées (n’ayant pas rempli les exigences de contrôle qualité pour être intégrées sur des produits de grande marque).
Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).
Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.
« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.
Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).
Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.
Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next
Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).
Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.
« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.
Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).
Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.
Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next
Cofinancé depuis 2023 par Xavier Niel (Free), Rodolphe Saadé (CMA-CGM) et Eric Schmidt (ex Google), le laboratoire de recherche Kyutai vient d’accoucher de son premier spin-off commercial, une startup baptisée Gradium. Quelques bonnes fées se sont déjà penchées sur le berceau de Gradium puisque pour fêter son lancement officiel, la jeune pousse annonce mardi avoir bouclé un premier tour de table de 70 millions de dollars (environ 60 millions d’euros).
« S’appuyant sur plus d’une décennie de recherche de pointe, notre mission est simple et ambitieuse :fournir les bases d’une IA capable de proposer en temps réel une voix naturelle qui soit l’interface homme-machine par défaut », indique Gradium, dont le casting de départ réunit plusieurs des chercheurs fondateurs de Kuytai.
L’équipe de départ, qui compte dix personnes, est ainsi emmenée par Neil Zeghidour (ex Meta/Google DeepMind), Olivier Teboul (ex Google Brain), Laurent Mazaré (ex Google DeepMind/Jane Street) et Alexandre Défossez (ex Meta).
Moins de six mois après son immatriculation et trois mois après le début de ses activités, Gradium revendique déjà des outils de synthèse audio ou de transcription vocale en production, notamment au sein de studios de jeu vidéo, ou dans des plateformes linguistiques. « La plateforme accompagne aussi bien les développeurs que les entreprises, de l’accès API pour le prototypage rapide aux déploiements en entreprise pour les charges de travail en production », affirme l’entreprise, qui donne à tester certains de ses modèles sur son site Web et fournit des éléments de documentation technique.
Menée par les fonds Eurazeo et FirstMark Capital, cette levée de fonds associe DST Global Partners, Korelya Capital (Fleur Pellerin), Amplify Partners, Liquid2 et Drysdale Ventures, ainsi que les trois soutiens historiques de Kyutai que sont Niel, Saadé et Schmidt. Yann LeCun (sur le départ de Meta), Olivier Pomel (Datadog), Ilkka Paananen (Supercell), Thomas Wolf (Hugging Face), Guillermo Rauch (Vercel) et Mehdi Ghissassi (ex Deepmind) complètent le tour au rang des business angels.
Gradium propose des modèles de synthèse vocale (text to speech) et de transcription (speech to text)
Cofinancé depuis 2023 par Xavier Niel (Free), Rodolphe Saadé (CMA-CGM) et Eric Schmidt (ex Google), le laboratoire de recherche Kyutai vient d’accoucher de son premier spin-off commercial, une startup baptisée Gradium. Quelques bonnes fées se sont déjà penchées sur le berceau de Gradium puisque pour fêter son lancement officiel, la jeune pousse annonce mardi avoir bouclé un premier tour de table de 70 millions de dollars (environ 60 millions d’euros).
« S’appuyant sur plus d’une décennie de recherche de pointe, notre mission est simple et ambitieuse :fournir les bases d’une IA capable de proposer en temps réel une voix naturelle qui soit l’interface homme-machine par défaut », indique Gradium, dont le casting de départ réunit plusieurs des chercheurs fondateurs de Kuytai.
L’équipe de départ, qui compte dix personnes, est ainsi emmenée par Neil Zeghidour (ex Meta/Google DeepMind), Olivier Teboul (ex Google Brain), Laurent Mazaré (ex Google DeepMind/Jane Street) et Alexandre Défossez (ex Meta).
Moins de six mois après son immatriculation et trois mois après le début de ses activités, Gradium revendique déjà des outils de synthèse audio ou de transcription vocale en production, notamment au sein de studios de jeu vidéo, ou dans des plateformes linguistiques. « La plateforme accompagne aussi bien les développeurs que les entreprises, de l’accès API pour le prototypage rapide aux déploiements en entreprise pour les charges de travail en production », affirme l’entreprise, qui donne à tester certains de ses modèles sur son site Web et fournit des éléments de documentation technique.
Menée par les fonds Eurazeo et FirstMark Capital, cette levée de fonds associe DST Global Partners, Korelya Capital (Fleur Pellerin), Amplify Partners, Liquid2 et Drysdale Ventures, ainsi que les trois soutiens historiques de Kyutai que sont Niel, Saadé et Schmidt. Yann LeCun (sur le départ de Meta), Olivier Pomel (Datadog), Ilkka Paananen (Supercell), Thomas Wolf (Hugging Face), Guillermo Rauch (Vercel) et Mehdi Ghissassi (ex Deepmind) complètent le tour au rang des business angels.
Gradium propose des modèles de synthèse vocale (text to speech) et de transcription (speech to text)
France Travail a indiqué lundi 1ᵉʳ décembre avoir été victime d’un acte de cyber malveillance ayant entraîné une fuite de données personnelles. En l’occurrence, ce sont les informations relatives à environ 1,6 million de jeunes suivis par le réseau des Missions Locales (antennes dédiées à l’insertion faisant partie du service public de l’emploi) qui sont concernées, soit parce qu’ils étaient inscrits à France Travail, soit parce qu’ils s’étaient vu prescrire une formation via l’outil Ouiform opéré par France Travail.
1,6 million de comptes de jeunes inscrits à la mission locale
Le jeu de données exfiltrées comprend des informations complètes d’état civil : nom et prénom, date de naissance, numéro de sécurité sociale, identifiant France Travail, adresses mail et postale et numéros de téléphone, indiquent France Travail et le réseau des Missions Locales dans un communiqué commun. « Aucun mot de passe ni aucune coordonnée bancaire n’ont été extraits », ajoutent les deux organismes.
D’après les premières investigations, c’est par l’intermédiaire du compte d’un agent d’une mission locale que l’intrusion aurait été réalisée. En tant que responsable gestion de compte (RGC), ce dernier était en mesure de traiter les demandes d’habilitation de ses collègues (et donc d’autres comptes utilisateurs) au système d’information partagé mis en place par France Travail pour faciliter la collaboration avec des organismes tiers.
France Travail et l’UNML (Union nationale des missions locales) « appellent à la vigilance »
« En utilisant les droits du compte compromis, l’attaquant a pu créer deux nouveaux comptes via le service ProConnect, donnant ensuite l’accès aux outils métier permettant la consultation des dossiers des jeunes accompagnés », décrit France Travail, qui affirme que les trois comptes concernés ont été suspendus, et assure faire son maximum pour concilier ouverture et protection des données personnelles.
Ouverture contre sécurité
« Avec l’ouverture de son système d’information aux partenaires dans le cadre de la loi pour le plein emploi, France Travail avait déjà mis en place la double authentification systématique de tous les collaborateurs de ses partenaires et rendu obligatoire une formation pour tous les RGC. L’accès au SI de France Travail est en outre conditionné à la réussite d’une évaluation à l’issue de cette formation. France Travail va désormais aller plus loin en mettant en place une sensibilisation obligatoire à renouveler tous les 6 mois pour tous les collaborateurs de nos partenaires qui conditionnera leur accès au système d’information. »
France Travail affirme par ailleurs collaborer avec la Direction interministérielle du numérique (Dinum) « pour renforcer l’identification via Proconnect et l’enrôlement des comptes de tiers par le SI France Travail ». En attendant, la prudence est donc de mise pour les jeunes en recherche d’emploi passés par la mission locale la plus proche de chez eux : le périmètre des données exposées autorise en effet des scénarios avancés de phishing ou d’usurpation d’identité.
Ce nouvel incident ne redorera pas le blason d’un service public de l’emploi déjà largement terni en matière de fuites de données. Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.
Depuis, France Travail a dû communiquer sur une fuite affectant 340 000 dossiers en juillet, survenue par l’intermédiaire d’un portail dédié à ses partenaires, puis sur un nouvel incident fin octobre, qui pourrait concerner jusqu’à 31 000 personnes.
France Travail a indiqué lundi 1ᵉʳ décembre avoir été victime d’un acte de cyber malveillance ayant entraîné une fuite de données personnelles. En l’occurrence, ce sont les informations relatives à environ 1,6 million de jeunes suivis par le réseau des Missions Locales (antennes dédiées à l’insertion faisant partie du service public de l’emploi) qui sont concernées, soit parce qu’ils étaient inscrits à France Travail, soit parce qu’ils s’étaient vu prescrire une formation via l’outil Ouiform opéré par France Travail.
1,6 million de comptes de jeunes inscrits à la mission locale
Le jeu de données exfiltrées comprend des informations complètes d’état civil : nom et prénom, date de naissance, numéro de sécurité sociale, identifiant France Travail, adresses mail et postale et numéros de téléphone, indiquent France Travail et le réseau des Missions Locales dans un communiqué commun. « Aucun mot de passe ni aucune coordonnée bancaire n’ont été extraits », ajoutent les deux organismes.
D’après les premières investigations, c’est par l’intermédiaire du compte d’un agent d’une mission locale que l’intrusion aurait été réalisée. En tant que responsable gestion de compte (RGC), ce dernier était en mesure de traiter les demandes d’habilitation de ses collègues (et donc d’autres comptes utilisateurs) au système d’information partagé mis en place par France Travail pour faciliter la collaboration avec des organismes tiers.
France Travail et l’UNML (Union nationale des missions locales) « appellent à la vigilance »
« En utilisant les droits du compte compromis, l’attaquant a pu créer deux nouveaux comptes via le service ProConnect, donnant ensuite l’accès aux outils métier permettant la consultation des dossiers des jeunes accompagnés », décrit France Travail, qui affirme que les trois comptes concernés ont été suspendus, et assure faire son maximum pour concilier ouverture et protection des données personnelles.
Ouverture contre sécurité
« Avec l’ouverture de son système d’information aux partenaires dans le cadre de la loi pour le plein emploi, France Travail avait déjà mis en place la double authentification systématique de tous les collaborateurs de ses partenaires et rendu obligatoire une formation pour tous les RGC. L’accès au SI de France Travail est en outre conditionné à la réussite d’une évaluation à l’issue de cette formation. France Travail va désormais aller plus loin en mettant en place une sensibilisation obligatoire à renouveler tous les 6 mois pour tous les collaborateurs de nos partenaires qui conditionnera leur accès au système d’information. »
France Travail affirme par ailleurs collaborer avec la Direction interministérielle du numérique (Dinum) « pour renforcer l’identification via Proconnect et l’enrôlement des comptes de tiers par le SI France Travail ». En attendant, la prudence est donc de mise pour les jeunes en recherche d’emploi passés par la mission locale la plus proche de chez eux : le périmètre des données exposées autorise en effet des scénarios avancés de phishing ou d’usurpation d’identité.
Ce nouvel incident ne redorera pas le blason d’un service public de l’emploi déjà largement terni en matière de fuites de données. Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.
Depuis, France Travail a dû communiquer sur une fuite affectant 340 000 dossiers en juillet, survenue par l’intermédiaire d’un portail dédié à ses partenaires, puis sur un nouvel incident fin octobre, qui pourrait concerner jusqu’à 31 000 personnes.
Airbus avait alerté vendredi soir d’une défaillance de sécurité impliquant une intervention immédiate sur les 6 000 avions A320 en circulation dans le monde, en raison d’un logiciel de commande vulnérable aux radiations solaires. Lundi matin, la situation semble revenue à la normale au terme d’un week-end perturbé : seule une centaine d’appareils restent en attente de modifications, affirme l’avionneur.
L’alerte, émise vendredi en fin de journée par l’Agence européenne de la sécurité aérienne (EASA), laissait redouter un week-end d’intenses perturbations chez les compagnies aériennes du monde entier.
Suite à un incident relevé le 30 octobre dernier à bord d’un Airbus A320 opéré par Jetblue, l’autorité a en effet déclenché une consigne d’urgence imposant une intervention immédiate sur l’ensemble des appareils de la famille Airbus A320, l’avion mono-couloir le plus vendu au monde, avec environ 6 000 exemplaires en exploitation commerciale dans le monde.
Un calculateur perturbé par une éruption solaire
Dans son alerte, immédiatement répercutée par son homologue américaine la FAA, l’EASA indiquait agir sur la base d’une alerte transmise par l’avionneur Airbus, qui a lui-même communiqué publiquement sur le sujet vendredi.
« L’analyse d’un incident récent impliquant un appareil de la famille A320 a révélé qu’un rayonnement solaire intense peut corrompre des données essentielles au fonctionnement des commandes de vol. Airbus a par conséquent identifié un nombre important d’appareils de la famille A320 actuellement en service qui pourraient être concernés ».
La note d’information de l’EASA décrit plus en détails le phénomène rencontré.
« Un Airbus A320 a récemment subi une brève descente en piqué non sollicitée. Le pilote automatique est resté engagé durant tout l’incident, entraînant une perte d’altitude brève et limitée. Le reste du vol s’est déroulé sans incident ».
L’incident en question s’est produit le 30 octobre dernier. Il concernait un A320-200 opéré par Jetblue sur son vol 1230, reliant Cancun, au Mexique, à Newark, dans le New Jersey. L’avion avait connu une perte subite d’altitude, avant que le vol reprenne son cours. Par précaution, les pilotes avaient alors décidé de se dérouter vers l’aéroport de Tampa, en Floride, où une quinzaine de personnes ont été examinées pour d’éventuelles blessures, rapportait Reuters le 31 octobre dernier.
Il aura a priori fallu près d’un mois pour que l’enquête associée livre ses conclusions. En l’occurrence, l’EASA parle d’une « vulnérabilité introduite par une mise à jour logicielle » au sein de l’un des composants de l’avion, le calculateur de gouverne de profondeur (ELAC).
En cause : une mise à jour logicielle
La note diffusée par Airbus aux compagnies aériennes le 28 novembre confirme : « L’enquête ultérieure a identifié une vulnérabilité du matériel ELAC B équipé du logiciel L104 en cas d’exposition aux éruptions solaires », indique l’avionneur, qui ordonne donc la restauration sans délai à la version précédente du logiciel, la L103+.
Airbus n’a pas précisé qui était le fournisseur de l’ELAC concerné, mais Thales, qui revendique sur son site fournir le calculateur de gouverne de la famille A320, semble un candidat tout indiqué. Le groupe français a cependant décliné toute responsabilité. « La fonctionnalité dont il est question est portée par un logiciel qui n’est pas de responsabilité Thales », a indiqué vendredi l’un de ses porte-paroles à l’AFP.
Comment une mise à jour logicielle a-t-elle pu rendre sensible un calculateur aux radiations solaires ? En attendant l’éventuelle divulgation des détails techniques, il est permis de supposer que la mise à jour a altéré le fonctionnement d’un mécanisme de contrôle de l’intégrité des données, qui aurait sans doute pu, et dû, détecter la survenue d’une anomalie.
Retour à la normale
Du fait de sa nature logicielle, le problème a pu être corrigé rapidement sur la plupart des appareils concernés. Lundi matin, Airbus a en effet déclaré que « sur un total d’environ 6 000 avions potentiellement concernés, la grande majorité a désormais bénéficié des modifications nécessaires ». Il resterait une centaine d’appareils en attente de correction, précise l’avionneur, dont le CEO a publiquement présenté ses excuses sur LinkedIn.
Guillaume Faury, CEO d’Airbus, a présenté samedi ses « sincères excuses » aux passagers et aux compagnies concernés – capture d’écran Next
Si de nombreux vols ont été retardés en Europe ce week-end et si certains passagers ont eu la surprise de voler à bord d’un Boeing 777 pour rallier Toulouse depuis Paris Charles-de-Gaulle lundi matin, l’incident ne semble pas avoir d’impact significatif en matière d’activité aérienne d’après les statistiques d’Eurocontrol. Aux États-Unis, où les festivités de Thanksgiving battent leur plein, plusieurs centaines de vols ont été annulés.
Hasard du calendrier, le parquet général a réclamé mercredi 26 novembre la condamnation d’Airbus, en tant que constructeur, et celle d’Air France, en tant qu’exploitant, dans le procès en appel qui fait suite au crash du vol AF 447 survenu le 1er juin 2009.
Airbus avait alerté vendredi soir d’une défaillance de sécurité impliquant une intervention immédiate sur les 6 000 avions A320 en circulation dans le monde, en raison d’un logiciel de commande vulnérable aux radiations solaires. Lundi matin, la situation semble revenue à la normale au terme d’un week-end perturbé : seule une centaine d’appareils restent en attente de modifications, affirme l’avionneur.
L’alerte, émise vendredi en fin de journée par l’Agence européenne de la sécurité aérienne (EASA), laissait redouter un week-end d’intenses perturbations chez les compagnies aériennes du monde entier.
Suite à un incident relevé le 30 octobre dernier à bord d’un Airbus A320 opéré par Jetblue, l’autorité a en effet déclenché une consigne d’urgence imposant une intervention immédiate sur l’ensemble des appareils de la famille Airbus A320, l’avion mono-couloir le plus vendu au monde, avec environ 6 000 exemplaires en exploitation commerciale dans le monde.
Un calculateur perturbé par une éruption solaire
Dans son alerte, immédiatement répercutée par son homologue américaine la FAA, l’EASA indiquait agir sur la base d’une alerte transmise par l’avionneur Airbus, qui a lui-même communiqué publiquement sur le sujet vendredi.
« L’analyse d’un incident récent impliquant un appareil de la famille A320 a révélé qu’un rayonnement solaire intense peut corrompre des données essentielles au fonctionnement des commandes de vol. Airbus a par conséquent identifié un nombre important d’appareils de la famille A320 actuellement en service qui pourraient être concernés ».
La note d’information de l’EASA décrit plus en détails le phénomène rencontré.
« Un Airbus A320 a récemment subi une brève descente en piqué non sollicitée. Le pilote automatique est resté engagé durant tout l’incident, entraînant une perte d’altitude brève et limitée. Le reste du vol s’est déroulé sans incident ».
L’incident en question s’est produit le 30 octobre dernier. Il concernait un A320-200 opéré par Jetblue sur son vol 1230, reliant Cancun, au Mexique, à Newark, dans le New Jersey. L’avion avait connu une perte subite d’altitude, avant que le vol reprenne son cours. Par précaution, les pilotes avaient alors décidé de se dérouter vers l’aéroport de Tampa, en Floride, où une quinzaine de personnes ont été examinées pour d’éventuelles blessures, rapportait Reuters le 31 octobre dernier.
Il aura a priori fallu près d’un mois pour que l’enquête associée livre ses conclusions. En l’occurrence, l’EASA parle d’une « vulnérabilité introduite par une mise à jour logicielle » au sein de l’un des composants de l’avion, le calculateur de gouverne de profondeur (ELAC).
En cause : une mise à jour logicielle
La note diffusée par Airbus aux compagnies aériennes le 28 novembre confirme : « L’enquête ultérieure a identifié une vulnérabilité du matériel ELAC B équipé du logiciel L104 en cas d’exposition aux éruptions solaires », indique l’avionneur, qui ordonne donc la restauration sans délai à la version précédente du logiciel, la L103+.
Airbus n’a pas précisé qui était le fournisseur de l’ELAC concerné, mais Thales, qui revendique sur son site fournir le calculateur de gouverne de la famille A320, semble un candidat tout indiqué. Le groupe français a cependant décliné toute responsabilité. « La fonctionnalité dont il est question est portée par un logiciel qui n’est pas de responsabilité Thales », a indiqué vendredi l’un de ses porte-paroles à l’AFP.
Comment une mise à jour logicielle a-t-elle pu rendre sensible un calculateur aux radiations solaires ? En attendant l’éventuelle divulgation des détails techniques, il est permis de supposer que la mise à jour a altéré le fonctionnement d’un mécanisme de contrôle de l’intégrité des données, qui aurait sans doute pu, et dû, détecter la survenue d’une anomalie.
Retour à la normale
Du fait de sa nature logicielle, le problème a pu être corrigé rapidement sur la plupart des appareils concernés. Lundi matin, Airbus a en effet déclaré que « sur un total d’environ 6 000 avions potentiellement concernés, la grande majorité a désormais bénéficié des modifications nécessaires ». Il resterait une centaine d’appareils en attente de correction, précise l’avionneur, dont le CEO a publiquement présenté ses excuses sur LinkedIn.
Guillaume Faury, CEO d’Airbus, a présenté samedi ses « sincères excuses » aux passagers et aux compagnies concernés – capture d’écran Next
Si de nombreux vols ont été retardés en Europe ce week-end et si certains passagers ont eu la surprise de voler à bord d’un Boeing 777 pour rallier Toulouse depuis Paris Charles-de-Gaulle lundi matin, l’incident ne semble pas avoir d’impact significatif en matière d’activité aérienne d’après les statistiques d’Eurocontrol. Aux États-Unis, où les festivités de Thanksgiving battent leur plein, plusieurs centaines de vols ont été annulés.
Hasard du calendrier, le parquet général a réclamé mercredi 26 novembre la condamnation d’Airbus, en tant que constructeur, et celle d’Air France, en tant qu’exploitant, dans le procès en appel qui fait suite au crash du vol AF 447 survenu le 1er juin 2009.
Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.
L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.
« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.
Soutenir les ambitions d’investissements dans l’Hexagone
S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.
La DGE distingue cinq types de datacenters – crédit DGE
Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.
Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.
Rassurer, ou motiver, les collectivités territoriales
Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.
« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.
« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».
Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.
« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».
Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.
Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE
Une grille d’évaluation des projets
Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.
La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».
Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.
S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».
Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.
L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.
« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.
Soutenir les ambitions d’investissements dans l’Hexagone
S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.
La DGE distingue cinq types de datacenters – crédit DGE
Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.
Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.
Rassurer, ou motiver, les collectivités territoriales
Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.
« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.
« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».
Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.
« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».
Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.
Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE
Une grille d’évaluation des projets
Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.
La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».
Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.
S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».
Saisie par Qwant, l’Autorité de la concurrence a finalement considéré que l’entreprise française n’avait pas réussi à démontrer que Microsoft serait en position dominante sur le marché de la syndication des résultats de recherche. Elle pointe également l’absence d’éléments susceptibles de confirmer que l’éditeur américain entretiendrait la dépendance de son concurrent à ses propres outils.
Un coup d’épée dans l’eau. L’Autorité de la concurrence a annoncé jeudi 27 novembre le rejet de la saisine déposée par le moteur de recherche français Qwant à l’encontre de son partenaire historique, Microsoft.
« L’Autorité considère que Qwant n’apporte pas d’élément suffisamment probant de nature à démontrer que Microsoft serait en position dominante sur le marché décrit dans sa saisine ou que les conditions de l’abus de dépendance économique seraient réunies », indique le gendarme de la concurrence. Ce rejet au fond de la saisine entraîne logiquement une réponse négative aux mesures conservatoires réclamées par Qwant en juin dernier.
En attendant la publication de sa décision, l’Autorité de la concurrence résume ses conclusions dans un communiqué de presse, qui retrace également les grandes lignes de l’affaire.
Microsoft aurait voulu tuer la concurrence
Rappelons que si Qwant, désormais associée à Ecosia au sein d’une coentreprise baptisée European Search Perspective, travaille à la constitution d’un index de recherche européen surnommé Staan, le moteur de recherche français exploite historiquement les résultats de recherche fournis par Bing, le moteur de Microsoft.
Le différend entre les deux partenaires débute en 2023, quand Microsoft annonce une hausse de tarif pour le moins conséquente des API permettant de se connecter à l’index de Bing. Les prix publics augmentent en effet d’un facteur qui varie de deux à dix, selon les fonctionnalités et le volume de requêtes concernés.
« Le nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de réaliser pour améliorer la recherche », arguait à l’époque Microsoft. Pour Olivier Abecassis, patron de Qwant depuis sa reprise par Octave Klaba (OVHcloud), la manœuvre poursuivait une autre finalité. « Ils voulaient tout simplement tuer le marché des moteurs de recherche alternatifs », affirme ce dernier aux Échos, évoquant par ailleurs une baisse significative des revenus générés par l’intermédiaire de l’offre publicitaire de Bing.
Il y aurait donc un double préjudice : un abus de position dominante, matérialisé par cette augmentation de prix arbitraire, et une discrimination dans l’accès à l’offre publicitaire permettant de rémunérer l’audience réalisée par Qwant. D’où une saisine de l’Autorité de la concurrence, qui a diligenté en début d’année une enquête sur les pratiques de Microsoft en matière de syndication des résultats de recherche.
Difficile de parler de position dominante quand Google est dans la place
Si Google règne en maître sur le marché français de la recherche en ligne, Microsoft occupe historiquement une place particulière sur le segment, plus spécifique, de la syndication des résultats, c’est-à-dire leur mise à disposition au profit de moteurs tiers. Brave Search exploitait par exemple les résultats de Bing jusqu’en avril 2023. DuckDuckGo s’appuie quant à lui toujours de façon significative sur Bing pour ses résultats généraux et sa recherche d’images, même s’il développe aussi des briques d’indexation en propre. Google n’est cependant pas totalement absent de ce marché, puisque ses résultats ont longtemps sous-tendu ceux d’Ecosia.
Dans ce contexte, l’Autorité de la concurrence ne retient pas l’idée selon laquelle Microsoft peut être taxé d’un abus de position dominante. « Ainsi, la position tout à fait prééminente de Google sur la face rémunératrice du marché est susceptible d’exercer une forte pression concurrentielle sur la face syndication du marché, de nature à exclure, en l’absence d’éléments au dossier attestant du contraire, toute hypothèse de dominance de Microsoft sur le marché de la syndication à destination des moteurs de recherche », résume-t-elle.
L’argument de la dépendance économique est également rejeté. Là où Qwant affirme qu’il lui était impossible de recourir, dans un délai raisonnable, à une alternative aux outils de Microsoft, l’Autorité retient que le moteur français « dispose de capacités de recherche propres, mais est même le seul moteur de recherche contractuellement autorisé par Microsoft à développer sa propre technologie de recherche dans le cadre de la syndication ».
« Qwant reprochait à Microsoft une exclusivité d’approvisionnement en publicités et une vente liée des résultats de recherche organique et des résultats payants, une discrimination dans l’accès à la publicité et des restrictions relatives au développement d’un modèle d’intelligence artificielle. Pour chacune de ces pratiques, l’Autorité a estimé qu’aucun élément suffisamment probant n’appuyait les reproches formulés par la requérante », conclut l’institution.
Cette décision n’est a priori pas une surprise pour Qwant. Mi-octobre, Olivier Abecassis laissait en effet entendre à Reuters qu’il était au courant que l’Autorité inclinait vers un rejet de sa saisine au fond. « Dans ce cas, nous n’aurons d’autre choix que d’épuiser tous les recours légaux disponibles pour protéger notre entreprise contre les abus flagrants de Microsoft, défendre nos droits et demander réparation », déclarait-il à cette occasion.
Saisie par Qwant, l’Autorité de la concurrence a finalement considéré que l’entreprise française n’avait pas réussi à démontrer que Microsoft serait en position dominante sur le marché de la syndication des résultats de recherche. Elle pointe également l’absence d’éléments susceptibles de confirmer que l’éditeur américain entretiendrait la dépendance de son concurrent à ses propres outils.
Un coup d’épée dans l’eau. L’Autorité de la concurrence a annoncé jeudi 27 novembre le rejet de la saisine déposée par le moteur de recherche français Qwant à l’encontre de son partenaire historique, Microsoft.
« L’Autorité considère que Qwant n’apporte pas d’élément suffisamment probant de nature à démontrer que Microsoft serait en position dominante sur le marché décrit dans sa saisine ou que les conditions de l’abus de dépendance économique seraient réunies », indique le gendarme de la concurrence. Ce rejet au fond de la saisine entraîne logiquement une réponse négative aux mesures conservatoires réclamées par Qwant en juin dernier.
En attendant la publication de sa décision, l’Autorité de la concurrence résume ses conclusions dans un communiqué de presse, qui retrace également les grandes lignes de l’affaire.
Microsoft aurait voulu tuer la concurrence
Rappelons que si Qwant, désormais associée à Ecosia au sein d’une coentreprise baptisée European Search Perspective, travaille à la constitution d’un index de recherche européen surnommé Staan, le moteur de recherche français exploite historiquement les résultats de recherche fournis par Bing, le moteur de Microsoft.
Le différend entre les deux partenaires débute en 2023, quand Microsoft annonce une hausse de tarif pour le moins conséquente des API permettant de se connecter à l’index de Bing. Les prix publics augmentent en effet d’un facteur qui varie de deux à dix, selon les fonctionnalités et le volume de requêtes concernés.
« Le nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de réaliser pour améliorer la recherche », arguait à l’époque Microsoft. Pour Olivier Abecassis, patron de Qwant depuis sa reprise par Octave Klaba (OVHcloud), la manœuvre poursuivait une autre finalité. « Ils voulaient tout simplement tuer le marché des moteurs de recherche alternatifs », affirme ce dernier aux Échos, évoquant par ailleurs une baisse significative des revenus générés par l’intermédiaire de l’offre publicitaire de Bing.
Il y aurait donc un double préjudice : un abus de position dominante, matérialisé par cette augmentation de prix arbitraire, et une discrimination dans l’accès à l’offre publicitaire permettant de rémunérer l’audience réalisée par Qwant. D’où une saisine de l’Autorité de la concurrence, qui a diligenté en début d’année une enquête sur les pratiques de Microsoft en matière de syndication des résultats de recherche.
Difficile de parler de position dominante quand Google est dans la place
Si Google règne en maître sur le marché français de la recherche en ligne, Microsoft occupe historiquement une place particulière sur le segment, plus spécifique, de la syndication des résultats, c’est-à-dire leur mise à disposition au profit de moteurs tiers. Brave Search exploitait par exemple les résultats de Bing jusqu’en avril 2023. DuckDuckGo s’appuie quant à lui toujours de façon significative sur Bing pour ses résultats généraux et sa recherche d’images, même s’il développe aussi des briques d’indexation en propre. Google n’est cependant pas totalement absent de ce marché, puisque ses résultats ont longtemps sous-tendu ceux d’Ecosia.
Dans ce contexte, l’Autorité de la concurrence ne retient pas l’idée selon laquelle Microsoft peut être taxé d’un abus de position dominante. « Ainsi, la position tout à fait prééminente de Google sur la face rémunératrice du marché est susceptible d’exercer une forte pression concurrentielle sur la face syndication du marché, de nature à exclure, en l’absence d’éléments au dossier attestant du contraire, toute hypothèse de dominance de Microsoft sur le marché de la syndication à destination des moteurs de recherche », résume-t-elle.
L’argument de la dépendance économique est également rejeté. Là où Qwant affirme qu’il lui était impossible de recourir, dans un délai raisonnable, à une alternative aux outils de Microsoft, l’Autorité retient que le moteur français « dispose de capacités de recherche propres, mais est même le seul moteur de recherche contractuellement autorisé par Microsoft à développer sa propre technologie de recherche dans le cadre de la syndication ».
« Qwant reprochait à Microsoft une exclusivité d’approvisionnement en publicités et une vente liée des résultats de recherche organique et des résultats payants, une discrimination dans l’accès à la publicité et des restrictions relatives au développement d’un modèle d’intelligence artificielle. Pour chacune de ces pratiques, l’Autorité a estimé qu’aucun élément suffisamment probant n’appuyait les reproches formulés par la requérante », conclut l’institution.
Cette décision n’est a priori pas une surprise pour Qwant. Mi-octobre, Olivier Abecassis laissait en effet entendre à Reuters qu’il était au courant que l’Autorité inclinait vers un rejet de sa saisine au fond. « Dans ce cas, nous n’aurons d’autre choix que d’épuiser tous les recours légaux disponibles pour protéger notre entreprise contre les abus flagrants de Microsoft, défendre nos droits et demander réparation », déclarait-il à cette occasion.