Vue lecture

Anthropic, OpenAI, Google : entre stratégie de conquête et manœuvres financières

Ils jouent à cash cash
Anthropic, OpenAI, Google : entre stratégie de conquête et manœuvres financières

Les grandes manœuvres financières se poursuivent sur le terrain de l’IA générative, avec une révélation de taille : Anthropic, éditeur de Claude, étudierait les modalités d’une introduction en bourse dès 2026. OpenAI aurait pour sa part décidé de retarder son offensive dans la publicité en ligne, en raison d’une consigne d’urgence passée par Sam Altman. Celui-ci s’inquiéterait en effet de l’accueil réservé à Gemini 3, que Google diffuse le plus largement possible…

Alors que la rumeur prête à OpenAI l’intention d’aller chercher le carburant nécessaire à sa frénésie d’investissements en bourse, l’éditeur de ChatGPT pourrait-il se faire damer le pion par son concurrent Anthropic ? C’est l’une des questions qui a animé les milieux financiers de la tech cette semaine, après que le Financial Times a révélé mercredi que la maison mère des modèles de langage Claude travaillait à la question avec son conseil, le cabinet Wilson Sonsini.

Anthropic sur le sentier de la bourse ?

À ce stade, il ne s’agit encore que de bruits de couloir, mais ces derniers résonnent assez fort pour que le quotidien britannique se risque à avancer cette éventualité d’une introduction en bourse, pour laquelle Dario Amodei et ses équipes auraient déjà sondé plusieurs grandes banques. Une autre source évoque un processus engagé dès 2026.

Du côté d’Anthropic, on répond qu’il est naturel, à ce niveau d’activités, d’étudier les différentes options stratégiques possibles, sans confirmer quoi que ce soit. « Nous n’avons pris aucune décision quant à une date ou même une éventuelle ouverture [du capital, ndlr] au public, et nous n’avons aucune information à partager pour le moment », indique un porte-parole.

L’entrée en bourse d’Anthropic constituerait à n’en pas douter une opération d’un montant record, d’où l’attention particulière accordée au sujet. Le dernier tour de financement réalisé par l’entreprise, mi-novembre, portait sur 15 milliards de dollars, amenés par NVIDIA et Microsoft, en échange de promesses d’achat de composants et de services cloud, conformément à la logique d’engagements circulaires qui semble désormais prévaloir dans le secteur.

Cet accord tripartite a été conclu, estime le FT, sur la base d’une capitalisation comprise entre 300 et 350 milliards de dollars pour Anthropic. Une introduction en bourse signifierait une nouvelle révision à la hausse de cette valorisation, sur un marché dont la dimension spéculative et les montages financiers hasardeux font redouter à certains l’éclatement à venir d’une bulle de l’IA…

L’entrée, à Wall Street, des deux pure players les plus emblématiques du secteur déplacerait par ailleurs leur rivalité vers un nouveau terrain de jeu, purement financier cette fois. De quoi, sans doute, soutenir un phénomène à venir de concentration dans le secteur.

Anthropic vient à ce sujet d’annoncer l’acquisition de Bun, éditeur d’un framework JavaScript open source qui sous-tend déjà le fonctionnement de certains composants de Claude Code. Reste à savoir pourquoi Anthropic n’a pas fait créer un fork de Bun à son IA, si cette dernière est si performante, s’interroge un internaute taquin.

« Code rouge » autour de ChatGPT chez OpenAI

En attendant, la bataille se joue à l’échelle commerciale bien sûr – comme en témoignent les nombreux accords annoncés entre acteurs de l’IA et poids lourds des pans plus traditionnels de l’économie –, mais aussi technique. Et sur ce point, c’est Google qui semble avoir pris l’avantage, au moins temporairement, avec la sortie de Gemini 3 Pro, dont les performances sont globalement saluées.

En matière de communication, Google s’est d’ailleurs trouvé un allié de poids, en la personne de Marc Benioff, CEO de Salesforce, qui a littéralement encensé Gemini 3 le 23 novembre dernier : « Bordel de merde. J’utilise ChatGPT tous les jours depuis 3 ans. Je viens de passer deux heures sur Gemini 3. Je ne reviendrai pas en arrière ».

Marc Benioff, VRP pas super élégant mais très efficace de Gemini 3 – capture d’écran Next

Le succès de Gemini 3 n’a pas laissé Sam Altman indifférent, c’est peu de le dire. Dans un mémo interne, envoyé lundi 1ᵉʳ décembre aux équipes d’OpenAI et révélé par The Information, le patron d’OpenAI a annoncé un « code rouge », face à ce qu’il considère comme une « situation critique » pour ChatGPT. L’alerte se traduirait par un focus accru sur le développement produit de ChatGPT, quitte à retarder ou abandonner certains projets connexes.

« Notre priorité est désormais de continuer à améliorer ChatGPT, de poursuivre sa croissance et d’étendre son accessibilité à travers le monde, tout en le rendant encore plus intuitif et personnalisé », a souligné publiquement Nick Tuley, patron de ChatGPT chez OpenAI, tout en se réjouissant des résultats accomplis au cours de ces trois premières années de mise à disposition au public.

De la pub dans ChatGPT… mais quand ?

Le code rouge prononcé par Sam Altman pourrait avoir un effet sur un des sujets les plus stratégiques qui soient pour OpenAI : la monétisation via la publicité. D’après The Information, l’intégration de publicités au sein de ChatGPT ferait en effet partie des dossiers sortis du haut de la pile, alors même que l’entreprise a besoin de justifier de revenus en hausse pour soutenir sa recherche de financements.

OpenAI n’a pas communiqué publiquement sur ses velléités en matière de publicités, mais une confirmation de ses travaux sur le sujet a fait surface fin novembre. Des internautes ont effet découvert, au sein d’une bêta de l’application Android de ChatGPT, des mentions à l’intitulé explicitement rattaché à l’affichage de réclames, telles que ads feature, bazaar content, search ad, ou search ads carousel.

Le sujet n’est pas trivial : pour être efficace, la réclame au sein de ChatGPT devra en effet être contextualisée soit en fonction des requêtes de l’utilisateur (ce qui pose des questions de neutralité dans la génération de la réponse), soit en fonction de la connaissance qu’a le modèle de l’utilisateur (et donc d’éléments relevant de sa vie privée).

Google ouvre les vannes sur Gemini 3, puis les referme (un peu)

S’il y en a dont les projets en la matière seront scrutés de près, c’est bien sûr Google, qui dispose avec son moteur de recherche, Android et Chrome, de multiples points de contact pour toucher l’internaute et lui dispenser des services d’IA générative financés par la publicité.

Et Google semble bien décidée à accélérer la conquête de nouveaux utilisateurs. Si OpenAI caracole en tête en revendiquant 800 millions d’utilisateurs par semaine sur ChatGPT, Google est de son côté de 450 millions à 650 millions d’utilisateurs actifs mensuels, selon les déclarations d’Alphabet lors de la présentation de ses derniers résultats financiers.

Pour continuer sur cette lancée, Google joue la carte de la synergie. Les abonnés à l’offre de stockage cloud Google One Premium ont ainsi reçu cette semaine une invitation à profiter sans surcoût des avantages de l’abonnement AI Plus, qui intègre un accès plus généreux à Gemini 3 Pro et Nano Banana pour les images. La dernière version du modèle s’est également invitée dans l’AI Mode, l’agent conversationnel de recherche de Google (encore non disponible en France) qui constitue une alternative à la traditionnelle liste de liens.

Problème : gagner des utilisateurs coûte cher, et tous ne basculent pas vers des formules payantes, ce qui conduit dans le même temps Google, comme OpenAI, à limiter en volume les possibilités offertes en version gratuite. Chez OpenAI, c’est au niveau de Sora, le modèle de génération vidéo, que la barre est abaissée à six requêtes par jour, contre trente précédemment. « Nos cartes graphiques surchauffent, et nous voulons permettre au plus grand nombre de personnes possible d’accéder à Sora ! », explique Bill Peebles, patron de Sora, dans un message du 28 novembre.

La veille, Google avait procédé à un mouvement similaire, en réduisant les paliers d’utilisation gratuite de Gemini 3 Pro et de Nano Banana.

  •  

Anthropic, OpenAI, Google : entre stratégie de conquête et manœuvres financières

Ils jouent à cash cash
Anthropic, OpenAI, Google : entre stratégie de conquête et manœuvres financières

Les grandes manœuvres financières se poursuivent sur le terrain de l’IA générative, avec une révélation de taille : Anthropic, éditeur de Claude, étudierait les modalités d’une introduction en bourse dès 2026. OpenAI aurait pour sa part décidé de retarder son offensive dans la publicité en ligne, en raison d’une consigne d’urgence passée par Sam Altman. Celui-ci s’inquiéterait en effet de l’accueil réservé à Gemini 3, que Google diffuse le plus largement possible…

Alors que la rumeur prête à OpenAI l’intention d’aller chercher le carburant nécessaire à sa frénésie d’investissements en bourse, l’éditeur de ChatGPT pourrait-il se faire damer le pion par son concurrent Anthropic ? C’est l’une des questions qui a animé les milieux financiers de la tech cette semaine, après que le Financial Times a révélé mercredi que la maison mère des modèles de langage Claude travaillait à la question avec son conseil, le cabinet Wilson Sonsini.

Anthropic sur le sentier de la bourse ?

À ce stade, il ne s’agit encore que de bruits de couloir, mais ces derniers résonnent assez fort pour que le quotidien britannique se risque à avancer cette éventualité d’une introduction en bourse, pour laquelle Dario Amodei et ses équipes auraient déjà sondé plusieurs grandes banques. Une autre source évoque un processus engagé dès 2026.

Du côté d’Anthropic, on répond qu’il est naturel, à ce niveau d’activités, d’étudier les différentes options stratégiques possibles, sans confirmer quoi que ce soit. « Nous n’avons pris aucune décision quant à une date ou même une éventuelle ouverture [du capital, ndlr] au public, et nous n’avons aucune information à partager pour le moment », indique un porte-parole.

L’entrée en bourse d’Anthropic constituerait à n’en pas douter une opération d’un montant record, d’où l’attention particulière accordée au sujet. Le dernier tour de financement réalisé par l’entreprise, mi-novembre, portait sur 15 milliards de dollars, amenés par NVIDIA et Microsoft, en échange de promesses d’achat de composants et de services cloud, conformément à la logique d’engagements circulaires qui semble désormais prévaloir dans le secteur.

Cet accord tripartite a été conclu, estime le FT, sur la base d’une capitalisation comprise entre 300 et 350 milliards de dollars pour Anthropic. Une introduction en bourse signifierait une nouvelle révision à la hausse de cette valorisation, sur un marché dont la dimension spéculative et les montages financiers hasardeux font redouter à certains l’éclatement à venir d’une bulle de l’IA…

L’entrée, à Wall Street, des deux pure players les plus emblématiques du secteur déplacerait par ailleurs leur rivalité vers un nouveau terrain de jeu, purement financier cette fois. De quoi, sans doute, soutenir un phénomène à venir de concentration dans le secteur.

Anthropic vient à ce sujet d’annoncer l’acquisition de Bun, éditeur d’un framework JavaScript open source qui sous-tend déjà le fonctionnement de certains composants de Claude Code. Reste à savoir pourquoi Anthropic n’a pas fait créer un fork de Bun à son IA, si cette dernière est si performante, s’interroge un internaute taquin.

« Code rouge » autour de ChatGPT chez OpenAI

En attendant, la bataille se joue à l’échelle commerciale bien sûr – comme en témoignent les nombreux accords annoncés entre acteurs de l’IA et poids lourds des pans plus traditionnels de l’économie –, mais aussi technique. Et sur ce point, c’est Google qui semble avoir pris l’avantage, au moins temporairement, avec la sortie de Gemini 3 Pro, dont les performances sont globalement saluées.

En matière de communication, Google s’est d’ailleurs trouvé un allié de poids, en la personne de Marc Benioff, CEO de Salesforce, qui a littéralement encensé Gemini 3 le 23 novembre dernier : « Bordel de merde. J’utilise ChatGPT tous les jours depuis 3 ans. Je viens de passer deux heures sur Gemini 3. Je ne reviendrai pas en arrière ».

Marc Benioff, VRP pas super élégant mais très efficace de Gemini 3 – capture d’écran Next

Le succès de Gemini 3 n’a pas laissé Sam Altman indifférent, c’est peu de le dire. Dans un mémo interne, envoyé lundi 1ᵉʳ décembre aux équipes d’OpenAI et révélé par The Information, le patron d’OpenAI a annoncé un « code rouge », face à ce qu’il considère comme une « situation critique » pour ChatGPT. L’alerte se traduirait par un focus accru sur le développement produit de ChatGPT, quitte à retarder ou abandonner certains projets connexes.

« Notre priorité est désormais de continuer à améliorer ChatGPT, de poursuivre sa croissance et d’étendre son accessibilité à travers le monde, tout en le rendant encore plus intuitif et personnalisé », a souligné publiquement Nick Tuley, patron de ChatGPT chez OpenAI, tout en se réjouissant des résultats accomplis au cours de ces trois premières années de mise à disposition au public.

De la pub dans ChatGPT… mais quand ?

Le code rouge prononcé par Sam Altman pourrait avoir un effet sur un des sujets les plus stratégiques qui soient pour OpenAI : la monétisation via la publicité. D’après The Information, l’intégration de publicités au sein de ChatGPT ferait en effet partie des dossiers sortis du haut de la pile, alors même que l’entreprise a besoin de justifier de revenus en hausse pour soutenir sa recherche de financements.

OpenAI n’a pas communiqué publiquement sur ses velléités en matière de publicités, mais une confirmation de ses travaux sur le sujet a fait surface fin novembre. Des internautes ont effet découvert, au sein d’une bêta de l’application Android de ChatGPT, des mentions à l’intitulé explicitement rattaché à l’affichage de réclames, telles que ads feature, bazaar content, search ad, ou search ads carousel.

Le sujet n’est pas trivial : pour être efficace, la réclame au sein de ChatGPT devra en effet être contextualisée soit en fonction des requêtes de l’utilisateur (ce qui pose des questions de neutralité dans la génération de la réponse), soit en fonction de la connaissance qu’a le modèle de l’utilisateur (et donc d’éléments relevant de sa vie privée).

Google ouvre les vannes sur Gemini 3, puis les referme (un peu)

S’il y en a dont les projets en la matière seront scrutés de près, c’est bien sûr Google, qui dispose avec son moteur de recherche, Android et Chrome, de multiples points de contact pour toucher l’internaute et lui dispenser des services d’IA générative financés par la publicité.

Et Google semble bien décidée à accélérer la conquête de nouveaux utilisateurs. Si OpenAI caracole en tête en revendiquant 800 millions d’utilisateurs par semaine sur ChatGPT, Google est de son côté de 450 millions à 650 millions d’utilisateurs actifs mensuels, selon les déclarations d’Alphabet lors de la présentation de ses derniers résultats financiers.

Pour continuer sur cette lancée, Google joue la carte de la synergie. Les abonnés à l’offre de stockage cloud Google One Premium ont ainsi reçu cette semaine une invitation à profiter sans surcoût des avantages de l’abonnement AI Plus, qui intègre un accès plus généreux à Gemini 3 Pro et Nano Banana pour les images. La dernière version du modèle s’est également invitée dans l’AI Mode, l’agent conversationnel de recherche de Google (encore non disponible en France) qui constitue une alternative à la traditionnelle liste de liens.

Problème : gagner des utilisateurs coûte cher, et tous ne basculent pas vers des formules payantes, ce qui conduit dans le même temps Google, comme OpenAI, à limiter en volume les possibilités offertes en version gratuite. Chez OpenAI, c’est au niveau de Sora, le modèle de génération vidéo, que la barre est abaissée à six requêtes par jour, contre trente précédemment. « Nos cartes graphiques surchauffent, et nous voulons permettre au plus grand nombre de personnes possible d’accéder à Sora ! », explique Bill Peebles, patron de Sora, dans un message du 28 novembre.

La veille, Google avait procédé à un mouvement similaire, en réduisant les paliers d’utilisation gratuite de Gemini 3 Pro et de Nano Banana.

  •  

Mémoire vive, SSD : Micron sort du marché grand public et met fin à la marque Crucial

Crucial (adj) : qualifie ce qui est décisif
Mémoire vive, SSD : Micron sort du marché grand public et met fin à la marque Crucial

Micron invoque les tensions grandissantes sur l’approvisionnement en mémoire provoquées par les investissements dans l’IA pour justifier une décision radicale : sa sortie prochaine du marché grand public. Ce faisant, il met un terme à la marque Crucial, bien connue des amateurs de hardware.

Les tensions déjà à l’œuvre sur le marché grand public de la mémoire, vive ou flash, risquent de s’accentuer. Le groupe états-unien Micron vient en effet d’annoncer la fin de ses activités grand public, qui s’incarnaient jusqu’ici au travers de la marque Crucial. Il acte sa décision au travers d’un communiqué daté du 3 décembre, qui précise que la vente des produits Crucial va s’interrompre sur tous les canaux de distribution, à l’échelle mondiale.

Des lignes reconverties vers des marchés plus porteurs

S’il prend soin de remercier les équipes et les clients de la marque Crucial, active pendant 29 ans, et souligne le caractère « difficile » de cette décision, le groupe assume la dimension stratégique de cette dernière. Ce mouvement témoignerait « de l’engagement de Micron envers la transformation continue de son portefeuille et l’alignement qui en résulte de ses activités sur des vecteurs de croissance structurels et rentables dans le domaine de la mémoire et du stockage », enrobe le communiqué.

« Alimentée par l’IA, la croissance des centres de données a entraîné une forte augmentation de la demande en mémoire et en stockage. Micron a pris la difficile décision de se retirer du marché grand public de Crucial afin d’améliorer l’approvisionnement et le support pour ses clients stratégiques les plus importants dans les segments à forte croissance », décrit de façon plus explicite Sumit Sadana, vice président exécutif du groupe des activités.

Micron indique que l’approvisionnement en produits Crucial sera assuré jusqu’en février 2026, et promet que le support et le service après-vente seront assurés au-delà de cette date. Les produits RAM et NAND vendus sous la marque Micron sur le marché professionnel (serveurs notamment) resteront quant à eux disponibles. Les lignes précédemment dévolues à la fabrication des puces DDR et NAND intégrées aux barrettes et SSD Crucial seront quant à elles reconverties vers des segments de marché plus lucratifs.

Micron ne précise pas si ses lignes de production de GDDR7, dont les puces équipent une partie des cartes graphiques pour joueurs de la série RTX 5000 chez NVIDIA, sont concernées par ce mouvement.

Etabli par Trendforce, ce tableau classe les principaux fournisseurs de DRAM du marché en fonction de leur chiffre d’affaires et de leurs parts de marché sur le troisième trimestre 2025. Micron arrive en troisième position

Pénurie à venir, des effets déjà sensibles

Cette annonce intervient alors que les analystes évoquent depuis plusieurs semaines une possible pénurie à venir sur le marché de la mémoire. Alors que la demande globale ne cesse d’augmenter, les principaux acteurs du secteur que sont Samsung, SK Hynix et Micron concentrent en effet leurs capacités de production, actuelles ou en cours de développement, vers les segments associés à l’IA générative : la mémoire vive DDR pour serveurs et surtout la mémoire HBM (High Bandwidth Memory) utilisée au sein des puces spécialisées dans l’IA, qu’il s’agisse des composants signés NVIDIA, des derniers TPU de Google ou des produits développés par Amazon.

Il faut dire que la demande, nourrie par les promesses d’investissement de tous les grands noms de l’IA, est phénoménale. Début 2024, le Coréen SK Hynix indiquait par exemple avoir déjà vendu la quasi-totalité de sa production prévisionnelle pour 2025. Le phénomène s’est depuis considérablement accéléré, et les tensions déjà sensibles devraient s’accentuer, sur la DDR comme sur la NAND.

D’après le cabinet spécialisé Trendforce, les fournisseurs de mémoire flash n’auraient plus que sept à dix semaines de stock d’avance, contre 10 à 15 semaines un trimestre plus tôt. Côté mémoire vive, les leaders coréens Samsung et SK Hynix ont tous deux émis des alertes quant à la disponibilité de leurs puces DRAM. Le premier serait par exemple en mesure de ne traiter que 70 % des demandes entrantes, et ne verrait pas l’horizon s’éclaircir avant 2028.

Reste à voir quels seront les effets concrets de cette pénurie sur le marché de l’informatique grand public ou professionnelle, hors serveurs. Doc_TB, ancien de Canard PC Hardware qui accompagne LDLC sur des sujets d’approvisionnement et de création de composants en marque blanche, remarque que les difficultés déjà à l’oeuvre font revenir un phénomène oublié de longue date : celui des barrettes DDR no-name, faisant appel à des puces mémoire déclassées (n’ayant pas rempli les exigences de contrôle qualité pour être intégrées sur des produits de grande marque).

  •  

Mémoire vive, SSD : Micron sort du marché grand public et met fin à la marque Crucial

Crucial (adj) : qualifie ce qui est décisif
Mémoire vive, SSD : Micron sort du marché grand public et met fin à la marque Crucial

Micron invoque les tensions grandissantes sur l’approvisionnement en mémoire provoquées par les investissements dans l’IA pour justifier une décision radicale : sa sortie prochaine du marché grand public. Ce faisant, il met un terme à la marque Crucial, bien connue des amateurs de hardware.

Les tensions déjà à l’œuvre sur le marché grand public de la mémoire, vive ou flash, risquent de s’accentuer. Le groupe états-unien Micron vient en effet d’annoncer la fin de ses activités grand public, qui s’incarnaient jusqu’ici au travers de la marque Crucial. Il acte sa décision au travers d’un communiqué daté du 3 décembre, qui précise que la vente des produits Crucial va s’interrompre sur tous les canaux de distribution, à l’échelle mondiale.

Des lignes reconverties vers des marchés plus porteurs

S’il prend soin de remercier les équipes et les clients de la marque Crucial, active pendant 29 ans, et souligne le caractère « difficile » de cette décision, le groupe assume la dimension stratégique de cette dernière. Ce mouvement témoignerait « de l’engagement de Micron envers la transformation continue de son portefeuille et l’alignement qui en résulte de ses activités sur des vecteurs de croissance structurels et rentables dans le domaine de la mémoire et du stockage », enrobe le communiqué.

« Alimentée par l’IA, la croissance des centres de données a entraîné une forte augmentation de la demande en mémoire et en stockage. Micron a pris la difficile décision de se retirer du marché grand public de Crucial afin d’améliorer l’approvisionnement et le support pour ses clients stratégiques les plus importants dans les segments à forte croissance », décrit de façon plus explicite Sumit Sadana, vice président exécutif du groupe des activités.

Micron indique que l’approvisionnement en produits Crucial sera assuré jusqu’en février 2026, et promet que le support et le service après-vente seront assurés au-delà de cette date. Les produits RAM et NAND vendus sous la marque Micron sur le marché professionnel (serveurs notamment) resteront quant à eux disponibles. Les lignes précédemment dévolues à la fabrication des puces DDR et NAND intégrées aux barrettes et SSD Crucial seront quant à elles reconverties vers des segments de marché plus lucratifs.

Micron ne précise pas si ses lignes de production de GDDR7, dont les puces équipent une partie des cartes graphiques pour joueurs de la série RTX 5000 chez NVIDIA, sont concernées par ce mouvement.

Etabli par Trendforce, ce tableau classe les principaux fournisseurs de DRAM du marché en fonction de leur chiffre d’affaires et de leurs parts de marché sur le troisième trimestre 2025. Micron arrive en troisième position

Pénurie à venir, des effets déjà sensibles

Cette annonce intervient alors que les analystes évoquent depuis plusieurs semaines une possible pénurie à venir sur le marché de la mémoire. Alors que la demande globale ne cesse d’augmenter, les principaux acteurs du secteur que sont Samsung, SK Hynix et Micron concentrent en effet leurs capacités de production, actuelles ou en cours de développement, vers les segments associés à l’IA générative : la mémoire vive DDR pour serveurs et surtout la mémoire HBM (High Bandwidth Memory) utilisée au sein des puces spécialisées dans l’IA, qu’il s’agisse des composants signés NVIDIA, des derniers TPU de Google ou des produits développés par Amazon.

Il faut dire que la demande, nourrie par les promesses d’investissement de tous les grands noms de l’IA, est phénoménale. Début 2024, le Coréen SK Hynix indiquait par exemple avoir déjà vendu la quasi-totalité de sa production prévisionnelle pour 2025. Le phénomène s’est depuis considérablement accéléré, et les tensions déjà sensibles devraient s’accentuer, sur la DDR comme sur la NAND.

D’après le cabinet spécialisé Trendforce, les fournisseurs de mémoire flash n’auraient plus que sept à dix semaines de stock d’avance, contre 10 à 15 semaines un trimestre plus tôt. Côté mémoire vive, les leaders coréens Samsung et SK Hynix ont tous deux émis des alertes quant à la disponibilité de leurs puces DRAM. Le premier serait par exemple en mesure de ne traiter que 70 % des demandes entrantes, et ne verrait pas l’horizon s’éclaircir avant 2028.

Reste à voir quels seront les effets concrets de cette pénurie sur le marché de l’informatique grand public ou professionnelle, hors serveurs. Doc_TB, ancien de Canard PC Hardware qui accompagne LDLC sur des sujets d’approvisionnement et de création de composants en marque blanche, remarque que les difficultés déjà à l’oeuvre font revenir un phénomène oublié de longue date : celui des barrettes DDR no-name, faisant appel à des puces mémoire déclassées (n’ayant pas rempli les exigences de contrôle qualité pour être intégrées sur des produits de grande marque).

  •  

☕️ Après AOL, Bending Spoons va s’offrir Eventbrite et sa billetterie

Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).

Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.

« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.

Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).

En 2025, Bending Spoons s’est déjà engagé dans le rachat de Vimeo, puis dans celui du portail AOL.

Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.

Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next

  •  

☕️ Après AOL, Bending Spoons va s’offrir Eventbrite et sa billetterie

Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).

Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.

« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.

Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).

En 2025, Bending Spoons s’est déjà engagé dans le rachat de Vimeo, puis dans celui du portail AOL.

Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.

Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next

  •  

☕️ Issue de Kyutai, la startup Gradium lève 60 millions d’euros pour ses IA vocales

Cofinancé depuis 2023 par Xavier Niel (Free), Rodolphe Saadé (CMA-CGM) et Eric Schmidt (ex Google), le laboratoire de recherche Kyutai vient d’accoucher de son premier spin-off commercial, une startup baptisée Gradium. Quelques bonnes fées se sont déjà penchées sur le berceau de Gradium puisque pour fêter son lancement officiel, la jeune pousse annonce mardi avoir bouclé un premier tour de table de 70 millions de dollars (environ 60 millions d’euros).

« S’appuyant sur plus d’une décennie de recherche de pointe, notre mission est simple et ambitieuse : fournir les bases d’une IA capable de proposer en temps réel une voix naturelle qui soit l’interface homme-machine par défaut », indique Gradium, dont le casting de départ réunit plusieurs des chercheurs fondateurs de Kuytai.

L’équipe de départ, qui compte dix personnes, est ainsi emmenée par Neil Zeghidour (ex Meta/Google DeepMind), Olivier Teboul (ex Google Brain), Laurent Mazaré (ex Google DeepMind/Jane Street) et Alexandre Défossez (ex Meta).

Moins de six mois après son immatriculation et trois mois après le début de ses activités, Gradium revendique déjà des outils de synthèse audio ou de transcription vocale en production, notamment au sein de studios de jeu vidéo, ou dans des plateformes linguistiques. « La plateforme accompagne aussi bien les développeurs que les entreprises, de l’accès API pour le prototypage rapide aux déploiements en entreprise pour les charges de travail en production », affirme l’entreprise, qui donne à tester certains de ses modèles sur son site Web et fournit des éléments de documentation technique.

Menée par les fonds Eurazeo et FirstMark Capital, cette levée de fonds associe DST Global Partners, Korelya Capital (Fleur Pellerin), Amplify Partners, Liquid2 et Drysdale Ventures, ainsi que les trois soutiens historiques de Kyutai que sont Niel, Saadé et Schmidt. Yann LeCun (sur le départ de Meta), Olivier Pomel (Datadog), Ilkka Paananen (Supercell), Thomas Wolf (Hugging Face), Guillermo Rauch (Vercel) et Mehdi Ghissassi (ex Deepmind) complètent le tour au rang des business angels.

Gradium propose des modèles de synthèse vocale (text to speech) et de transcription (speech to text)

  •  

☕️ Issue de Kyutai, la startup Gradium lève 60 millions d’euros pour ses IA vocales

Cofinancé depuis 2023 par Xavier Niel (Free), Rodolphe Saadé (CMA-CGM) et Eric Schmidt (ex Google), le laboratoire de recherche Kyutai vient d’accoucher de son premier spin-off commercial, une startup baptisée Gradium. Quelques bonnes fées se sont déjà penchées sur le berceau de Gradium puisque pour fêter son lancement officiel, la jeune pousse annonce mardi avoir bouclé un premier tour de table de 70 millions de dollars (environ 60 millions d’euros).

« S’appuyant sur plus d’une décennie de recherche de pointe, notre mission est simple et ambitieuse : fournir les bases d’une IA capable de proposer en temps réel une voix naturelle qui soit l’interface homme-machine par défaut », indique Gradium, dont le casting de départ réunit plusieurs des chercheurs fondateurs de Kuytai.

L’équipe de départ, qui compte dix personnes, est ainsi emmenée par Neil Zeghidour (ex Meta/Google DeepMind), Olivier Teboul (ex Google Brain), Laurent Mazaré (ex Google DeepMind/Jane Street) et Alexandre Défossez (ex Meta).

Moins de six mois après son immatriculation et trois mois après le début de ses activités, Gradium revendique déjà des outils de synthèse audio ou de transcription vocale en production, notamment au sein de studios de jeu vidéo, ou dans des plateformes linguistiques. « La plateforme accompagne aussi bien les développeurs que les entreprises, de l’accès API pour le prototypage rapide aux déploiements en entreprise pour les charges de travail en production », affirme l’entreprise, qui donne à tester certains de ses modèles sur son site Web et fournit des éléments de documentation technique.

Menée par les fonds Eurazeo et FirstMark Capital, cette levée de fonds associe DST Global Partners, Korelya Capital (Fleur Pellerin), Amplify Partners, Liquid2 et Drysdale Ventures, ainsi que les trois soutiens historiques de Kyutai que sont Niel, Saadé et Schmidt. Yann LeCun (sur le départ de Meta), Olivier Pomel (Datadog), Ilkka Paananen (Supercell), Thomas Wolf (Hugging Face), Guillermo Rauch (Vercel) et Mehdi Ghissassi (ex Deepmind) complètent le tour au rang des business angels.

Gradium propose des modèles de synthèse vocale (text to speech) et de transcription (speech to text)

  •  

Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

Bis repetita placent
Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

France Travail a indiqué lundi 1ᵉʳ décembre avoir été victime d’un acte de cyber malveillance ayant entraîné une fuite de données personnelles. En l’occurrence, ce sont les informations relatives à environ 1,6 million de jeunes suivis par le réseau des Missions Locales (antennes dédiées à l’insertion faisant partie du service public de l’emploi) qui sont concernées, soit parce qu’ils étaient inscrits à France Travail, soit parce qu’ils s’étaient vu prescrire une formation via l’outil Ouiform opéré par France Travail.

1,6 million de comptes de jeunes inscrits à la mission locale

Le jeu de données exfiltrées comprend des informations complètes d’état civil : nom et prénom, date de naissance, numéro de sécurité sociale, identifiant France Travail, adresses mail et postale et numéros de téléphone, indiquent France Travail et le réseau des Missions Locales dans un communiqué commun. « Aucun mot de passe ni aucune coordonnée bancaire n’ont été extraits », ajoutent les deux organismes.

D’après les premières investigations, c’est par l’intermédiaire du compte d’un agent d’une mission locale que l’intrusion aurait été réalisée. En tant que responsable gestion de compte (RGC), ce dernier était en mesure de traiter les demandes d’habilitation de ses collègues (et donc d’autres comptes utilisateurs) au système d’information partagé mis en place par France Travail pour faciliter la collaboration avec des organismes tiers.

France Travail et l’UNML (Union nationale des missions locales) « appellent à la vigilance »

« En utilisant les droits du compte compromis, l’attaquant a pu créer deux nouveaux comptes via le service ProConnect, donnant ensuite l’accès aux outils métier permettant la consultation des dossiers des jeunes accompagnés », décrit France Travail, qui affirme que les trois comptes concernés ont été suspendus, et assure faire son maximum pour concilier ouverture et protection des données personnelles.

Ouverture contre sécurité

« Avec l’ouverture de son système d’information aux partenaires dans le cadre de la loi pour le plein emploi, France Travail avait déjà mis en place la double authentification systématique de tous les collaborateurs de ses partenaires et rendu obligatoire une formation pour tous les RGC. L’accès au SI de France Travail est en outre conditionné à la réussite d’une évaluation à l’issue de cette formation. France Travail va désormais aller plus loin en mettant en place une sensibilisation obligatoire à renouveler tous les 6 mois pour tous les collaborateurs de nos partenaires qui conditionnera leur accès au système d’information. »

France Travail affirme par ailleurs collaborer avec la Direction interministérielle du numérique (Dinum) « pour renforcer l’identification via Proconnect et l’enrôlement des comptes de tiers par le SI France Travail ». En attendant, la prudence est donc de mise pour les jeunes en recherche d’emploi passés par la mission locale la plus proche de chez eux : le périmètre des données exposées autorise en effet des scénarios avancés de phishing ou d’usurpation d’identité.

Quatrième vol de données en deux ans

Ce nouvel incident ne redorera pas le blason d’un service public de l’emploi déjà largement terni en matière de fuites de données. Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.

Depuis, France Travail a dû communiquer sur une fuite affectant 340 000 dossiers en juillet, survenue par l’intermédiaire d’un portail dédié à ses partenaires, puis sur un nouvel incident fin octobre, qui pourrait concerner jusqu’à 31 000 personnes.

  •  

Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

Bis repetita placent
Nouvelle fuite de données chez France Travail, 1,6 million de comptes concernés

France Travail a indiqué lundi 1ᵉʳ décembre avoir été victime d’un acte de cyber malveillance ayant entraîné une fuite de données personnelles. En l’occurrence, ce sont les informations relatives à environ 1,6 million de jeunes suivis par le réseau des Missions Locales (antennes dédiées à l’insertion faisant partie du service public de l’emploi) qui sont concernées, soit parce qu’ils étaient inscrits à France Travail, soit parce qu’ils s’étaient vu prescrire une formation via l’outil Ouiform opéré par France Travail.

1,6 million de comptes de jeunes inscrits à la mission locale

Le jeu de données exfiltrées comprend des informations complètes d’état civil : nom et prénom, date de naissance, numéro de sécurité sociale, identifiant France Travail, adresses mail et postale et numéros de téléphone, indiquent France Travail et le réseau des Missions Locales dans un communiqué commun. « Aucun mot de passe ni aucune coordonnée bancaire n’ont été extraits », ajoutent les deux organismes.

D’après les premières investigations, c’est par l’intermédiaire du compte d’un agent d’une mission locale que l’intrusion aurait été réalisée. En tant que responsable gestion de compte (RGC), ce dernier était en mesure de traiter les demandes d’habilitation de ses collègues (et donc d’autres comptes utilisateurs) au système d’information partagé mis en place par France Travail pour faciliter la collaboration avec des organismes tiers.

France Travail et l’UNML (Union nationale des missions locales) « appellent à la vigilance »

« En utilisant les droits du compte compromis, l’attaquant a pu créer deux nouveaux comptes via le service ProConnect, donnant ensuite l’accès aux outils métier permettant la consultation des dossiers des jeunes accompagnés », décrit France Travail, qui affirme que les trois comptes concernés ont été suspendus, et assure faire son maximum pour concilier ouverture et protection des données personnelles.

Ouverture contre sécurité

« Avec l’ouverture de son système d’information aux partenaires dans le cadre de la loi pour le plein emploi, France Travail avait déjà mis en place la double authentification systématique de tous les collaborateurs de ses partenaires et rendu obligatoire une formation pour tous les RGC. L’accès au SI de France Travail est en outre conditionné à la réussite d’une évaluation à l’issue de cette formation. France Travail va désormais aller plus loin en mettant en place une sensibilisation obligatoire à renouveler tous les 6 mois pour tous les collaborateurs de nos partenaires qui conditionnera leur accès au système d’information. »

France Travail affirme par ailleurs collaborer avec la Direction interministérielle du numérique (Dinum) « pour renforcer l’identification via Proconnect et l’enrôlement des comptes de tiers par le SI France Travail ». En attendant, la prudence est donc de mise pour les jeunes en recherche d’emploi passés par la mission locale la plus proche de chez eux : le périmètre des données exposées autorise en effet des scénarios avancés de phishing ou d’usurpation d’identité.

Quatrième vol de données en deux ans

Ce nouvel incident ne redorera pas le blason d’un service public de l’emploi déjà largement terni en matière de fuites de données. Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.

Depuis, France Travail a dû communiquer sur une fuite affectant 340 000 dossiers en juillet, survenue par l’intermédiaire d’un portail dédié à ses partenaires, puis sur un nouvel incident fin octobre, qui pourrait concerner jusqu’à 31 000 personnes.

  •  

Airbus A320 cloués au sol : après l’alerte, les avions reprennent du service

Alerte rouge sur un vendredi noir
Airbus A320 cloués au sol : après l’alerte, les avions reprennent du service

Airbus avait alerté vendredi soir d’une défaillance de sécurité impliquant une intervention immédiate sur les 6 000 avions A320 en circulation dans le monde, en raison d’un logiciel de commande vulnérable aux radiations solaires. Lundi matin, la situation semble revenue à la normale au terme d’un week-end perturbé : seule une centaine d’appareils restent en attente de modifications, affirme l’avionneur.

L’alerte, émise vendredi en fin de journée par l’Agence européenne de la sécurité aérienne (EASA), laissait redouter un week-end d’intenses perturbations chez les compagnies aériennes du monde entier.

Suite à un incident relevé le 30 octobre dernier à bord d’un Airbus A320 opéré par Jetblue, l’autorité a en effet déclenché une consigne d’urgence imposant une intervention immédiate sur l’ensemble des appareils de la famille Airbus A320, l’avion mono-couloir le plus vendu au monde, avec environ 6 000 exemplaires en exploitation commerciale dans le monde.

Un calculateur perturbé par une éruption solaire

Dans son alerte, immédiatement répercutée par son homologue américaine la FAA, l’EASA indiquait agir sur la base d’une alerte transmise par l’avionneur Airbus, qui a lui-même communiqué publiquement sur le sujet vendredi.

« L’analyse d’un incident récent impliquant un appareil de la famille A320 a révélé qu’un rayonnement solaire intense peut corrompre des données essentielles au fonctionnement des commandes de vol. Airbus a par conséquent identifié un nombre important d’appareils de la famille A320 actuellement en service qui pourraient être concernés ».

La note d’information de l’EASA décrit plus en détails le phénomène rencontré.

« Un Airbus A320 a récemment subi une brève descente en piqué non sollicitée. Le pilote automatique est resté engagé durant tout l’incident, entraînant une perte d’altitude brève et limitée. Le reste du vol s’est déroulé sans incident ».

L’incident en question s’est produit le 30 octobre dernier. Il concernait un A320-200 opéré par Jetblue sur son vol 1230, reliant Cancun, au Mexique, à Newark, dans le New Jersey. L’avion avait connu une perte subite d’altitude, avant que le vol reprenne son cours. Par précaution, les pilotes avaient alors décidé de se dérouter vers l’aéroport de Tampa, en Floride, où une quinzaine de personnes ont été examinées pour d’éventuelles blessures, rapportait Reuters le 31 octobre dernier.

Il aura a priori fallu près d’un mois pour que l’enquête associée livre ses conclusions. En l’occurrence, l’EASA parle d’une « vulnérabilité introduite par une mise à jour logicielle » au sein de l’un des composants de l’avion, le calculateur de gouverne de profondeur (ELAC).

En cause : une mise à jour logicielle

La note diffusée par Airbus aux compagnies aériennes le 28 novembre confirme : « L’enquête ultérieure a identifié une vulnérabilité du matériel ELAC B équipé du logiciel L104 en cas d’exposition aux éruptions solaires », indique l’avionneur, qui ordonne donc la restauration sans délai à la version précédente du logiciel, la L103+.

Airbus n’a pas précisé qui était le fournisseur de l’ELAC concerné, mais Thales, qui revendique sur son site fournir le calculateur de gouverne de la famille A320, semble un candidat tout indiqué. Le groupe français a cependant décliné toute responsabilité. « La fonctionnalité dont il est question est portée par un logiciel qui n’est pas de responsabilité Thales », a indiqué vendredi l’un de ses porte-paroles à l’AFP.

Comment une mise à jour logicielle a-t-elle pu rendre sensible un calculateur aux radiations solaires ? En attendant l’éventuelle divulgation des détails techniques, il est permis de supposer que la mise à jour a altéré le fonctionnement d’un mécanisme de contrôle de l’intégrité des données, qui aurait sans doute pu, et dû, détecter la survenue d’une anomalie.

Retour à la normale

Du fait de sa nature logicielle, le problème a pu être corrigé rapidement sur la plupart des appareils concernés. Lundi matin, Airbus a en effet déclaré que « sur un total d’environ 6 000 avions potentiellement concernés, la grande majorité a désormais bénéficié des modifications nécessaires ». Il resterait une centaine d’appareils en attente de correction, précise l’avionneur, dont le CEO a publiquement présenté ses excuses sur LinkedIn.

Guillaume Faury, CEO d’Airbus, a présenté samedi ses « sincères excuses » aux passagers et aux compagnies concernés – capture d’écran Next

Si de nombreux vols ont été retardés en Europe ce week-end et si certains passagers ont eu la surprise de voler à bord d’un Boeing 777 pour rallier Toulouse depuis Paris Charles-de-Gaulle lundi matin, l’incident ne semble pas avoir d’impact significatif en matière d’activité aérienne d’après les statistiques d’Eurocontrol. Aux États-Unis, où les festivités de Thanksgiving battent leur plein, plusieurs centaines de vols ont été annulés.

Hasard du calendrier, le parquet général a réclamé mercredi 26 novembre la condamnation d’Airbus, en tant que constructeur, et celle d’Air France, en tant qu’exploitant, dans le procès en appel qui fait suite au crash du vol AF 447 survenu le 1er juin 2009.

  •  

Airbus A320 cloués au sol : après l’alerte, les avions reprennent du service

Alerte rouge sur un vendredi noir
Airbus A320 cloués au sol : après l’alerte, les avions reprennent du service

Airbus avait alerté vendredi soir d’une défaillance de sécurité impliquant une intervention immédiate sur les 6 000 avions A320 en circulation dans le monde, en raison d’un logiciel de commande vulnérable aux radiations solaires. Lundi matin, la situation semble revenue à la normale au terme d’un week-end perturbé : seule une centaine d’appareils restent en attente de modifications, affirme l’avionneur.

L’alerte, émise vendredi en fin de journée par l’Agence européenne de la sécurité aérienne (EASA), laissait redouter un week-end d’intenses perturbations chez les compagnies aériennes du monde entier.

Suite à un incident relevé le 30 octobre dernier à bord d’un Airbus A320 opéré par Jetblue, l’autorité a en effet déclenché une consigne d’urgence imposant une intervention immédiate sur l’ensemble des appareils de la famille Airbus A320, l’avion mono-couloir le plus vendu au monde, avec environ 6 000 exemplaires en exploitation commerciale dans le monde.

Un calculateur perturbé par une éruption solaire

Dans son alerte, immédiatement répercutée par son homologue américaine la FAA, l’EASA indiquait agir sur la base d’une alerte transmise par l’avionneur Airbus, qui a lui-même communiqué publiquement sur le sujet vendredi.

« L’analyse d’un incident récent impliquant un appareil de la famille A320 a révélé qu’un rayonnement solaire intense peut corrompre des données essentielles au fonctionnement des commandes de vol. Airbus a par conséquent identifié un nombre important d’appareils de la famille A320 actuellement en service qui pourraient être concernés ».

La note d’information de l’EASA décrit plus en détails le phénomène rencontré.

« Un Airbus A320 a récemment subi une brève descente en piqué non sollicitée. Le pilote automatique est resté engagé durant tout l’incident, entraînant une perte d’altitude brève et limitée. Le reste du vol s’est déroulé sans incident ».

L’incident en question s’est produit le 30 octobre dernier. Il concernait un A320-200 opéré par Jetblue sur son vol 1230, reliant Cancun, au Mexique, à Newark, dans le New Jersey. L’avion avait connu une perte subite d’altitude, avant que le vol reprenne son cours. Par précaution, les pilotes avaient alors décidé de se dérouter vers l’aéroport de Tampa, en Floride, où une quinzaine de personnes ont été examinées pour d’éventuelles blessures, rapportait Reuters le 31 octobre dernier.

Il aura a priori fallu près d’un mois pour que l’enquête associée livre ses conclusions. En l’occurrence, l’EASA parle d’une « vulnérabilité introduite par une mise à jour logicielle » au sein de l’un des composants de l’avion, le calculateur de gouverne de profondeur (ELAC).

En cause : une mise à jour logicielle

La note diffusée par Airbus aux compagnies aériennes le 28 novembre confirme : « L’enquête ultérieure a identifié une vulnérabilité du matériel ELAC B équipé du logiciel L104 en cas d’exposition aux éruptions solaires », indique l’avionneur, qui ordonne donc la restauration sans délai à la version précédente du logiciel, la L103+.

Airbus n’a pas précisé qui était le fournisseur de l’ELAC concerné, mais Thales, qui revendique sur son site fournir le calculateur de gouverne de la famille A320, semble un candidat tout indiqué. Le groupe français a cependant décliné toute responsabilité. « La fonctionnalité dont il est question est portée par un logiciel qui n’est pas de responsabilité Thales », a indiqué vendredi l’un de ses porte-paroles à l’AFP.

Comment une mise à jour logicielle a-t-elle pu rendre sensible un calculateur aux radiations solaires ? En attendant l’éventuelle divulgation des détails techniques, il est permis de supposer que la mise à jour a altéré le fonctionnement d’un mécanisme de contrôle de l’intégrité des données, qui aurait sans doute pu, et dû, détecter la survenue d’une anomalie.

Retour à la normale

Du fait de sa nature logicielle, le problème a pu être corrigé rapidement sur la plupart des appareils concernés. Lundi matin, Airbus a en effet déclaré que « sur un total d’environ 6 000 avions potentiellement concernés, la grande majorité a désormais bénéficié des modifications nécessaires ». Il resterait une centaine d’appareils en attente de correction, précise l’avionneur, dont le CEO a publiquement présenté ses excuses sur LinkedIn.

Guillaume Faury, CEO d’Airbus, a présenté samedi ses « sincères excuses » aux passagers et aux compagnies concernés – capture d’écran Next

Si de nombreux vols ont été retardés en Europe ce week-end et si certains passagers ont eu la surprise de voler à bord d’un Boeing 777 pour rallier Toulouse depuis Paris Charles-de-Gaulle lundi matin, l’incident ne semble pas avoir d’impact significatif en matière d’activité aérienne d’après les statistiques d’Eurocontrol. Aux États-Unis, où les festivités de Thanksgiving battent leur plein, plusieurs centaines de vols ont été annulés.

Hasard du calendrier, le parquet général a réclamé mercredi 26 novembre la condamnation d’Airbus, en tant que constructeur, et celle d’Air France, en tant qu’exploitant, dans le procès en appel qui fait suite au crash du vol AF 447 survenu le 1er juin 2009.

  •  

Bercy met de l’huile dans les rouages de l’implantation de datacenters en France

Build, baby, build
Bercy met de l’huile dans les rouages de l’implantation de datacenters en France

Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.

L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.

« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.

Soutenir les ambitions d’investissements dans l’Hexagone

S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.

La DGE distingue cinq types de datacenters – crédit DGE

Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.

Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.

Rassurer, ou motiver, les collectivités territoriales

Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.

« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.

« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».

Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.

« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».

Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.

Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE

Une grille d’évaluation des projets

Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.

La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».

Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.

S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».

  •  

Bercy met de l’huile dans les rouages de l’implantation de datacenters en France

Build, baby, build
Bercy met de l’huile dans les rouages de l’implantation de datacenters en France

Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.

L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.

« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.

Soutenir les ambitions d’investissements dans l’Hexagone

S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.

La DGE distingue cinq types de datacenters – crédit DGE

Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.

Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.

Rassurer, ou motiver, les collectivités territoriales

Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.

« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.

« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».

Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.

« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».

Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.

Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE

Une grille d’évaluation des projets

Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.

La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».

Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.

S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».

  •  

L’Autorité de la concurrence rejette la plainte de Qwant contre Microsoft

Caramba, encore raté
L’Autorité de la concurrence rejette la plainte de Qwant contre Microsoft

Saisie par Qwant, l’Autorité de la concurrence a finalement considéré que l’entreprise française n’avait pas réussi à démontrer que Microsoft serait en position dominante sur le marché de la syndication des résultats de recherche. Elle pointe également l’absence d’éléments susceptibles de confirmer que l’éditeur américain entretiendrait la dépendance de son concurrent à ses propres outils.

Un coup d’épée dans l’eau. L’Autorité de la concurrence a annoncé jeudi 27 novembre le rejet de la saisine déposée par le moteur de recherche français Qwant à l’encontre de son partenaire historique, Microsoft.

« L’Autorité considère que Qwant n’apporte pas d’élément suffisamment probant de nature à démontrer que Microsoft serait en position dominante sur le marché décrit dans sa saisine ou que les conditions de l’abus de dépendance économique seraient réunies », indique le gendarme de la concurrence. Ce rejet au fond de la saisine entraîne logiquement une réponse négative aux mesures conservatoires réclamées par Qwant en juin dernier.

En attendant la publication de sa décision, l’Autorité de la concurrence résume ses conclusions dans un communiqué de presse, qui retrace également les grandes lignes de l’affaire.

Microsoft aurait voulu tuer la concurrence

Rappelons que si Qwant, désormais associée à Ecosia au sein d’une coentreprise baptisée European Search Perspective, travaille à la constitution d’un index de recherche européen surnommé Staan, le moteur de recherche français exploite historiquement les résultats de recherche fournis par Bing, le moteur de Microsoft.

Le différend entre les deux partenaires débute en 2023, quand Microsoft annonce une hausse de tarif pour le moins conséquente des API permettant de se connecter à l’index de Bing. Les prix publics augmentent en effet d’un facteur qui varie de deux à dix, selon les fonctionnalités et le volume de requêtes concernés.

« Le nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de réaliser pour améliorer la recherche », arguait à l’époque Microsoft. Pour Olivier Abecassis, patron de Qwant depuis sa reprise par Octave Klaba (OVHcloud), la manœuvre poursuivait une autre finalité. « Ils voulaient tout simplement tuer le marché des moteurs de recherche alternatifs », affirme ce dernier aux Échos, évoquant par ailleurs une baisse significative des revenus générés par l’intermédiaire de l’offre publicitaire de Bing.

Il y aurait donc un double préjudice : un abus de position dominante, matérialisé par cette augmentation de prix arbitraire, et une discrimination dans l’accès à l’offre publicitaire permettant de rémunérer l’audience réalisée par Qwant. D’où une saisine de l’Autorité de la concurrence, qui a diligenté en début d’année une enquête sur les pratiques de Microsoft en matière de syndication des résultats de recherche.

Difficile de parler de position dominante quand Google est dans la place

Si Google règne en maître sur le marché français de la recherche en ligne, Microsoft occupe historiquement une place particulière sur le segment, plus spécifique, de la syndication des résultats, c’est-à-dire leur mise à disposition au profit de moteurs tiers. Brave Search exploitait par exemple les résultats de Bing jusqu’en avril 2023. DuckDuckGo s’appuie quant à lui toujours de façon significative sur Bing pour ses résultats généraux et sa recherche d’images, même s’il développe aussi des briques d’indexation en propre. Google n’est cependant pas totalement absent de ce marché, puisque ses résultats ont longtemps sous-tendu ceux d’Ecosia.

Dans ce contexte, l’Autorité de la concurrence ne retient pas l’idée selon laquelle Microsoft peut être taxé d’un abus de position dominante. « Ainsi, la position tout à fait prééminente de Google sur la face rémunératrice du marché est susceptible d’exercer une forte pression concurrentielle sur la face syndication du marché, de nature à exclure, en l’absence d’éléments au dossier attestant du contraire, toute hypothèse de dominance de Microsoft sur le marché de la syndication à destination des moteurs de recherche », résume-t-elle.

L’argument de la dépendance économique est également rejeté. Là où Qwant affirme qu’il lui était impossible de recourir, dans un délai raisonnable, à une alternative aux outils de Microsoft, l’Autorité retient que le moteur français « dispose de capacités de recherche propres, mais est même le seul moteur de recherche contractuellement autorisé par Microsoft à développer sa propre technologie de recherche dans le cadre de la syndication ».

« Qwant reprochait à Microsoft une exclusivité d’approvisionnement en publicités et une vente liée des résultats de recherche organique et des résultats payants, une discrimination dans l’accès à la publicité et des restrictions relatives au développement d’un modèle d’intelligence artificielle. Pour chacune de ces pratiques, l’Autorité a estimé qu’aucun élément suffisamment probant n’appuyait les reproches formulés par la requérante », conclut l’institution.

Cette décision n’est a priori pas une surprise pour Qwant. Mi-octobre, Olivier Abecassis laissait en effet entendre à Reuters qu’il était au courant que l’Autorité inclinait vers un rejet de sa saisine au fond. « Dans ce cas, nous n’aurons d’autre choix que d’épuiser tous les recours légaux disponibles pour protéger notre entreprise contre les abus flagrants de Microsoft, défendre nos droits et demander réparation », déclarait-il à cette occasion.

  •  

L’Autorité de la concurrence rejette la plainte de Qwant contre Microsoft

Caramba, encore raté
L’Autorité de la concurrence rejette la plainte de Qwant contre Microsoft

Saisie par Qwant, l’Autorité de la concurrence a finalement considéré que l’entreprise française n’avait pas réussi à démontrer que Microsoft serait en position dominante sur le marché de la syndication des résultats de recherche. Elle pointe également l’absence d’éléments susceptibles de confirmer que l’éditeur américain entretiendrait la dépendance de son concurrent à ses propres outils.

Un coup d’épée dans l’eau. L’Autorité de la concurrence a annoncé jeudi 27 novembre le rejet de la saisine déposée par le moteur de recherche français Qwant à l’encontre de son partenaire historique, Microsoft.

« L’Autorité considère que Qwant n’apporte pas d’élément suffisamment probant de nature à démontrer que Microsoft serait en position dominante sur le marché décrit dans sa saisine ou que les conditions de l’abus de dépendance économique seraient réunies », indique le gendarme de la concurrence. Ce rejet au fond de la saisine entraîne logiquement une réponse négative aux mesures conservatoires réclamées par Qwant en juin dernier.

En attendant la publication de sa décision, l’Autorité de la concurrence résume ses conclusions dans un communiqué de presse, qui retrace également les grandes lignes de l’affaire.

Microsoft aurait voulu tuer la concurrence

Rappelons que si Qwant, désormais associée à Ecosia au sein d’une coentreprise baptisée European Search Perspective, travaille à la constitution d’un index de recherche européen surnommé Staan, le moteur de recherche français exploite historiquement les résultats de recherche fournis par Bing, le moteur de Microsoft.

Le différend entre les deux partenaires débute en 2023, quand Microsoft annonce une hausse de tarif pour le moins conséquente des API permettant de se connecter à l’index de Bing. Les prix publics augmentent en effet d’un facteur qui varie de deux à dix, selon les fonctionnalités et le volume de requêtes concernés.

« Le nouveau modèle de tarification reflète plus fidèlement les investissements technologiques que Bing continue de réaliser pour améliorer la recherche », arguait à l’époque Microsoft. Pour Olivier Abecassis, patron de Qwant depuis sa reprise par Octave Klaba (OVHcloud), la manœuvre poursuivait une autre finalité. « Ils voulaient tout simplement tuer le marché des moteurs de recherche alternatifs », affirme ce dernier aux Échos, évoquant par ailleurs une baisse significative des revenus générés par l’intermédiaire de l’offre publicitaire de Bing.

Il y aurait donc un double préjudice : un abus de position dominante, matérialisé par cette augmentation de prix arbitraire, et une discrimination dans l’accès à l’offre publicitaire permettant de rémunérer l’audience réalisée par Qwant. D’où une saisine de l’Autorité de la concurrence, qui a diligenté en début d’année une enquête sur les pratiques de Microsoft en matière de syndication des résultats de recherche.

Difficile de parler de position dominante quand Google est dans la place

Si Google règne en maître sur le marché français de la recherche en ligne, Microsoft occupe historiquement une place particulière sur le segment, plus spécifique, de la syndication des résultats, c’est-à-dire leur mise à disposition au profit de moteurs tiers. Brave Search exploitait par exemple les résultats de Bing jusqu’en avril 2023. DuckDuckGo s’appuie quant à lui toujours de façon significative sur Bing pour ses résultats généraux et sa recherche d’images, même s’il développe aussi des briques d’indexation en propre. Google n’est cependant pas totalement absent de ce marché, puisque ses résultats ont longtemps sous-tendu ceux d’Ecosia.

Dans ce contexte, l’Autorité de la concurrence ne retient pas l’idée selon laquelle Microsoft peut être taxé d’un abus de position dominante. « Ainsi, la position tout à fait prééminente de Google sur la face rémunératrice du marché est susceptible d’exercer une forte pression concurrentielle sur la face syndication du marché, de nature à exclure, en l’absence d’éléments au dossier attestant du contraire, toute hypothèse de dominance de Microsoft sur le marché de la syndication à destination des moteurs de recherche », résume-t-elle.

L’argument de la dépendance économique est également rejeté. Là où Qwant affirme qu’il lui était impossible de recourir, dans un délai raisonnable, à une alternative aux outils de Microsoft, l’Autorité retient que le moteur français « dispose de capacités de recherche propres, mais est même le seul moteur de recherche contractuellement autorisé par Microsoft à développer sa propre technologie de recherche dans le cadre de la syndication ».

« Qwant reprochait à Microsoft une exclusivité d’approvisionnement en publicités et une vente liée des résultats de recherche organique et des résultats payants, une discrimination dans l’accès à la publicité et des restrictions relatives au développement d’un modèle d’intelligence artificielle. Pour chacune de ces pratiques, l’Autorité a estimé qu’aucun élément suffisamment probant n’appuyait les reproches formulés par la requérante », conclut l’institution.

Cette décision n’est a priori pas une surprise pour Qwant. Mi-octobre, Olivier Abecassis laissait en effet entendre à Reuters qu’il était au courant que l’Autorité inclinait vers un rejet de sa saisine au fond. « Dans ce cas, nous n’aurons d’autre choix que d’épuiser tous les recours légaux disponibles pour protéger notre entreprise contre les abus flagrants de Microsoft, défendre nos droits et demander réparation », déclarait-il à cette occasion.

  •  

☕️ Spécialiste des logiciels de gestion, Cegid rachète la néobanque Shine

Une fois de plus, Shine change de main. Moins d’un an après son acquisition par le groupe danois Ageras, la néobanque française, positionnée notamment sur le segment des micro-entreprises et PME, s’apprête en effet à passer dans le giron de l’éditeur Cegid, qui affiche de fait l’ambition de proposer rapidement à ses clients français et européens une plateforme bancaire et comptable intégrée.

« Cette combinaison structurante donnera naissance au premier hub financier cloud-native, piloté par l’IA et entièrement intégré, à destination des PME et des professionnels de la comptabilité en Europe », annonce l’acquéreur dans un communiqué daté du 26 novembre.

Shine, établissement de paiement concurrent d’offres comme Qonto ou N26, apporte dans sa corbeille « plus de 400 000 clients PME, une marque forte et une architecture technologique très évolutive (scalable), élargissant la portée de Cegid sur les principaux marchés européens ». Le montant de l’opération n’a pas été communiqué, mais il serait supérieur à 1 milliard d’euros d’après Les Échos.

Lancée en 2017, Shine a un agrément d’établissement de paiement, sans découvert autorisé

Lancée en 2017 avec un discours tourné vers les indépendants, Shine avait été rachetée par Société Générale en 2020 après avoir levé 10,8 millions d’euros en plusieurs tours. Censée incarner les velléités nouvelles du groupe bancaire dans le monde des fintechs, Shine a cependant été revendue en 2024 au groupe danois Ageras, sur fond de changement de direction générale et de réorganisation stratégique chez Société Générale.

Cette nouvelle opération ramène donc Shine en France, entre les mains du groupe Cegid cette fois (fondé par Jean-Michel Aulas et basé à Lyon, aujourd’hui détenu par plusieurs fonds, dont l’américain Silver Lake en tant qu’actionnaire majoritaire). Connu pour ses solutions de comptabilité et de gestion, d’abord logicielles puis déployées sous forme de services cloud, ce dernier voit dans l’intégration de Shine la possibilité d’ajouter la corde paiement et compte pro à son arc, pour ainsi renforcer l’attractivité de son offre face au grand concurrent Pennylane, lui aussi très actif sur la cible des PME.

  •  

☕️ Spécialiste des logiciels de gestion, Cegid rachète la néobanque Shine

Une fois de plus, Shine change de main. Moins d’un an après son acquisition par le groupe danois Ageras, la néobanque française, positionnée notamment sur le segment des micro-entreprises et PME, s’apprête en effet à passer dans le giron de l’éditeur Cegid, qui affiche de fait l’ambition de proposer rapidement à ses clients français et européens une plateforme bancaire et comptable intégrée.

« Cette combinaison structurante donnera naissance au premier hub financier cloud-native, piloté par l’IA et entièrement intégré, à destination des PME et des professionnels de la comptabilité en Europe », annonce l’acquéreur dans un communiqué daté du 26 novembre.

Shine, établissement de paiement concurrent d’offres comme Qonto ou N26, apporte dans sa corbeille « plus de 400 000 clients PME, une marque forte et une architecture technologique très évolutive (scalable), élargissant la portée de Cegid sur les principaux marchés européens ». Le montant de l’opération n’a pas été communiqué, mais il serait supérieur à 1 milliard d’euros d’après Les Échos.

Lancée en 2017, Shine a un agrément d’établissement de paiement, sans découvert autorisé

Lancée en 2017 avec un discours tourné vers les indépendants, Shine avait été rachetée par Société Générale en 2020 après avoir levé 10,8 millions d’euros en plusieurs tours. Censée incarner les velléités nouvelles du groupe bancaire dans le monde des fintechs, Shine a cependant été revendue en 2024 au groupe danois Ageras, sur fond de changement de direction générale et de réorganisation stratégique chez Société Générale.

Cette nouvelle opération ramène donc Shine en France, entre les mains du groupe Cegid cette fois (fondé par Jean-Michel Aulas et basé à Lyon, aujourd’hui détenu par plusieurs fonds, dont l’américain Silver Lake en tant qu’actionnaire majoritaire). Connu pour ses solutions de comptabilité et de gestion, d’abord logicielles puis déployées sous forme de services cloud, ce dernier voit dans l’intégration de Shine la possibilité d’ajouter la corde paiement et compte pro à son arc, pour ainsi renforcer l’attractivité de son offre face au grand concurrent Pennylane, lui aussi très actif sur la cible des PME.

  •  

IA dans la musique : après Udio, Warner signe avec Suno

Substitute User Do
IA dans la musique : après Udio, Warner signe avec Suno

Les deux plaintes initiées par Warner Music Group ont finalement débouché sur des partenariats commerciaux. La maison de disque vient en effet d’annoncer coup sur coup deux accords de licence avec les services d’IA générative musicale Suno et Udio.

Les plateformes de musique générée par IA Suno et Udio rémunèreront bientôt Warner Music Group pour l’utilisation, directe ou indirecte, faite de son catalogue. La maison de disque a en effet annoncé, à une semaine d’intervalle, la signature d’accords de gré à gré avec ces deux services.

Mardi 25 novembre, Warner Music Group et Suno ont ainsi révélé avoir enterré la hache de guerre et conclu un partenariat « inédit qui ouvrira de nouvelles perspectives en matière de création, d’interaction et de découverte musicales, tout en rémunérant et en protégeant les artistes, les auteurs-compositeurs et l’ensemble de la communauté créative ».

Un accord à la portée inédite

Les modalités financières de l’accord sont tenues secrètes, mais les deux sociétés précisent qu’il met un terme à leurs différends judiciaires. Leur annonce révèle également une évolution à venir dans les modèles d’IA générative développés par Suno. En 2026, l’entreprise devrait ainsi remplacer son offre actuelle par de nouveaux modèles « plus avancés et sous licence ».

On ne sait pas, à ce stade, dans quelle mesure la prise en compte de cette licence octroyée par Warner aura un impact sur les fonctionnalités offertes aux utilisateurs de Suno.

Les deux entreprises promettent toutefois que l’accord se révélera protecteur pour les artistes signés chez la major. « Les artistes et les auteurs-compositeurs auront un contrôle total sur l’utilisation de leurs noms, images, ressemblances, voix et compositions dans les nouvelles musiques générées par l’IA ».

Cette nouvelle licence sous-tendra par ailleurs un modèle économique basé à terme sur une logique de freemium.

Vers un freemium pour l’IA musicale de Suno

« À l’avenir, le téléchargement de fichiers audio nécessitera un compte payant. Suno introduira des restrictions de téléchargement dans certains cas : notamment, les morceaux créés avec la version gratuite ne seront plus téléchargeables, mais pourront être écoutés et partagés. Les utilisateurs d’un abonnement payant disposeront d’un nombre de téléchargements mensuel limité, avec la possibilité d’en obtenir davantage en payant ».

L’accord prévoit également que Warner transfère à Suno la responsabilité de Songkick, sa plateforme dédiée à la promotion et au référencement de concerts. Rachetée en 2017, cette startup avait été privée un an plus tard de sa principale composante business, la billetterie, en raison d’un litige avec Live Nation, maison mère de Ticketmaster. Sous la houlette de Suno, Songkick a vocation à renforcer sa dimension de « lieu de rencontre prisé des fans, alliant la puissance de la musique interactive aux performances en direct », évoquent vaguement les deux entreprises.

Warner a également signé avec Udio, Stability et Klay

Une semaine plus tôt, c’est avec Udio, autre startup emblématique de l’IA générative appliquée à la musique, que signait Warner Music Group. Là aussi, l’accord permet de solder les poursuites judiciaires, et suppose la construction d’un modèle économique intégrant cette logique de droits concédés sous licence.

« Grâce à cette collaboration, Udio développera une plateforme de création, d’écoute et de découverte musicale de nouvelle génération, alimentée par des modèles d’IA génératifs entraînés sur des œuvres musicales sous licence », affirment cette fois les deux entreprises, en soulignant que ce nouveau service doit donc générer des revenus pour les artistes et auteurs-compositeurs signés chez Warner, « tout en garantissant la protection de leurs œuvres ».

Là aussi, l’accord suppose une remise à plat du fonctionnement du service Udio, et de son modèle économique. « Le service d’abonnement repensé d’Udio proposera une série d’expériences créatives permettant aux utilisateurs de réaliser des remixes, des reprises et de nouvelles chansons à partir des voix d’artistes et des compositions d’auteurs-compositeurs participants, tout en garantissant la rémunération de ces derniers », décrit à ce niveau la startup, tout en indiquant que ses outils actuels resteront en service jusqu’à la bascule vers ce nouveau fonctionnement, programmée pour 2026.

Warner a par ailleurs annoncé deux accords similaires avec deux autres éditeurs d’IA générative musicale : Stability AI, qui propose la famille des modèles Stable Audio, et Klay Vision, un service encore en cours d’élaboration, qui promet de révolutionner l’expérience d’écoute de la musique grâce, bien sûr, à l’IA générative.

Partenariats similaires chez Universal Music Group

Klay, qui s’est lancée en octobre 2024 avec la bénédiction d’Universal Music Group, profite d’ailleurs de l’occasion pour annoncer la mise en place de contrats avec les principales majors du disque. Outre Warner, elle indique avoir signé avec Sony et Warner Chappell Music, et affiche son intention d’élargir le périmètre à « tous les labels indépendants, artistes, éditeurs et auteurs-compositeurs ». Un vœu pieux ?

Jusqu’ici, les principaux accords entre IA et représentants du monde de la musique n’ont été signés qu’avec les grandes majors, dont le pouvoir de négociation a sans doute profité des poursuites lancées à l’été 2024 contre les acteurs de l’IA générative retranchés derrière la logique de fair use. Universal, première maison de disque du marché, a elle aussi signé avec Udio et Stability.

  •  

IA dans la musique : après Udio, Warner signe avec Suno

Substitute User Do
IA dans la musique : après Udio, Warner signe avec Suno

Les deux plaintes initiées par Warner Music Group ont finalement débouché sur des partenariats commerciaux. La maison de disque vient en effet d’annoncer coup sur coup deux accords de licence avec les services d’IA générative musicale Suno et Udio.

Les plateformes de musique générée par IA Suno et Udio rémunèreront bientôt Warner Music Group pour l’utilisation, directe ou indirecte, faite de son catalogue. La maison de disque a en effet annoncé, à une semaine d’intervalle, la signature d’accords de gré à gré avec ces deux services.

Mardi 25 novembre, Warner Music Group et Suno ont ainsi révélé avoir enterré la hache de guerre et conclu un partenariat « inédit qui ouvrira de nouvelles perspectives en matière de création, d’interaction et de découverte musicales, tout en rémunérant et en protégeant les artistes, les auteurs-compositeurs et l’ensemble de la communauté créative ».

Un accord à la portée inédite

Les modalités financières de l’accord sont tenues secrètes, mais les deux sociétés précisent qu’il met un terme à leurs différends judiciaires. Leur annonce révèle également une évolution à venir dans les modèles d’IA générative développés par Suno. En 2026, l’entreprise devrait ainsi remplacer son offre actuelle par de nouveaux modèles « plus avancés et sous licence ».

On ne sait pas, à ce stade, dans quelle mesure la prise en compte de cette licence octroyée par Warner aura un impact sur les fonctionnalités offertes aux utilisateurs de Suno.

Les deux entreprises promettent toutefois que l’accord se révélera protecteur pour les artistes signés chez la major. « Les artistes et les auteurs-compositeurs auront un contrôle total sur l’utilisation de leurs noms, images, ressemblances, voix et compositions dans les nouvelles musiques générées par l’IA ».

Cette nouvelle licence sous-tendra par ailleurs un modèle économique basé à terme sur une logique de freemium.

Vers un freemium pour l’IA musicale de Suno

« À l’avenir, le téléchargement de fichiers audio nécessitera un compte payant. Suno introduira des restrictions de téléchargement dans certains cas : notamment, les morceaux créés avec la version gratuite ne seront plus téléchargeables, mais pourront être écoutés et partagés. Les utilisateurs d’un abonnement payant disposeront d’un nombre de téléchargements mensuel limité, avec la possibilité d’en obtenir davantage en payant ».

L’accord prévoit également que Warner transfère à Suno la responsabilité de Songkick, sa plateforme dédiée à la promotion et au référencement de concerts. Rachetée en 2017, cette startup avait été privée un an plus tard de sa principale composante business, la billetterie, en raison d’un litige avec Live Nation, maison mère de Ticketmaster. Sous la houlette de Suno, Songkick a vocation à renforcer sa dimension de « lieu de rencontre prisé des fans, alliant la puissance de la musique interactive aux performances en direct », évoquent vaguement les deux entreprises.

Warner a également signé avec Udio, Stability et Klay

Une semaine plus tôt, c’est avec Udio, autre startup emblématique de l’IA générative appliquée à la musique, que signait Warner Music Group. Là aussi, l’accord permet de solder les poursuites judiciaires, et suppose la construction d’un modèle économique intégrant cette logique de droits concédés sous licence.

« Grâce à cette collaboration, Udio développera une plateforme de création, d’écoute et de découverte musicale de nouvelle génération, alimentée par des modèles d’IA génératifs entraînés sur des œuvres musicales sous licence », affirment cette fois les deux entreprises, en soulignant que ce nouveau service doit donc générer des revenus pour les artistes et auteurs-compositeurs signés chez Warner, « tout en garantissant la protection de leurs œuvres ».

Là aussi, l’accord suppose une remise à plat du fonctionnement du service Udio, et de son modèle économique. « Le service d’abonnement repensé d’Udio proposera une série d’expériences créatives permettant aux utilisateurs de réaliser des remixes, des reprises et de nouvelles chansons à partir des voix d’artistes et des compositions d’auteurs-compositeurs participants, tout en garantissant la rémunération de ces derniers », décrit à ce niveau la startup, tout en indiquant que ses outils actuels resteront en service jusqu’à la bascule vers ce nouveau fonctionnement, programmée pour 2026.

Warner a par ailleurs annoncé deux accords similaires avec deux autres éditeurs d’IA générative musicale : Stability AI, qui propose la famille des modèles Stable Audio, et Klay Vision, un service encore en cours d’élaboration, qui promet de révolutionner l’expérience d’écoute de la musique grâce, bien sûr, à l’IA générative.

Partenariats similaires chez Universal Music Group

Klay, qui s’est lancée en octobre 2024 avec la bénédiction d’Universal Music Group, profite d’ailleurs de l’occasion pour annoncer la mise en place de contrats avec les principales majors du disque. Outre Warner, elle indique avoir signé avec Sony et Warner Chappell Music, et affiche son intention d’élargir le périmètre à « tous les labels indépendants, artistes, éditeurs et auteurs-compositeurs ». Un vœu pieux ?

Jusqu’ici, les principaux accords entre IA et représentants du monde de la musique n’ont été signés qu’avec les grandes majors, dont le pouvoir de négociation a sans doute profité des poursuites lancées à l’été 2024 contre les acteurs de l’IA générative retranchés derrière la logique de fair use. Universal, première maison de disque du marché, a elle aussi signé avec Udio et Stability.

  •