Vue lecture

Tout ce qu’il faut savoir sur les noms de domaine en .fr

Demain, interro surprise !
Tout ce qu’il faut savoir sur les noms de domaine en .fr

Le .fr vous l’utilisez régulièrement, sans forcément vous en rendre compte. Cela fait maintenant 20 ans que les particuliers peuvent en acheter (avez-vous le vôtre ?) et l’utiliser pour un site et/ou une adresse email. Mais connaissez-vous son histoire et ses règles ? Car oui, il y a de nombreuses subtilités.

On rembobine Internet et on remonte en presque 40 ans en arrière, une éternité à l’échelle de l’informatique et Net.

Les moins de 40 ont toujours connu le .fr

C’est, en effet, le 2 septembre 1986 que le .fr est né. Il était alors géré par INRIA, l’Institut National de Recherche en Informatique et en Automatique, « par délégation du Stanford Research Institute Network Information Centre puis de l’Internic », précise Inria. Internic était alors une « marque de service déposée par le département américain du Commerce », explique Wikipédia.

Pour rappel, toutes les extensions avec deux caractères sont rattachés à un pays : le .me au Monténégro, le .co à la Colombie, le .cv au Cap Vert, le .dj à Djibouti, etc. Il y a également le .tv qui appartient aux iles Tuvalu, qui ont ainsi « touché le jackpot », expliquait le youtubeur Ludovic B.

D’Inria à l’Afnic

Inria assurait alors le rôle de NIC-France (Network Information Centre) « pour les besoins propres de ses chercheurs puis pour l’ensemble de la communauté R&D française ainsi que l’administration du réseau Fnet/Inria ». En 1992, Nic-France/Inria s’ouvre « au groupement d’intérêt public Renater […] puis progressivement à tous ceux qui souhaitaient se raccorder à Internet ».

On parle d’une autre époque, où l’enregistrement de nom de domaines était alors gratuit. Comme le rappelle l’informaticien Fabien Gandon d’Inria, c’est en 1995 que « l’enregistrement des noms de domaines devient payant ». Le but était alors de faire face à l’augmentation des demandes, « d’améliorer le traitement des enregistrements et de financer les améliorations de l’infrastructure Internet », selon cette archive de l’IETF.

« Au début des années 1990, on comptait trois cents noms de domaines en .fr et quatre personnes suffisaient à gérer la zone .fr qui s’enrichissait de un à deux noms de domaines par jour », explique Jean-Yves Babonneau, ancien directeur de l’Afnic. Afnic ? C’est l’Association française pour le nommage Internet en coopération (Afnic) qui a repris la gestion du .fr à partir du 1er janvier 1998.


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Lorsque des brouillages et/ou des perturbations sont rencontrés par des opérateurs, ils peuvent demander l’ouverture d’une enquête auprès de l’ANFR. Des agents se déplacent alors sur place, et l’Agence nationale des fréquences en profite parfois pour raconter ces histoires (qui se terminent bien). Il y a quelques mois, l’ANFR expliquait par exemple comment des étiquettes RFID (passives) arrivaient à perturber des antennes 3G/4G.

Aujourd’hui, il est de nouveau question de téléphonie mobile, mais en 5G, avec une antenne dysfonctionnelle à Alençon (61) à cause d’un brouillage. Pourquoi seulement la 5G ? À cause du TDD (time division duplexing) bien évidemment.

TDD vs FDD : de la 2G à la 5G les technologies ont évolué

Pour rappel, de la 2G à la 4G en France, la séparation entre l’envoi et la réception des données reposait sur un découpage en fréquences appelé FDD, pour frequency domain duplexing. Sur la bande allouée à l’opérateur, une partie est utilisée pour le téléchargement, une autre pour l’upload, avec une « bande centrale » pour assurer la séparation et éviter les perturbations.

Pour des appels audio, c’est très efficace comme partage puisque les échanges sont à peu prés les mêmes dans les deux sens. Par contre pour accéder à Internet, c’est différent : le gros du trafic est généralement dans le sens descendant. « Or, il est impossible de modifier le sens affecté à chaque voie sans réallouer les fréquences attribuées aux opérateurs ; d’où un usage moins efficace du spectre disponible à mesure que l’usage descendant s’intensifie », explique l’ANFR.

En 5G, le découpage change : on passe du FDD au TDD. Cette fois-ci la fréquence est la même dans les deux sens, la séparation se fait avec une division temporelle : « À intervalles réguliers, après une pause très brève, le sens s’inverse », entre download et upload.

Un besoin de précision de l’ordre de la microseconde

L’utilisation du spectre est donc améliorée avec la possibilité de « jouer » sur les intervalles temporels, mais il y a une contrepartie : « le fonctionnement du TDD nécessite néanmoins une gestion du temps très rigoureuse ». Le temps de trajet d’une trame (c’est elle qui contient les données) est de « quelques microsecondes, mais il faut pouvoir les décompter avec précision ».

Maintenant, imaginez que plusieurs antennes fonctionnent dans la même zone : « étant donné le volume de trafic intense dans les sens montant puis descendant qui circule constamment sur des bandes de fréquences proches, il est important que les antennes soient synchronisées ». Si une antenne envoie des signaux vers les smartphones pendant qu’une voisine est en mode upload, « elle ne pourrait plus entendre ses terminaux, car rendue sourde par la puissance rayonnée par la première antenne ».

La synchronisation est donc primordiale, y compris quand les antennes « sont exploitées par des opérateurs concurrents ». Pour donner quelques chiffres, l’ANFR explique que le mode TDD nécessite une synchronisation précise de tous les réseaux mobiles, « avec une tolérance inférieure à 1,5 µs (microseconde) ».

Les horloges atomiques des satellites « GPS » à la rescousse

Les antennes relais disposent évidemment d’une horloge interne, mais la précision n’est pas suffisante et elle dépasse rapidement les 1,5 µs. Il faut donc trouver une source capable de proposer une excellente précision, partout sur le territoire. Il n’y a pas à chercher bien loin : levez les yeux au ciel et la solution apparait : les satellites Global Navigation Satellite System (GNSS). Deux exemples : le GPS américain et Galileo européen.

Vous ne le saviez peut-être pas, mais tous les satellites GNSS embarquent des horloges atomiques de très haute précision… qui ont d’ailleurs donné quelques sueurs froides à l’Agence spatiale européenne sur Galileo) On parle de données PNT pour « position, navigation et temps ». Pour fonctionner correctement avec ses petits camarades, chaque station de base 5G en TDD est équipée d’un récepteur GNSS.

Un brouillage de 8 h à 00 h

Revenons au brouillage du jour sur une antenne 5G : « entre 8 heures et minuit, presque tous les jours, le nombre de satellites vus par ce récepteur passait brusquement d’une dizaine à zéro, provoquant ainsi la perte de la synchronisation ». Un comble pour une antenne immobile.

L’enquête commence. Avant de se rendre sur place, les agents vérifient qu’il n’y a pas de brouillage de grande envergure (même si on peut se douter qu’en pareille situation les alertes auraient été plus nombreuses). Sur une station à 18 kilomètres de l’antenne, rien à signaler sur la réception des signaux GNSS.

Sur place, au pied du site de l’opérateur, les agents de l’ANFR font de nouveau chou blanc : aucun brouillage n’est détecté. Alors qu’ils sont au pied du pylône, ils demandent confirmation : au même instant, il y a sans aucun doute possible une perturbation en cours sur le récepteur.

Le récepteur était saturé par les antennes relais

La solution est finalement trouvée : le récepteur GPS de l’opérateur n’est pas brouillé, mais saturé. L’antenne du récepteur se trouve « dans une zone de champs forts dûs aux multiples opérateurs colocalisés sur le même pylône. Or, un récepteur GPS n’apprécie guère ce type d’environnement, car il se doit d’être très sensible. Et pour cause : il doit extraire du bruit ambiant des signaux GPS qui arrivent de l’espace avec un niveau très faible, environ un million de fois plus faible que le signal qui sort d’un téléphone mobile ».

Cela colle aux observations : le signal est coupé aux heures d’utilisation maximales de la téléphonie mobile (du matin au soir), il s’atténuait certains jours fériés et le brouillage ne cessait finalement que la nuit.

ANFR - Antennes installées sur pylône à Alençon
ANFR – Antennes installées sur pylône à Alençon

La densification des sites radioélectriques

Une observation rapide confirme : le récepteur GNSS est « au faîte de l’antenne, dangereusement entouré de plusieurs émetteurs ». La résolution du problème était des plus simples : le récepteur a été repositionné plus bas sur le pylône. Tout est alors rentré dans l’ordre.

« Cette enquête montre que la densification des sites radioélectriques peut provoquer des interactions entre les différents équipements radio qui y sont installés », explique l’Agence nationale des fréquences en guise de conclusion.

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Lorsque des brouillages et/ou des perturbations sont rencontrés par des opérateurs, ils peuvent demander l’ouverture d’une enquête auprès de l’ANFR. Des agents se déplacent alors sur place, et l’Agence nationale des fréquences en profite parfois pour raconter ces histoires (qui se terminent bien). Il y a quelques mois, l’ANFR expliquait par exemple comment des étiquettes RFID (passives) arrivaient à perturber des antennes 3G/4G.

Aujourd’hui, il est de nouveau question de téléphonie mobile, mais en 5G, avec une antenne dysfonctionnelle à Alençon (61) à cause d’un brouillage. Pourquoi seulement la 5G ? À cause du TDD (time division duplexing) bien évidemment.

TDD vs FDD : de la 2G à la 5G les technologies ont évolué

Pour rappel, de la 2G à la 4G en France, la séparation entre l’envoi et la réception des données reposait sur un découpage en fréquences appelé FDD, pour frequency domain duplexing. Sur la bande allouée à l’opérateur, une partie est utilisée pour le téléchargement, une autre pour l’upload, avec une « bande centrale » pour assurer la séparation et éviter les perturbations.

Pour des appels audio, c’est très efficace comme partage puisque les échanges sont à peu prés les mêmes dans les deux sens. Par contre pour accéder à Internet, c’est différent : le gros du trafic est généralement dans le sens descendant. « Or, il est impossible de modifier le sens affecté à chaque voie sans réallouer les fréquences attribuées aux opérateurs ; d’où un usage moins efficace du spectre disponible à mesure que l’usage descendant s’intensifie », explique l’ANFR.

En 5G, le découpage change : on passe du FDD au TDD. Cette fois-ci la fréquence est la même dans les deux sens, la séparation se fait avec une division temporelle : « À intervalles réguliers, après une pause très brève, le sens s’inverse », entre download et upload.

Un besoin de précision de l’ordre de la microseconde

L’utilisation du spectre est donc améliorée avec la possibilité de « jouer » sur les intervalles temporels, mais il y a une contrepartie : « le fonctionnement du TDD nécessite néanmoins une gestion du temps très rigoureuse ». Le temps de trajet d’une trame (c’est elle qui contient les données) est de « quelques microsecondes, mais il faut pouvoir les décompter avec précision ».

Maintenant, imaginez que plusieurs antennes fonctionnent dans la même zone : « étant donné le volume de trafic intense dans les sens montant puis descendant qui circule constamment sur des bandes de fréquences proches, il est important que les antennes soient synchronisées ». Si une antenne envoie des signaux vers les smartphones pendant qu’une voisine est en mode upload, « elle ne pourrait plus entendre ses terminaux, car rendue sourde par la puissance rayonnée par la première antenne ».

La synchronisation est donc primordiale, y compris quand les antennes « sont exploitées par des opérateurs concurrents ». Pour donner quelques chiffres, l’ANFR explique que le mode TDD nécessite une synchronisation précise de tous les réseaux mobiles, « avec une tolérance inférieure à 1,5 µs (microseconde) ».

Les horloges atomiques des satellites « GPS » à la rescousse

Les antennes relais disposent évidemment d’une horloge interne, mais la précision n’est pas suffisante et elle dépasse rapidement les 1,5 µs. Il faut donc trouver une source capable de proposer une excellente précision, partout sur le territoire. Il n’y a pas à chercher bien loin : levez les yeux au ciel et la solution apparait : les satellites Global Navigation Satellite System (GNSS). Deux exemples : le GPS américain et Galileo européen.

Vous ne le saviez peut-être pas, mais tous les satellites GNSS embarquent des horloges atomiques de très haute précision… qui ont d’ailleurs donné quelques sueurs froides à l’Agence spatiale européenne sur Galileo) On parle de données PNT pour « position, navigation et temps ». Pour fonctionner correctement avec ses petits camarades, chaque station de base 5G en TDD est équipée d’un récepteur GNSS.

Un brouillage de 8 h à 00 h

Revenons au brouillage du jour sur une antenne 5G : « entre 8 heures et minuit, presque tous les jours, le nombre de satellites vus par ce récepteur passait brusquement d’une dizaine à zéro, provoquant ainsi la perte de la synchronisation ». Un comble pour une antenne immobile.

L’enquête commence. Avant de se rendre sur place, les agents vérifient qu’il n’y a pas de brouillage de grande envergure (même si on peut se douter qu’en pareille situation les alertes auraient été plus nombreuses). Sur une station à 18 kilomètres de l’antenne, rien à signaler sur la réception des signaux GNSS.

Sur place, au pied du site de l’opérateur, les agents de l’ANFR font de nouveau chou blanc : aucun brouillage n’est détecté. Alors qu’ils sont au pied du pylône, ils demandent confirmation : au même instant, il y a sans aucun doute possible une perturbation en cours sur le récepteur.

Le récepteur était saturé par les antennes relais

La solution est finalement trouvée : le récepteur GPS de l’opérateur n’est pas brouillé, mais saturé. L’antenne du récepteur se trouve « dans une zone de champs forts dûs aux multiples opérateurs colocalisés sur le même pylône. Or, un récepteur GPS n’apprécie guère ce type d’environnement, car il se doit d’être très sensible. Et pour cause : il doit extraire du bruit ambiant des signaux GPS qui arrivent de l’espace avec un niveau très faible, environ un million de fois plus faible que le signal qui sort d’un téléphone mobile ».

Cela colle aux observations : le signal est coupé aux heures d’utilisation maximales de la téléphonie mobile (du matin au soir), il s’atténuait certains jours fériés et le brouillage ne cessait finalement que la nuit.

ANFR - Antennes installées sur pylône à Alençon
ANFR – Antennes installées sur pylône à Alençon

La densification des sites radioélectriques

Une observation rapide confirme : le récepteur GNSS est « au faîte de l’antenne, dangereusement entouré de plusieurs émetteurs ». La résolution du problème était des plus simples : le récepteur a été repositionné plus bas sur le pylône. Tout est alors rentré dans l’ordre.

« Cette enquête montre que la densification des sites radioélectriques peut provoquer des interactions entre les différents équipements radio qui y sont installés », explique l’Agence nationale des fréquences en guise de conclusion.

☕️ Un guide de l’ANSSI sur l’homologation de sécurité des systèmes d’information

Le guide, coécrit par l’ANSSI et la DINUM permet « de comprendre et de détailler la démarche permettant aux organisations d’homologuer leurs systèmes d’information ». Mais de quoi parle-t-on exactement ? Une homologation de sécurité est « un acte formel qui engage l’autorité qui la prononce ».

L’Agence rappelle que ce passage est « rendu obligatoire par un grand nombre de textes officiels est appelée « décision d’homologation » ». Et pour bien comprendre les enjeux, elle ajoute que « dans certains pays, le principe d’homologation existe et peut-être appelé « accréditation » ou « autorisation » ».

Ce guide s’adresse donc « à toutes les personnes devant réaliser, porter ou accompagner une démarche d’homologation ». L’ANSSI ajoute qu’une homologation n’est pas permanente et « doit être reconduite au maximum tous les trois ans ».

Quatre documents sont mis en ligne. Le gros morceau est le guide de 88 pages, accompagné de trois fiches méthodes, notamment une pour les décideurs, afin de leur rappeler les enjeux et les bénéfices… mais aussi certainement donner des billes aux responsables informatiques qui chercheraient à convaincre leur patron.

☕️ Un guide de l’ANSSI sur l’homologation de sécurité des systèmes d’information

Le guide, coécrit par l’ANSSI et la DINUM permet « de comprendre et de détailler la démarche permettant aux organisations d’homologuer leurs systèmes d’information ». Mais de quoi parle-t-on exactement ? Une homologation de sécurité est « un acte formel qui engage l’autorité qui la prononce ».

L’Agence rappelle que ce passage est « rendu obligatoire par un grand nombre de textes officiels est appelée « décision d’homologation » ». Et pour bien comprendre les enjeux, elle ajoute que « dans certains pays, le principe d’homologation existe et peut-être appelé « accréditation » ou « autorisation » ».

Ce guide s’adresse donc « à toutes les personnes devant réaliser, porter ou accompagner une démarche d’homologation ». L’ANSSI ajoute qu’une homologation n’est pas permanente et « doit être reconduite au maximum tous les trois ans ».

Quatre documents sont mis en ligne. Le gros morceau est le guide de 88 pages, accompagné de trois fiches méthodes, notamment une pour les décideurs, afin de leur rappeler les enjeux et les bénéfices… mais aussi certainement donner des billes aux responsables informatiques qui chercheraient à convaincre leur patron.

[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Flock 2.0 pour vous servir
[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Vous en rêviez ? Next vous propose un nouvel outil : avec un simple prompt, générez des images dans le « style des dessins de Flock ». Là encore, nous avons mis à contribution l’IA générative, mais en local. Explications.

Quand Flock a vu la semaine dernière des images « style Ghibli » générées par l’intelligence artificielle d’OpenAI, il était assez dubitatif. Mais il s’est vite rendu compte du potentiel de cette fonctionnalité, d’autant qu’elle a été reprise à tour de bras par des internautes et politiciens, sans plus de réflexion que « c’est beau ».

Bref, il veut croquer sa part du gâteau et Next pourrait de son côté profiter d’une belle exposition médiatique. Un combo gagnant-gagnant ?

Autant prendre les devants, avec une IA maison

Il a donc décidé de prendre les devants et de se lancer, avec l’aide de l’IA générative. Comme nous l’expliquions récemment, il utilisait déjà un peu l’IA, mais il passe clairement une nouvelle étape… sans doute un peu poussé par Sébastien qui s’en sert largement pour développer des extensions et d’autres applications.

Ce n’est pas tout. Flock dresse un constat triste, mais réaliste de la situation : il y a des chances que des IA génératives se nourrissent déjà de son travail, bien que l’indexation de nos contenus ne soit pas autorisée par notre fichier robots.txt. Ce dernier n’engage malheureusement que ceux qui y croient et veulent bien jouer le jeu. « Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier », rappelle à juste titre Wikipédia.

On a fait chauffer les serveurs de moji

Il a donc profité d’une réunion d’équipe pour lancer une idée : que Next propose des dessins dans le « style Flock » aux lecteurs. Une fonctionnalité qui serait évidemment réservée à nos abonnés.

Sans attendre, on se lance, d’autant que moji dispose d’un datacenter, avec des serveurs et des GPU que nous pouvons utiliser pour divers projets. L’investissement pour Next est quasi nul, autant en profiter sans attendre ! Pour la phase d’entrainement, nous avons utilisé près de 3 000 dessins de Flock sur nos serveurs, et il nous a fourni près de 5 000 brouillons supplémentaires, tous réalisés pour Next.

Il faut bien le reconnaitre : c’est encore un peu juste pour arriver à un résultat parfait, mais c’est déjà largement exploitable pour une première version. L’outil est donc en bêta pour le moment. Nous le laissons ouvert à tous pour le moment, afin d’avoir un maximum de retours avant de le finaliser.

Un outil en bêta, accessible à tous pour l’instant

Pendant ce temps, l’IA génère des dessins supplémentaires de Flock. Ils serviront ensuite à réaliser une seconde phase d’apprentissage sur la base de dessins plus nombreux. Tous les GPU n’étant pas encore disponibles pour la génération d’images, le résultat peut mettre jusqu’à une trentaine de secondes à s’afficher. Patience donc.

En attendant, prenez ce nouvel outil en main, testez et faites-nous part de vos retours !

[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Flock 2.0 pour vous servir
[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Vous en rêviez ? Next vous propose un nouvel outil : avec un simple prompt, générez des images dans le « style des dessins de Flock ». Là encore, nous avons mis à contribution l’IA générative, mais en local. Explications.

Quand Flock a vu la semaine dernière des images « style Ghibli » générées par l’intelligence artificielle d’OpenAI, il était assez dubitatif. Mais il s’est vite rendu compte du potentiel de cette fonctionnalité, d’autant qu’elle a été reprise à tour de bras par des internautes et politiciens, sans plus de réflexion que « c’est beau ».

Bref, il veut croquer sa part du gâteau et Next pourrait de son côté profiter d’une belle exposition médiatique. Un combo gagnant-gagnant ?

Autant prendre les devants, avec une IA maison

Il a donc décidé de prendre les devants et de se lancer, avec l’aide de l’IA générative. Comme nous l’expliquions récemment, il utilisait déjà un peu l’IA, mais il passe clairement une nouvelle étape… sans doute un peu poussé par Sébastien qui s’en sert largement pour développer des extensions et d’autres applications.

Ce n’est pas tout. Flock dresse un constat triste, mais réaliste de la situation : il y a des chances que des IA génératives se nourrissent déjà de son travail, bien que l’indexation de nos contenus ne soit pas autorisée par notre fichier robots.txt. Ce dernier n’engage malheureusement que ceux qui y croient et veulent bien jouer le jeu. « Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier », rappelle à juste titre Wikipédia.

On a fait chauffer les serveurs de moji

Il a donc profité d’une réunion d’équipe pour lancer une idée : que Next propose des dessins dans le « style Flock » aux lecteurs. Une fonctionnalité qui serait évidemment réservée à nos abonnés.

Sans attendre, on se lance, d’autant que moji dispose d’un datacenter, avec des serveurs et des GPU que nous pouvons utiliser pour divers projets. L’investissement pour Next est quasi nul, autant en profiter sans attendre ! Pour la phase d’entrainement, nous avons utilisé près de 3 000 dessins de Flock sur nos serveurs, et il nous a fourni près de 5 000 brouillons supplémentaires, tous réalisés pour Next.

Il faut bien le reconnaitre : c’est encore un peu juste pour arriver à un résultat parfait, mais c’est déjà largement exploitable pour une première version. L’outil est donc en bêta pour le moment. Nous le laissons ouvert à tous pour le moment, afin d’avoir un maximum de retours avant de le finaliser.

Un outil en bêta, accessible à tous pour l’instant

Pendant ce temps, l’IA génère des dessins supplémentaires de Flock. Ils serviront ensuite à réaliser une seconde phase d’apprentissage sur la base de dessins plus nombreux. Tous les GPU n’étant pas encore disponibles pour la génération d’images, le résultat peut mettre jusqu’à une trentaine de secondes à s’afficher. Patience donc.

En attendant, prenez ce nouvel outil en main, testez et faites-nous part de vos retours !

☕️ France2030 : 50 millions d’euros pour la « SupraFusion »

C’est un projet financé par le plan d’investissement France2030, avec 50 millions d’euros sur sept ans. Il est piloté par le CEA et le CNRS. Il « vise à accélérer le développement de supraconducteurs à haute température pour répondre aux défis énergétiques et sociétaux de demain, grâce notamment à l’énergie de fusion ».

Si la fission nucléaire consiste à casser un noyau atomique pour créer de l’énergie, la fusion associe deux noyaux légers pour en faire un plus lourd. C’est le type de réaction que l’on retrouve au cœur des étoiles.

Attention à ne pas vous laisser avoir par la « haute température critique », il s’agit de 80 kelvins soit - 193 °C, mais on est loin des 4 kelvins (- 269 °C) des supraconducteurs traditionnels. Les supraconducteurs ont des « propriétés électriques et magnétiques particulières, qui les rendent aptes à supporter des courants d’intensité très élevée », explique le CNRS. Mais aussi sans perte, ajoute le CEA.

Ces matériaux pourraient être cruciaux en fusion nucléaire, mais ils « présenteraient également un grand potentiel dans de nouvelles applications comme la production d’électricité éolienne, le transfert d’électricité ou la mobilité lourde bas-carbone (avions, bateaux) ».

Le programme de recherche s’articule autour de trois axes : « développer les briques technologiques des supraconducteurs haute température critique, démontrer leur fiabilité technologique à grande échelle autour d’un démonstrateur d’électro-aimant d’envergure, et explorer les applications de rupture, en particulier les centrales de fusion compactes électrogènes ».

☕️ France2030 : 50 millions d’euros pour la « SupraFusion »

C’est un projet financé par le plan d’investissement France2030, avec 50 millions d’euros sur sept ans. Il est piloté par le CEA et le CNRS. Il « vise à accélérer le développement de supraconducteurs à haute température pour répondre aux défis énergétiques et sociétaux de demain, grâce notamment à l’énergie de fusion ».

Si la fission nucléaire consiste à casser un noyau atomique pour créer de l’énergie, la fusion associe deux noyaux légers pour en faire un plus lourd. C’est le type de réaction que l’on retrouve au cœur des étoiles.

Attention à ne pas vous laisser avoir par la « haute température critique », il s’agit de 80 kelvins soit - 193 °C, mais on est loin des 4 kelvins (- 269 °C) des supraconducteurs traditionnels. Les supraconducteurs ont des « propriétés électriques et magnétiques particulières, qui les rendent aptes à supporter des courants d’intensité très élevée », explique le CNRS. Mais aussi sans perte, ajoute le CEA.

Ces matériaux pourraient être cruciaux en fusion nucléaire, mais ils « présenteraient également un grand potentiel dans de nouvelles applications comme la production d’électricité éolienne, le transfert d’électricité ou la mobilité lourde bas-carbone (avions, bateaux) ».

Le programme de recherche s’articule autour de trois axes : « développer les briques technologiques des supraconducteurs haute température critique, démontrer leur fiabilité technologique à grande échelle autour d’un démonstrateur d’électro-aimant d’envergure, et explorer les applications de rupture, en particulier les centrales de fusion compactes électrogènes ».

La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

Lancer, exploser, apprendre, répéter
La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

La fusée Spectrum a décollé hier soir du nord de la Norvège. Elle n’a pas atteint l’espace et a explosé 30 secondes après son décollage. Son fabricant Isar Aerospace et le port spatial d’Andøya parlent d’un « succès ». Le temps est maintenant à l’analyse des données, avant de procéder à de nouveaux essais.

Hier, la société allemande Isar Aerospace faisait décoller pour la première fois sa fusée Spectrum, depuis la base norvégienne de l’île d’Andøya. Elle est située à l’intérieur du cercle polaire, au nord des îles Lofoten, une position idéale pour lancer des satellites sur des orbites polaires ou héliosynchrones.

Une orbite polaire (basse altitude) survole chaque jour la surface complète de la terre. Elle peut être héliosynchrone, les satellites observant alors toujours chaque région du globe à la même heure locale solaire. Pour en savoir plus sur ces deux orbites, vous pouvez lire notre dossier sur Ariane 6.

« Peu importe jusqu’où nous irons »

De son côté, Isar Aerospace, acteur du new space européen, a été sélectionné par l’Agence spatiale européenne dans le cadre du programme Boost!.

Le 14 mars, l’entreprise recevait le feu vert de la Norwegian Civil Aviation Authority (NCAA) pour son premier vol d’essai. Le 17 mars, Isar Aerospace expliquait que « l’objectif de ce premier test du lanceur est de collecter autant de données et d’expérience que possible ». L’entreprise ajoutait que sa fusée avait été « conçue, développée et construite presque entièrement en interne ».

Baptisée « Going Full Spectrum », cette première mission d’Isar Aerospace ne disposait d’aucune charge utile de partenaires. L’espoir d’atteindre l’orbite était assez faible : « Notre objectif est de tester chaque composant et système du lanceur […] Peu importe jusqu’où nous irons avec ce vol d’essai », affirmait Alexandre Dalloneau, vice-président de la société, avant le lancement.

Même son de cloche quelques jours avant le lancement de la part de Daniel Metzler (CEO et co-fondateur d’Isar Aerospace) : « Nous ne nous attendons pas à atteindre l’orbite avec ce test. En réalité, aucune entreprise n’a encore réussi à placer son tout premier lanceur orbital en orbite. SpaceX a eu besoin de quatre tentatives, mais nous voulons aller plus vite », expliquait-il à l’AFP.

30 secondes de vol avant une explosion

Une diffusion officielle et en direct du lancement était au programme. Si la fusée a décollé correctement, elle s’est retournée après seulement 30 secondes de vol avant de venir s’écraser dans l’eau avec une belle explosion à la clé. La base d’Andøya parlait poliment d’un « incident » sur les réseaux sociaux, ajoutant que « la gestion de crise a été activée ».

Andøya s’est ensuite fendu d’un communiqué, depuis retiré mais toujours visible sur Webarchive : « le vol d’essai a été interrompu par le port spatial d’Andøya, conformément à nos procédures de sécurité […] Le lanceur s’est écrasé dans la mer. Personne n’a été blessé et les travaux d’évaluation des dommages environnementaux et matériels sont en cours ». Dans le vocabulaire de SpaceX, on parlerait de Rapid Unscheduled Disassembly (RUD).

« Notre premier vol d’essai a répondu à toutes nos attentes »

« Pour le port spatial d’Andøya et Isar Aerospace, ce vol d’essai a été un succès. Toutes les procédures et tous les systèmes ont été validés, et nous sommes impatients de planifier la prochaine tentative de lancement », ajoutait le communiqué désormais passé dans les oubliettes.

Chez Isar Aerospace aussi, on utilise à plusieurs reprises le mot « succès » pour parler de cette mission : « Le véhicule a quitté avec succès la rampe de lancement, a été arrêté à T+30 secondes et est tombé directement dans la mer de manière contrôlée ». La rampe de lancement du port spatial d’Andøya est « intacte ».

Daniel Metzler, CEO et co-fondateur d’Isar Aerospace se félicite aussi : « Notre premier vol d’essai a répondu à toutes nos attentes et a été un franc succès. Nous avons décollé sans encombre, avons effectué 30 secondes de vol et avons même pu valider notre système de terminaison de vol ». Quelques jours avant le lancement, il expliquait à l’AFP que « trente secondes de vol seraient déjà un vrai succès ».

Bülent Altan, président d’Isar Aerospace et ancien dirigeant de SpaceX, y va aussi de son analyse : « Comme je l’ai déjà expérimenté, il faut normalement quelques tentatives pour atteindre l’orbite, mais après le vol d’essai d’aujourd’hui, je suis très confiant qu’Isar Aerospace sera l’un des plus rapides à le faire ».

Isar Aerospace prévoit jusqu’à 40 lanceurs Spectrum par an

Dans un message sur X, accompagné d’un résumé vidéo de sa première mission, décrit la suite des événements : « Lancer, apprendre, répéter ». On y voit le lanceur décoller puis terminer sa courte vie dans une explosion dans la mer de Norvège.

Forte de son « succès », la société se tourne vers l’avenir : « Les lanceurs pour les deuxième et troisième vols du Spectrum d’Isar Aerospace sont déjà en production ». Elle ajoute que dans son usine de Munich (Allemagne), elle « sera en mesure de produire jusqu’à 40 lanceurs Spectrum par an à l’avenir ».

La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

Lancer, exploser, apprendre, répéter
La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

La fusée Spectrum a décollé hier soir du nord de la Norvège. Elle n’a pas atteint l’espace et a explosé 30 secondes après son décollage. Son fabricant Isar Aerospace et le port spatial d’Andøya parlent d’un « succès ». Le temps est maintenant à l’analyse des données, avant de procéder à de nouveaux essais.

Hier, la société allemande Isar Aerospace faisait décoller pour la première fois sa fusée Spectrum, depuis la base norvégienne de l’île d’Andøya. Elle est située à l’intérieur du cercle polaire, au nord des îles Lofoten, une position idéale pour lancer des satellites sur des orbites polaires ou héliosynchrones.

Une orbite polaire (basse altitude) survole chaque jour la surface complète de la terre. Elle peut être héliosynchrone, les satellites observant alors toujours chaque région du globe à la même heure locale solaire. Pour en savoir plus sur ces deux orbites, vous pouvez lire notre dossier sur Ariane 6.

« Peu importe jusqu’où nous irons »

De son côté, Isar Aerospace, acteur du new space européen, a été sélectionné par l’Agence spatiale européenne dans le cadre du programme Boost!.

Le 14 mars, l’entreprise recevait le feu vert de la Norwegian Civil Aviation Authority (NCAA) pour son premier vol d’essai. Le 17 mars, Isar Aerospace expliquait que « l’objectif de ce premier test du lanceur est de collecter autant de données et d’expérience que possible ». L’entreprise ajoutait que sa fusée avait été « conçue, développée et construite presque entièrement en interne ».

Baptisée « Going Full Spectrum », cette première mission d’Isar Aerospace ne disposait d’aucune charge utile de partenaires. L’espoir d’atteindre l’orbite était assez faible : « Notre objectif est de tester chaque composant et système du lanceur […] Peu importe jusqu’où nous irons avec ce vol d’essai », affirmait Alexandre Dalloneau, vice-président de la société, avant le lancement.

Même son de cloche quelques jours avant le lancement de la part de Daniel Metzler (CEO et co-fondateur d’Isar Aerospace) : « Nous ne nous attendons pas à atteindre l’orbite avec ce test. En réalité, aucune entreprise n’a encore réussi à placer son tout premier lanceur orbital en orbite. SpaceX a eu besoin de quatre tentatives, mais nous voulons aller plus vite », expliquait-il à l’AFP.

30 secondes de vol avant une explosion

Une diffusion officielle et en direct du lancement était au programme. Si la fusée a décollé correctement, elle s’est retournée après seulement 30 secondes de vol avant de venir s’écraser dans l’eau avec une belle explosion à la clé. La base d’Andøya parlait poliment d’un « incident » sur les réseaux sociaux, ajoutant que « la gestion de crise a été activée ».

Andøya s’est ensuite fendu d’un communiqué, depuis retiré mais toujours visible sur Webarchive : « le vol d’essai a été interrompu par le port spatial d’Andøya, conformément à nos procédures de sécurité […] Le lanceur s’est écrasé dans la mer. Personne n’a été blessé et les travaux d’évaluation des dommages environnementaux et matériels sont en cours ». Dans le vocabulaire de SpaceX, on parlerait de Rapid Unscheduled Disassembly (RUD).

« Notre premier vol d’essai a répondu à toutes nos attentes »

« Pour le port spatial d’Andøya et Isar Aerospace, ce vol d’essai a été un succès. Toutes les procédures et tous les systèmes ont été validés, et nous sommes impatients de planifier la prochaine tentative de lancement », ajoutait le communiqué désormais passé dans les oubliettes.

Chez Isar Aerospace aussi, on utilise à plusieurs reprises le mot « succès » pour parler de cette mission : « Le véhicule a quitté avec succès la rampe de lancement, a été arrêté à T+30 secondes et est tombé directement dans la mer de manière contrôlée ». La rampe de lancement du port spatial d’Andøya est « intacte ».

Daniel Metzler, CEO et co-fondateur d’Isar Aerospace se félicite aussi : « Notre premier vol d’essai a répondu à toutes nos attentes et a été un franc succès. Nous avons décollé sans encombre, avons effectué 30 secondes de vol et avons même pu valider notre système de terminaison de vol ». Quelques jours avant le lancement, il expliquait à l’AFP que « trente secondes de vol seraient déjà un vrai succès ».

Bülent Altan, président d’Isar Aerospace et ancien dirigeant de SpaceX, y va aussi de son analyse : « Comme je l’ai déjà expérimenté, il faut normalement quelques tentatives pour atteindre l’orbite, mais après le vol d’essai d’aujourd’hui, je suis très confiant qu’Isar Aerospace sera l’un des plus rapides à le faire ».

Isar Aerospace prévoit jusqu’à 40 lanceurs Spectrum par an

Dans un message sur X, accompagné d’un résumé vidéo de sa première mission, décrit la suite des événements : « Lancer, apprendre, répéter ». On y voit le lanceur décoller puis terminer sa courte vie dans une explosion dans la mer de Norvège.

Forte de son « succès », la société se tourne vers l’avenir : « Les lanceurs pour les deuxième et troisième vols du Spectrum d’Isar Aerospace sont déjà en production ». Elle ajoute que dans son usine de Munich (Allemagne), elle « sera en mesure de produire jusqu’à 40 lanceurs Spectrum par an à l’avenir ».

☕️ L’intelligence artificielle s’attaque à la mort subite d’origine cardiaque

Dans un communiqué, l’Inserm rappelle que « la mort subite d’origine cardiaque est responsable de plus de 5 millions de décès à travers le monde ». Dans un bon nombre de cas, cela arrive « sans signe précurseur identifiable », parfois sur des individus sans antécédents connu de maladie cardiaque.

C’est là que l’intelligence artificielle entre en jeu : elle « pourrait permettre de mieux anticiper les arythmies, des troubles inexpliqués du rythme du cœur dont les formes les plus sévères peuvent provoquer un arrêt cardiaque fatal ». C’est en tout cas le sens d’une étude entre des chercheurs de l’Inserm et de l’Université Paris Cité et de l’AP-HP, « en collaboration avec des chercheurs américains ».

Ils ont développé un réseau de neurones et l’ont entrainé avec « plusieurs millions d’heures de battements du cœur grâce aux données de 240 000 électrocardiogrammes ambulatoires recueillies dans six pays (États-Unis, France, Royaume-Uni, Afrique du Sud, Inde et République tchèque) ». Les algorithmes ont identifié de « nouveaux signaux faibles annonçant un risque d’arythmie ».

Les premiers résultats sont encourageants : le réseau de neurones « est encore en phase d’évaluation, mais, dans le cadre de cette étude, il a montré qu’il était capable de détecter les patients à risque dans 70 % des cas, et les patients sans risque dans 99,9 % des cas ».

« Jusqu’à présent, nous essayions d’identifier les patients à risque sur le moyen et long terme, mais nous étions incapables de prédire ce qui pouvait se passer dans les minutes, les heures ou les jours précédant un arrêt cardiaque. Aujourd’hui, grâce à l’intelligence artificielle, nous sommes capables de prédire ces événements à très court terme et, potentiellement, d’agir avant qu’il ne soit trop tard », explique Eloi Marijon, directeur de recherche à l’Inserm au sein du laboratoire Paris.

L’Inserm se projette dans le futur : « cet algorithme pourrait servir à surveiller les patients à risque à l’hôpital. À condition d’affiner ses performances, il pourrait aussi être intégré à des dispositifs comme les holters ambulatoires qui mesurent la pression artérielle pour mettre en évidence les risques d’hypertension, voire à des montres connectées ».

☕️ L’intelligence artificielle s’attaque à la mort subite d’origine cardiaque

Dans un communiqué, l’Inserm rappelle que « la mort subite d’origine cardiaque est responsable de plus de 5 millions de décès à travers le monde ». Dans un bon nombre de cas, cela arrive « sans signe précurseur identifiable », parfois sur des individus sans antécédents connu de maladie cardiaque.

C’est là que l’intelligence artificielle entre en jeu : elle « pourrait permettre de mieux anticiper les arythmies, des troubles inexpliqués du rythme du cœur dont les formes les plus sévères peuvent provoquer un arrêt cardiaque fatal ». C’est en tout cas le sens d’une étude entre des chercheurs de l’Inserm et de l’Université Paris Cité et de l’AP-HP, « en collaboration avec des chercheurs américains ».

Ils ont développé un réseau de neurones et l’ont entrainé avec « plusieurs millions d’heures de battements du cœur grâce aux données de 240 000 électrocardiogrammes ambulatoires recueillies dans six pays (États-Unis, France, Royaume-Uni, Afrique du Sud, Inde et République tchèque) ». Les algorithmes ont identifié de « nouveaux signaux faibles annonçant un risque d’arythmie ».

Les premiers résultats sont encourageants : le réseau de neurones « est encore en phase d’évaluation, mais, dans le cadre de cette étude, il a montré qu’il était capable de détecter les patients à risque dans 70 % des cas, et les patients sans risque dans 99,9 % des cas ».

« Jusqu’à présent, nous essayions d’identifier les patients à risque sur le moyen et long terme, mais nous étions incapables de prédire ce qui pouvait se passer dans les minutes, les heures ou les jours précédant un arrêt cardiaque. Aujourd’hui, grâce à l’intelligence artificielle, nous sommes capables de prédire ces événements à très court terme et, potentiellement, d’agir avant qu’il ne soit trop tard », explique Eloi Marijon, directeur de recherche à l’Inserm au sein du laboratoire Paris.

L’Inserm se projette dans le futur : « cet algorithme pourrait servir à surveiller les patients à risque à l’hôpital. À condition d’affiner ses performances, il pourrait aussi être intégré à des dispositifs comme les holters ambulatoires qui mesurent la pression artérielle pour mettre en évidence les risques d’hypertension, voire à des montres connectées ».

☕️ IA, cybersécurité : la Commission européenne va investir 1,3 milliard d’euros

Cette manne financière s’inscrit dans le cadre du programme pour une Europe numérique (DIGITAL) qui s’étend sur les deux prochaines années. Il est « axé sur le déploiement de l’intelligence artificielle (IA) et son adoption par les entreprises et l’administration publique, le cloud et les données, la cyberrésilience et les compétences numériques ».

La Commission donne quelques pistes prioritaires : « améliorer la disponibilité et l’accessibilité des applications d’IA génératives », améliorer « la résilience et la sécurité des infrastructures critiques, y compris les hôpitaux et les câbles sous-marins », développer « les capacités des établissements d’enseignement et de formation de l’UE ».

En creux, évidemment, la question de l’autonomie et de la souveraineté, comme l’explique Henna Virkkunen (vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie) : « Pour garantir la souveraineté technologique européenne, il faut d’abord investir dans les technologies de pointe et permettre aux citoyens d’améliorer leurs compétences numériques ». Le prochain appel à projets dans le cadre du Digital Europe Programme (DIGITAL) sera lancé en avril.

☕️ Broadcom resserre encore la vis sur les licences VMware

Suite au rachat de VMware par Broadcom (pour 61 milliards de dollars), les conditions d’utilisation des produits de l’éditeur ont largement évolué, au grand dam des utilisateurs : suppressions de produits, disparition des licences perpétuelles, regroupement, prix des abonnements…

Un nouveau changement a été annoncé par le distributeur Arrow à ses clients, avec une mise en place à partir du 10 avril : le nombre de cœurs minimum pour les licences VMware passe de 16 à 72. Si vous avez une machine avec un seul CPU de huit cœurs, la licence sera la même qu’avec deux bi-CPU de 16 cœurs (72 au total). Le minimum de facturation était auparavant de 16, soit quatre fois moins.

« En parallèle de cette évolution, le message ajoute une autre mauvaise nouvelle, cette fois-ci pour les clients qui n’auraient pas renouvelé leur contrat à la date anniversaire. Ils se verront appliqués des pénalités pouvant représenter 20 % du prix de la première année de souscription et seront appliquées rétroactivement », ajoute le Monde Informatique.

Enfin, Broadcom ajoute que les mises à jour des produits ne seront plus accessibles via une adresse publique, mais via des URL uniques pour chaque client (avec des jetons d’identification). Tous les détails se trouvent sur les instructions de mise à jour de la configuration des téléchargements authentifiés VCF.

☕️ IA, cybersécurité : la Commission européenne va investir 1,3 milliard d’euros

Cette manne financière s’inscrit dans le cadre du programme pour une Europe numérique (DIGITAL) qui s’étend sur les deux prochaines années. Il est « axé sur le déploiement de l’intelligence artificielle (IA) et son adoption par les entreprises et l’administration publique, le cloud et les données, la cyberrésilience et les compétences numériques ».

La Commission donne quelques pistes prioritaires : « améliorer la disponibilité et l’accessibilité des applications d’IA génératives », améliorer « la résilience et la sécurité des infrastructures critiques, y compris les hôpitaux et les câbles sous-marins », développer « les capacités des établissements d’enseignement et de formation de l’UE ».

En creux, évidemment, la question de l’autonomie et de la souveraineté, comme l’explique Henna Virkkunen (vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie) : « Pour garantir la souveraineté technologique européenne, il faut d’abord investir dans les technologies de pointe et permettre aux citoyens d’améliorer leurs compétences numériques ». Le prochain appel à projets dans le cadre du Digital Europe Programme (DIGITAL) sera lancé en avril.

☕️ Broadcom resserre encore la vis sur les licences VMware

Suite au rachat de VMware par Broadcom (pour 61 milliards de dollars), les conditions d’utilisation des produits de l’éditeur ont largement évolué, au grand dam des utilisateurs : suppressions de produits, disparition des licences perpétuelles, regroupement, prix des abonnements…

Un nouveau changement a été annoncé par le distributeur Arrow à ses clients, avec une mise en place à partir du 10 avril : le nombre de cœurs minimum pour les licences VMware passe de 16 à 72. Si vous avez une machine avec un seul CPU de huit cœurs, la licence sera la même qu’avec deux bi-CPU de 16 cœurs (72 au total). Le minimum de facturation était auparavant de 16, soit quatre fois moins.

« En parallèle de cette évolution, le message ajoute une autre mauvaise nouvelle, cette fois-ci pour les clients qui n’auraient pas renouvelé leur contrat à la date anniversaire. Ils se verront appliqués des pénalités pouvant représenter 20 % du prix de la première année de souscription et seront appliquées rétroactivement », ajoute le Monde Informatique.

Enfin, Broadcom ajoute que les mises à jour des produits ne seront plus accessibles via une adresse publique, mais via des URL uniques pour chaque client (avec des jetons d’identification). Tous les détails se trouvent sur les instructions de mise à jour de la configuration des téléchargements authentifiés VCF.

Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

Pour le meilleur ou pour le pire ?
Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

Elon Musk (patron de X) revend le réseau social X à xAI (dont le patron est Elon Musk). Il fusionne les deux sociétés pour « accélérer activement le progrès humain ».

C’est évidemment sur le réseau social que l’annonce a été faite : « xAI a acquis X dans le cadre d’une transaction entièrement en actions. Cette opération valorise xAI à 80 milliards de dollars et X à 33 milliards de dollars (45 milliards de dollars moins 12 milliards de dollars de dette) ». On pourrait presque parler de transaction interne puisque xAI est la société d’intelligence artificielle créée par Elon Musk en 2023 et dont il est le patron.

1 milliard de dollars de plus qu’au rachat de Twitter par Elon Musk

Le calendrier et le montant de la transaction ne doivent certainement rien au hasard : X est revenu récemment à son niveau de capitalisation au moment du rachat par Elon Musk. En accord avec lui-même, il a donc décidé de vendre le réseau social pour 45 milliards de dollars (dette comprise). La valorisation du réseau social est ainsi de 33 milliards de dollars une fois les 12 milliards de dollars de dette enlevés.

Linda Yaccarino, CEO de X, s’est fendue d’un court message pour saluer cette fusion : « L’avenir ne pourrait pas être plus radieux ». Elon Musk de son côté termine par : « cela nous permettra de construire une plateforme qui ne se contente pas de refléter le monde, mais qui accélère activement le progrès humain ».

X et xAI fusionnent pour le meilleur et pour… ?

« L’avenir de xAI et de X sont étroitement liés. Aujourd’hui, nous prenons officiellement l’initiative de combiner données, modèles, calcul, distribution et talents. Cette fusion libérera un immense potentiel en alliant les capacités et l’expertise avancées de xAI en IA à la portée considérable de X », précise Elon Musk.

Il revendique au passage « plus de 600 millions d’utilisateurs actifs », mais sans préciser la fréquence à laquelle ils sont présents (par jour, semaine, mois ?)

xAI se positionne pour rappel en face d’OpenAI… dont Elon Musk était un des cofondateurs avant de partir en 2018 à cause de conflits internes et potentiels conflits d’intérêt. Il avait ensuite attaqué l’entreprise pour rupture de contrat, puis décidé d’abandonner le procès. Plus récemment, Elon Musk mettait 97,4 milliards de dollars sur la table pour racheter OpenAI.

xAI propose un modèle de langage que l’on pourrait qualifier de « rebelle » – c’est-à-dire sans les garde-fous habituels. Il était d’ailleurs au cœur de la polémique d’un portrait de Cyril Hanouna réalisé via Grok. Nous avions pour rappel testé d’autres IA génératives qui avaient refusé de générer des portraits d’autres personnalités.

« Une partie de la croissance est stimulée par la peur »

Depuis le rachat de Twitter, Elon Musk a rebaptisé le réseau social X et l’a profondément remanié, notamment sur les règles de modération en misant sur les Community Notes. Le Monde explique qu’il a « autorisé les propos haineux et la désinformation au nom de la liberté d’expression, faisant fuir une partie des marques inquiètes du contexte dans lequel leurs messages apparaissent ». La capitalisation de X était alors en baisse.

Depuis le retour de Donald Trump au pouvoir avec les coudées franches d’Elon Musk à la tête du DOGE (qui licencie à tour de bras des fonctionnaires américains), les publicitaires sont de retour, mais c’est un peu le « salaire de la peur » selon certains analystes, dont Jasmine Enberg :

« Une partie de la croissance est stimulée par la peur. De nombreux annonceurs considèrent désormais les dépenses pour X comme un « coût pour faire des affaires » et éviter d’éventuelles représailles juridiques ou financières, en partie à cause des liens de Musk avec l’administration Trump ».

On serait ainsi passé de l’inacceptable à l’inévitable, selon l’analyste. Elle ajoute que ce ne serait pas le seul vecteur de croissance de l’entreprise. X aurait aussi « réussi à s’assurer une nouvelle base d’annonceurs, notamment des PME », alors que c’était une cible compliquée pour Twitter.

Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

Pour le meilleur ou pour le pire ?
Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

Elon Musk (patron de X) revend le réseau social X à xAI (dont le patron est Elon Musk). Il fusionne les deux sociétés pour « accélérer activement le progrès humain ».

C’est évidemment sur le réseau social que l’annonce a été faite : « xAI a acquis X dans le cadre d’une transaction entièrement en actions. Cette opération valorise xAI à 80 milliards de dollars et X à 33 milliards de dollars (45 milliards de dollars moins 12 milliards de dollars de dette) ». On pourrait presque parler de transaction interne puisque xAI est la société d’intelligence artificielle créée par Elon Musk en 2023 et dont il est le patron.

1 milliard de dollars de plus qu’au rachat de Twitter par Elon Musk

Le calendrier et le montant de la transaction ne doivent certainement rien au hasard : X est revenu récemment à son niveau de capitalisation au moment du rachat par Elon Musk. En accord avec lui-même, il a donc décidé de vendre le réseau social pour 45 milliards de dollars (dette comprise). La valorisation du réseau social est ainsi de 33 milliards de dollars une fois les 12 milliards de dollars de dette enlevés.

Linda Yaccarino, CEO de X, s’est fendue d’un court message pour saluer cette fusion : « L’avenir ne pourrait pas être plus radieux ». Elon Musk de son côté termine par : « cela nous permettra de construire une plateforme qui ne se contente pas de refléter le monde, mais qui accélère activement le progrès humain ».

X et xAI fusionnent pour le meilleur et pour… ?

« L’avenir de xAI et de X sont étroitement liés. Aujourd’hui, nous prenons officiellement l’initiative de combiner données, modèles, calcul, distribution et talents. Cette fusion libérera un immense potentiel en alliant les capacités et l’expertise avancées de xAI en IA à la portée considérable de X », précise Elon Musk.

Il revendique au passage « plus de 600 millions d’utilisateurs actifs », mais sans préciser la fréquence à laquelle ils sont présents (par jour, semaine, mois ?)

xAI se positionne pour rappel en face d’OpenAI… dont Elon Musk était un des cofondateurs avant de partir en 2018 à cause de conflits internes et potentiels conflits d’intérêt. Il avait ensuite attaqué l’entreprise pour rupture de contrat, puis décidé d’abandonner le procès. Plus récemment, Elon Musk mettait 97,4 milliards de dollars sur la table pour racheter OpenAI.

xAI propose un modèle de langage que l’on pourrait qualifier de « rebelle » – c’est-à-dire sans les garde-fous habituels. Il était d’ailleurs au cœur de la polémique d’un portrait de Cyril Hanouna réalisé via Grok. Nous avions pour rappel testé d’autres IA génératives qui avaient refusé de générer des portraits d’autres personnalités.

« Une partie de la croissance est stimulée par la peur »

Depuis le rachat de Twitter, Elon Musk a rebaptisé le réseau social X et l’a profondément remanié, notamment sur les règles de modération en misant sur les Community Notes. Le Monde explique qu’il a « autorisé les propos haineux et la désinformation au nom de la liberté d’expression, faisant fuir une partie des marques inquiètes du contexte dans lequel leurs messages apparaissent ». La capitalisation de X était alors en baisse.

Depuis le retour de Donald Trump au pouvoir avec les coudées franches d’Elon Musk à la tête du DOGE (qui licencie à tour de bras des fonctionnaires américains), les publicitaires sont de retour, mais c’est un peu le « salaire de la peur » selon certains analystes, dont Jasmine Enberg :

« Une partie de la croissance est stimulée par la peur. De nombreux annonceurs considèrent désormais les dépenses pour X comme un « coût pour faire des affaires » et éviter d’éventuelles représailles juridiques ou financières, en partie à cause des liens de Musk avec l’administration Trump ».

On serait ainsi passé de l’inacceptable à l’inévitable, selon l’analyste. Elle ajoute que ce ne serait pas le seul vecteur de croissance de l’entreprise. X aurait aussi « réussi à s’assurer une nouvelle base d’annonceurs, notamment des PME », alors que c’était une cible compliquée pour Twitter.

Dans les coulisses de nine : un point d’échange qui veut « secouer un peu » le marché

« No, it doesn’t run Doom » : REMBOURSAY !!!
Dans les coulisses de nine : un point d’échange qui veut « secouer un peu » le marché

Ce n’est pas tous les quatre matins qu’un nouveau point d’échange français est lancé en Europe. C’est pourtant le cas avec nine, qui vient jouer sur les platebandes de France-IX. Nous avons échangé avec deux des co-fondateurs, au sujet de leurs ambitions et choix techniques.

À l’occasion du 41ᵉ rendez-vous FRnOG (FRench Network Operators Group), un nouveau point d’échange français (avec une présence européenne) se lance ce vendredi 28 mars : nine.

C’est une filiale de oui.do/things, la holding détenant l’opérateur B2B moji et le média Next.ink. Cette actualité s’est faite à l’initiative de Next, car nous avons décidé qu’elle représente un intérêt pour nos lecteurs.

Afin d’avoir la vision et les ambitions de nine, nous nous sommes entretenus avec deux co-créateurs du point d’échange : Ferdinand Chevrant-Breton (également fondateur de oui.do) et Nicolas Vuillermet (ingénieur réseau).

Genèse du projet

« nine est venu d’un besoin. Nous ne l’avons pas créé pour posséder un point d’échange, cette idée est venue d’un manque sur le marché du peering, à la fois en termes d’accessibilité financière et géographique », nous explique Ferdinand Chevrant-Breton.

Il nous précise d’ailleurs que « si moji est à l’origine de nine, [l’opérateur] sera son premier client », notamment pour les besoins de transport des données. Et, sur ce point, le patron de moji (qui jongle avec les casquettes) nous explique avoir « énormément de trafic » à écouler par rapport à sa taille, « entre 300 et 400 Gb/s de trafic en permanence ».


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌