Vue normale

Reçu — 31 mars 2026 Next - Articles gratuits

Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

31 mars 2026 à 15:36
souverainete.ch
Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.

Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.

Proton Workspace, à partir de 12,99 euros par mois

« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.

Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).

L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.

Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next

Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.

Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.

Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.

« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.

La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.

Proton Meet met le cap sur la visio

Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.

« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.

L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.

Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton

D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.

Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.

L’anonymat de Proton n’est pas au-dessus des lois suisses

Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.

L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.

« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.


☕️ Comment désactiver la traduction automatique par Grok sur X

31 mars 2026 à 14:12


L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.

Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.

Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».

En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next

« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.

X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.

La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».

Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.

On peut (heureusement) désactiver la traduction automatique – capture d’écran Next

Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

31 mars 2026 à 10:08
It's not a bug, it's a feature
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).

Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.

« Copilot a intégré une pub à ma PR »

Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.

L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson

Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.

« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »

GitHub rétropédale en urgence

Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :

« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »

Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :

« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »

Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».

GitHub renforce l’intégration de Copilot (et son accès aux données)

Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.

Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».

L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.

L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next

L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.

Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.

La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :

  • Sorties acceptées ou modifiées par vos soins
  • Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
  • Commentaires et documentation que vous rédigez
  • Noms de fichiers, structure du dépôt et habitudes de navigation
  • Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
  • Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)

Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.

La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :

« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »

Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.

Reçu — 30 mars 2026 Next - Articles gratuits

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran
Reçu — 27 mars 2026 Next - Articles gratuits

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

Financé par Xavier Niel, le français Ibou lance son alternative à Discover

27 mars 2026 à 13:49
Un projet ibouriffant
Financé par Xavier Niel, le français Ibou lance son alternative à Discover

Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.

Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?

Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.

Une alternative à Google Discover

Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».

En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.

Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next

Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.

« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.

« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.

Un fonctionnement partiellement expliqué

Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.

Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».

Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.

L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.

Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».

Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.

Un historique disponible en un clic

En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.

L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».

« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.

Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next

Xavier Niel entre au capital

« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.

Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.

Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.

Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.

☕️ Tails 7.6 gère automatiquement les ponts Tor pour lutter contre la censure

27 mars 2026 à 07:42


La distribution Tails, axée sur la sécurité et la confidentialité, passe en version 7.6 avec comme principale nouveauté l’intégration des ponts Tor (Tor bridges en anglais) au niveau de l’assistant de connexion intégré au système.

Cette fonctionnalité a fait son apparition dans Tor en juillet 2022 avec la version 11.5 du navigateur. Elle permet de dissimuler la connexion au réseau décentralisé, en introduisant un pont, c’est-à-dire un point d’entrée intermédiaire qui n’est pas identifié comme un nœud Tor, dans le parcours, de façon à contourner les dispositifs de censure.

Dans Tails 7.6, l’assistant de connexion dispose maintenant d’un écran dédié à la configuration de ces ponts, avec la possibilité d’opter pour un point d’entrée par défaut, sélectionné en fonction géographique ou paramétré à la main. L’utilisateur peut également demander la création d’un pont à à la communauté par mail.

Paramétrage d’un pont Tor dans Tails 7.6

« Tails télécharge, via l’API Moat du projet Tor, des informations sur les ponts les plus susceptibles de fonctionner dans votre région. Afin de contourner la censure, cette connexion est dissimulée sous l’apparence d’une connexion à un autre site web grâce à la technique du domain fronting », explique l’équipe de Tails.

La version 7.6 signe également l’introduction de Secrets comme gestionnaire de mots de passe par défaut (en remplacement de KeePassXC), une décision motivée par son interface plus simple et sa meilleure intégration dans GNOME.

Secrets propose de déverrouiller automatiquement l’ancienne base de données KeePassXC, les deux logiciels utilisant le même format de fichier pour stocker les mots de passe. Il est aussi possible d’installer KeePassXC en tant que logiciel complémentaire.

La 7.6 est également l’occasion de corriger divers petits bugs, et de mettre à jour les principaux composants tels que Tor Browser (15.0.8), Thunderbird (140.8.0) ou Electrum (4.7.0).

Les liens de téléchargement, guides d’installation et notes de version sont accessibles via ce billet.

Reçu — 26 mars 2026 Next - Articles gratuits

☕️ Samsung lance son navigateur à l’assaut des PC Windows

26 mars 2026 à 11:25


Disponible depuis l’automne dernier sous forme de bêta destinée aux internautes des États-Unis et de Corée du Sud, la version Windows du navigateur de Samsung, basée sur Chromium, est désormais accessible à tous les internautes via le site dédié. Le fabricant y invite à découvrir un « navigateur Web simple et rapide qui donne la priorité à votre confidentialité et à votre sécurité ».

Le site officiel n’est pour l’instant décliné qu’en anglais et en coréen, mais le logiciel est bien traduit en français. Après récupération de l’exécutable d’installation et téléchargement en arrière-plan, on découvre un processus d’installation classique, avec validation des conditions d’utilisation, proposition d’import des favoris depuis un autre navigateur, proposition d’activer un bloqueur de publicités, et bien sûr connexion à un compte Samsung existant.

C’est en effet dans la capacité à établir un pont entre un smartphone ou une tablette Samsung Galaxy et le PC sous Windows, notamment pour synchroniser les données de navigation ou les mots de passe, que réside l’essentiel de la promesse. On peut ainsi demander à afficher, sur son PC, une page précédemment ouverte sur son smartphone.

Le Samsung Browser dispose d’une vue partagée, comme Chrome – capture d’écran Next

À cette continuité entre PC et mobile, le Samsung Browser ajoute, ô surprise, une proposition de valeur axée sur l’IA, avec la présence d’un « assistant Web » capable de proposer un résumé de la page affichée ou d’opérer une traduction à la volée, mais aussi d’opérer des tâches plus complexes, dans une logique agentique. Pour ce faire, Samsung revendique un partenariat avec Perplexity, dont les modalités financières n’ont pas été dévoilées.

« Le navigateur Samsung est conçu pour comprendre le langage naturel et le contexte de la page consultée, ainsi que l’activité entre les onglets, facilitant ainsi l’exploration du contenu et la prise de décision. Cette nouvelle intelligence permet non seulement de répondre aux questions sur la page web, mais aussi de gérer les onglets, de consulter l’historique de navigation et de rester productif sans quitter le navigateur », promet à ce sujet le fabricant sud-coréen.

Si les résumés et la traduction sont accessibles à tous (sous réserve de création d’un compte Samsung), les fonctions liées au partenariat avec Perplexity sont pour l’instant cantonnées aux États-Unis et à la Corée du Sud. On pourra consulter la déclaration de confidentialité associée au logiciel via ce lien.

☕️ Firefox 149 et son VPN gratuit à 50 Go par mois sont désormais disponibles

26 mars 2026 à 09:21


Comme prévu, les binaires et fichiers d’installation de Firefox 149 ont bien fait leur apparition mardi 24 mars sur les FTP de la fondation Mozilla, mais il a fallu attendre le lendemain pour l’annonce formelle et la publication des notes de version associées.

C’est désormais chose faite, et les internautes de quatre pays (France, Allemagne, Royaume-Uni et États-Unis) sont censés pouvoir accéder à la principale nouveauté annoncée mi-mars par Mozilla : l’introduction d’une fonctionnalité de VPN native au sein du navigateur, accessible gratuitement dans la limite de 50 Go de trafic par mois, à des fins de protection de la vie privée.

Firefox 149 intègre un VPN gratuit associé à 50 Go de trafic – capture d’écran Next

La fonction, comme souvent, fait l’objet d’un déploiement progressif chez les utilisateurs finaux, ce qui signifie qu’elle n’apparait pas forcément chez tous les utilisateurs, même avec la version 149 installée. Il est cependant possible de forcer son activation via la page about:config en passant le paramètre browser.ipProtection.enabled à true.

Notez qu’il est nécessaire d’être connecté à un compte Mozilla. Une icône VPN fait alors son apparition à droite de la barre d’adresse du navigateur. Elle permet d’activer la fonction et d’accéder aux paramètres de cette dernière.

Mozilla a fait le choix à ce niveau de proposer une mise en application globale par défaut, avec une désactivation au cas par cas : les paramètres permettent de spécifier quels sont les sites sur lesquels on ne souhaite pas passer par le tunnel. L’inverse aurait pu sembler pertinent, pour limiter l’emploi des 50 Go offerts aux quelques sites dont l’internaute estime qu’ils méritent le recours à un VPN.

Testé rapidement jeudi matin, le VPN donne des résultats disparates, avec une vitesse de chargement anémique lors de certains essais, et un surf tout à fait honnête sur d’autres courtes sessions. L’adresse de sortie est clairement identifiée comme un VPN associé à Firefox, localisé à Paris. Notons que Mozilla ne propose aucune possibilité de choix géographique sur cette version gratuite, alors que l’option existe au sein de son offre de VPN payante, à partir de 59,88 euros par an.

Activation du VPN et réglages associés – capture d’écran Next

Quid de la vie privée ? Mozilla aborde la question dans la FAQ dédiée :

« Mozilla collecte les données techniques nécessaires pour fournir, maintenir et assurer la performance et la stabilité du service, mais aussi des données d’interaction pour comprendre comment est utilisé la fonctionnalité et aider à orienter les améliorations. Par exemple, nous pouvons enregistrer si une connexion réussit ou échoue. Nous pouvons aussi noter que 2 Go de données ont été consommés un même jour. Important ! Le VPN n’enregistre jamais quels sites web vous consultez ni le contenu de vos communications ».

Pour aller plus loin, nous avons récemment publié un tuto sur comment utiliser un VPS comme serveur VPN maison.

L’Allemagne impose ODF comme format de document pour sa Deutschland Stack souveraine

26 mars 2026 à 07:54
Pile à temps pour la Journée de Libération des Documents
L’Allemagne impose ODF comme format de document pour sa Deutschland Stack souveraine

L’Allemagne vient d’imposer le recours à Open Document Format (ODF) comme standard pour l’enregistrement des documents bureautiques au sein de la pile des logiciels et services numériques de son administration. La Document Foundation, qui soutient ce standard ouvert, salue la décision et lance un appel aux autres pays européens.

La nouvelle aurait pu passer inaperçue, perdue qu’elle était au milieu d’un document de spécifications techniques. Elle n’a cependant pas mis longtemps à revenir aux oreilles, ou plutôt aux yeux, des membres de la Document Foundation, qui s’en sont fait l’écho le 19 mars dernier : l’Allemagne demande désormais de façon tout à fait formelle à ses services publics de recourir à deux formats pour l’enregistrement de leurs documents : le PDF et Open Document Format (ODF). « Il ne s’agit pas d’une recommandation ou d’une préférence, il s’agit d’une obligation », jubile Florian Effenberger, directeur exécutif de la Document Foundation.

L’Allemagne précise la doctrine de sa Deutschland Stack

Cette allusion explicite à ODF intervient dans le cadre de la définition, par l’Allemagne, de sa nouvelle politique en matière de souveraineté, baptisée Deutschland Stack, et censée conduire à la création d’un socle technologique commun (la « stack ») pour l’ensemble des systèmes d’information utilisés par ou destinés aux services publics.

Les grandes lignes de ce socle ont été adoptées et présentées le 18 mars dernier par l’IT-Planungsrat, l’organe allemand de coordination en charge de la numérisation de l’administration publique. Elles reposent sur quatre grands principes.

D’abord, une mise en place progressive sous contrôle fédéral, puis un socle technique commun obligatoire garantissant l’interopérabilité (intégrant les principaux services de base comme la gestion de l’identité ou les mécanismes d’échange et de conservation des données). Elles prévoient ensuite un recours admis et encouragé à l’intelligence artificielle avec une logique de standardisation.

Le cadre de la Deutschland Stack dispose enfin que les services publics doivent recourir à des solutions achetées prioritairement sur le marché européen, et opter pour des licences open source pour les développements réalisés via les agences fédérales ou régionales.

Ces quatre piliers sont accompagnés d’une série de principes architecturaux (acheter plutôt que faire, adopter systématiquement des logiques DevOps ou DevSecOps, raisonner exclusivement sous forme de services et d’API, etc.) et de quelques normes techniques, dont le caractère contraignant se justifie au regard des exigences d’interopérabilité évoquées précédemment. À ce niveau, l’IT-Planungsrat spécifie effectivement deux options pour les documents : PDF/UA (pour PDF/Universal Accessibility, ou accessibilité universelle des PDF) et ODF.

La feuille de route liste les formats qui font office de normes techniques pour la mise en oeuvre des technologies sémantiques au sein de l’administration allemande – source (PDF)

À ce stade, ces grands principes et les contraintes afférentes constituent un cadre normatif, dont les contours exacts pourront cependant évoluer jusqu’à l’horizon 2028, présenté comme le premier palier de mise en œuvre de cette nouvelle politique.

L’Allemagne montre la voie pour la Document Foundation

L’administration allemande risque donc de continuer à enregistrer des documents en .docx ou .xlsx pendant encore quelques années, mais l’essentiel n’est pas là pour la Document Foundation, qui voit dans cette décision de l’IT-Planungsrat une reconnaissance au plus haut niveau de la problématique des formats ouverts et par essence indépendants de tout fournisseur.

Rappelons que l’association, basée en Allemagne et qui milite depuis 2010 sur le sujet des formats libres et ouverts, décrie régulièrement Microsoft, qu’elle accuse d’entretenir une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, alors que c’est une version différente du format qui est implémentée dans ses logiciels.

« La décision de l’Allemagne de placer l’ODF au cœur de son système de gouvernance nationale confirme ce que nous affirmons depuis des années : les formats de documents ouverts et indépendants des fournisseurs ne sont pas une préoccupation marginale pour quelques spécialistes en technologies et défenseurs des logiciels libres. Ils constituent une infrastructure fondamentale pour des administrations publiques démocratiques, interopérables et souveraines », argue Florian Effenberger.

L’association profite de l’occasion pour appeler les autres pays d’Europe à réagir en maniant l’aiguillon de la souveraineté : « À ce stade, la question est claire pour tous les autres gouvernements européens : qu’attendez-vous ? Avec cette décision, la distinction entre ceux qui se soucient de la souveraineté numérique et ceux qui ne s’en soucient pas devient flagrante », écrit-elle dans un nouveau billet daté du 23 mars.

Elle a ensuite remis le couvert deux jours plus tard pour une occasion toute trouvée en ce 25 mars : le dernier mercredi du mois de mars est en effet traditionnellement et depuis 2008 la Journée du document libre au sein de la communauté open source :

« L’utilisation de LibreOffice dans l’administration publique, l’exigence d’ODF dans les politiques d’achat public et la possibilité pour les citoyens d’ouvrir un document gouvernemental sans avoir à acheter de licence logicielle propriétaire ne sont pas de petites victoires, mais la construction progressive d’un espace public numérique qui appartient à tous. »

La France ne s’est pas, à ce stade, dotée d’un cadre aussi normatif que celui envisagé par l’Allemagne, mais le recours à l’open source, aux suites bureautiques libres et aux formats ouverts fait progressivement son chemin chez certaines administrations et collectivités, comme à Lyon ou Échirolles par exemple, dont Next publiait récemment le retour d’expérience.

Reçu — 25 mars 2026 Next - Articles gratuits

☕️ Étudiants : le Cnous victime d’un vol de données concernant 774 000 personnes

25 mars 2026 à 14:12


Le Centre national des œuvres universitaires et scolaires (Cnous) a signalé mardi 24 mars avoir été victime d’une exfiltration de données personnelles. Ces informations ont été obtenues par l’intermédiaire de sa plateforme de prise de rendez-vous avec les 27 établissements régionaux (les Crous) qui constituent son réseau.

L’organisme chiffre précisément la population concernée : en l’occurrence, 774 000 personnes différentes, dont les données « sont issues de rendez-vous pris sur les dix dernières années ».

« Parmi elles, 139 000 personnes ont fait l’objet d’une exfiltration de pièces jointes déposées dans l’application et 635 000 ont fait l’objet d’une exfiltration de données très limitée (nom, prénom, adresse mail, objet et date du rendez-vous) », précise le Cnous.

Il indique avoir pris connaissance de cette exfiltration la veille de son communiqué, soit le 23 mars, vraisemblablement suite à la revendication exprimée par l’attaquant supposé sur un forum spécialisé.

Illustration : Flock

Le Cnous affirme s’être acquitté de ses obligations réglementaires et avoir temporairement suspendu l’accès au site concerné (mesrdv.etudiant.gouv.fr), « le temps de procéder aux corrections nécessaires et de garantir une réouverture dans des conditions de sécurité renforcées ». Les services sociaux des Crous restent, dans l’intervalle, accessibles par téléphone (09 72 59 65 65). « Un dépôt de plainte est en cours. Chaque personne concernée sera informée de la situation par le Cnous », déclare encore l’organisme.

Cette attaque, dont le mode opératoire précis (ingénierie sociale, infostealer ou autre) n’a pas été précisé, participe à une vague de vols de données touchant le monde de l’éducation. Ces derniers jours, des incidents cyber de grande ampleur ont ainsi touché l’Éducation nationale et le secrétariat général à l’enseignement catholique.

☕️ OVHcloud va racheter Dragon LLM, concepteur de modèles spécialisés d’IA générative

25 mars 2026 à 09:38


OVHcloud fait une nouvelle incursion dans le domaine de l’IA générative avec l’annonce, mercredi 25 mars, d’un accord engageant portant sur l’acquisition de la startup française Dragon LLM.

Venue du monde de la traduction automatique, dans lequel elle a évolué depuis 2011 sous le nom Lingua Custodia, cette dernière se positionne comme un producteur de grands modèles de langage (LLM) spécialisés, pensés initialement pour le secteur financier.

« Grâce à cette acquisition, OVHcloud renforce ses équipes avec de nouveaux experts de fine-tuning. En internalisant les briques technologiques développées par Dragon LLM, OVHcloud proposera à ses clients de nouveaux services dans l’IA générative pour les données sensibles, déployables dans le Cloud et On-Premise », déclare le groupe roubaisien dans un communiqué (PDF).

OVHcloud annonce à cette occasion la création de son « lab AI », une division chargée de concevoir et commercialiser ces services associés à l’entraînement ou à la spécialisation des grands modèles de langages. Le groupe confirme ainsi son ambition de ne pas se limiter à l’hébergement d’infrastructures dédiées à l’IA générative, mais bien de remonter une partie de la chaîne de valeur.

Le montant de cette acquisition, qui doit donc encore être finalisée, n’a pas été communiqué.

Lingua Custodia a opéré son pivot vers Dragon LLM à partir de 2024 en postulant, avec succès, au Large AI Grand Challenge lancé par la Commission européenne. L’entreprise, basée en région parisienne, a dans ce cadre pu accéder à plusieurs millions d’heures d’utilisation des supercalculateurs Leonardo (Italie) et Jupiter (Allemagne), pour une valeur cumulée de l’ordre de 10 millions d’euros.

Dragon LLM a livré en novembre 2025 une première incarnation concrète de sa vision en matière de modèles spécialisés et verticaux, avec la publication, sur Hugging Face, de deux LLM Open Finance basés respectivement sur Llama 3.1 et Qwen 3, conçus en partenariat avec l’Agefi et soutenus financièrement par Bpifrance. Ces modèles open source à 8 milliards de paramètres se déclinent également en modèles distribués sous licences commerciales, comptant de 12 milliards à 70 milliards de paramètres, toujours spécialisés en finance et notamment en traduction de documents.

Dragon LLM revendique des performances supérieures à celles des modèles généralistes sur des missions spécifiques au monde de la finance – crédit Dragon LLM

En novembre dernier, Octave Klaba, redevenu CEO d’OVHcloud, avait développé lors du sommet annuel du groupe l’idée selon laquelle l’IA et les grands modèles de langage s’installeraient bientôt comme une forme de surcouche omniprésente au-dessus des applications métier.

☕️ Amazon s’offre la startup Fauna Robotics et son robot dédié aux interactions humaines

25 mars 2026 à 08:37


Après la startup suisse Rivr et ses livreurs autonomes dédiés aux 100 dernières mètres, Amazon poursuit ses emplettes dans le domaine de la robotique avec l’acquisition, confirmée à Bloomberg, d’une jeune pousse new-yorkaise baptisée Fauna Robotics.

Fondée en 2024 et financée à hauteur de 30 millions de dollars un an plus tard, cette équipe de 50 personnes développe un robot humanoïde baptisé Sprout, officiellement dévoilé le 27 janvier dernier. Tout en rondeurs, ce robot de 107 cm pour 22,7 kg est présenté par la startup comme une plateforme de développement dédiée à la création de robots pensés pour le service à la personne.

« Conçu pour les innovateurs dans les domaines de la robotique, de l’IA, de l’enseignement supérieur, du divertissement, du commerce et de l’hôtellerie, Sprout combine mobilité bipède, interaction expressive et manipulation dans un robot léger, robuste et élégant. Son corps à 29 degrés de liberté, son interface vocale naturelle et son design doux et ergonomique le rendent idéal pour déployer des robots dans les mêmes environnements que les personnes », explique ainsi l’entreprise dans la fiche de présentation (PDF) de l’appareil.

Rob Cochran, cofondateur de Fauna Robotics, et le robot Sprout – crédit Fauna Robotics

Amazon a confirmé que les équipes de Fauna et ses deux cofondateurs rejoindraient sa division robotique, sans préciser plus avant ses plans. « Grâce à l’expertise d’Amazon en matière de robotique et à ses décennies d’expérience dans l’acquisition de la confiance des clients à domicile grâce à nos activités de vente au détail et d’appareils, nous sommes impatients d’inventer de nouvelles façons d’améliorer et de simplifier la vie de nos clients », déclare un porte-parole cité par Bloomberg.

Les dernières acquisitions d’Amazon en matière de robots concernaient plutôt la logistique et le transport, activités situées au cœur de son modèle. Le géant du e-commerce a cependant déjà manifesté son intérêt pour la robotique « personnelle » : on se souvient par exemple d’Astro, son petit robot domestique lancé en 2021, qui s’est rapidement révélé un échec technique et commercial.

☕️ Epic licencie plus de 1 000 personnes, met en cause le recul de Fortnite, pas l’IA

25 mars 2026 à 07:32


Epic Games a initié mardi 24 mars le licenciement de plus de 1 000 employés, et annoncé la décision en interne via un email reproduit sur son site. Cette coupe dans les effectifs s’accompagne d’un plan de réduction des coûts de 500 millions de dollars par an. Les deux mesures combinées doivent permettre à Epic de revenir à une position « plus stable », explique Tim Sweeney, CEO d’Epic.

Dans sa lettre aux employés, ce dernier invoque d’abord le contexte général de l’industrie du jeu vidéo, avec une croissance ralentie, des dépenses d’investissements en berne, des consoles de dernière génération dont les ventes plafonnent et une concurrence accrue entre le jeu vidéo et d’autres formes de divertissement.

À ces éléments de langage entendus dans la plupart des grands plans de licenciement enclenchés par l’industrie, notamment chez Riot Games ou Ubisoft, s’ajoutent des facteurs plus spécifiquement liés à Epic, au premier rang desquels la baisse de popularité de Fortnite. Tim Sweeney :

« Malgré le succès indéfectible de Fortnite, l’un des jeux les plus populaires au monde, nous avons rencontré des difficultés à maintenir la magie de Fortnite à chaque saison ; nous n’en sommes qu’aux prémices de notre retour sur mobile et de l’optimisation de Fortnite pour les milliards de smartphones à travers le monde ; et en tant que pionniers du secteur, nous avons essuyé de nombreuses critiques dans une bataille qui ne commence que récemment à porter ses fruits pour nous et pour tous les développeurs. »

Cette bataille, censée profiter à l’ensemble des développeurs, c’est bien sûr le combat engagé en justice par Epic contre Google et Apple afin de limiter le contrôle et les coûts associés à la distribution sur les kiosques d’applications mobiles. Un terrain sur lequel Epic peut effectivement se targuer de premières victoires significatives, ayant conduit Apple à transiger et Google à ouvrir plus largement les vannes du Play Store.

Logo Epic Games

Le CEO d’Epic appelle maintenant ses équipes à construire de nouvelles expériences Fortnite pour relancer la dynamique et évoque la migration engagée vers l’Unreal Engine 6 à la fois pour le jeu et pour l’outil de création associé, Unreal Editor pour Fortnite (UEFN). « C’est ce que nous souhaitons faire pour nos joueurs, et nous voulons emmener avec nous d’autres développeurs partageant les mêmes idées dans ce projet afin de construire ensemble un avenir du divertissement toujours plus ouvert et dynamique. »

En ces temps troublés par l’avènement des grands modèles de langage, Tim Sweeney prend soin de préciser que ce plan de licenciements n’est pas lié à l’IA :

« Puisque le sujet est désormais d’actualité, je tiens à préciser que les licenciements ne sont pas liés à l’IA. Dans la mesure où elle améliore la productivité, nous souhaitons disposer d’un maximum de développeurs talentueux pour créer du contenu et des technologies de pointe. »

Epic avait déjà licencié 900 personnes, soit environ 16 % de son effectif de l’époque, en septembre 2023. Sweeney tenait déjà un discours similaire quant aux facteurs conjoncturels et à la nécessité de réduire les coûts de fonctionnement. « Depuis un certain temps, nous dépensons beaucoup plus d’argent que nous n’en gagnons », écrivait-il alors.

Reçu — 24 mars 2026 Next - Articles gratuits

Microsoft réaffirme son soutien à Exchange Server… au moins jusqu’en 2035

24 mars 2026 à 11:01
Mais vous ne couperez pas à l'abonnement
Microsoft réaffirme son soutien à Exchange Server… au moins jusqu’en 2035

Microsoft saisit l’occasion du trentième anniversaire d’Exchange Server pour réaffirmer son engagement en faveur de la version sur site du serveur de messagerie, avec la promesse d’un support assuré au moins jusqu’en 2035 pour Exchange Subscription Edition (SE).

Microsoft a profité du trentième anniversaire de son célèbre serveur de messagerie pour tenter de rassurer les administrateurs inquiets de constater à quel point les offres hébergées concentrent les efforts de ses équipes. Oui, Exchange Online, la version cloud, constitue bien le fer de lance stratégique de l’éditeur en matière de messagerie, mais non, la déclinaison on premises du serveur, n’est pas morte. Mieux : « Exchange Server compte toujours en 2026 », écrit Microsoft.

Support jusqu’en 2035 pour Exchange SE

Cette déclaration s’accompagne d’une promesse : la garantie d’un support technique assuré « au moins jusqu’en 2035 » pour Exchange Subscription Edition (SE), la licence exclusivement sur abonnement qui succède aux versions 2016 et 2019 d’Exchange Server, dont le support s’est interrompu en octobre 2025, en même temps que la fin de vie programmée de Windows 10.

« Pour les clients qui en ont besoin, Exchange Server demeure un choix architectural pertinent. L’investissement continu dans Exchange Server, notamment le lancement d’Exchange Subscription Edition (SE), que nous nous engageons à prendre en charge au moins jusqu’à fin 2035, témoigne du fait que la messagerie d’entreprise ne peut être standardisée. »

Microsoft prend tout de même soin de souligner que c’est sur la version cloud que « l’innovation est la plus rapide », mais reconnait que la capacité à fournir une infrastructure sur site (ou un fonctionnement hybride) reste un impératif, particulièrement quand « les discussions autour de la souveraineté numérique, de la conformité réglementaire et du contrôle administratif se poursuivent ».

Critiqué pour l’abandon des versions 2016 et 2019, Microsoft profite de son billet pour justifier sa décision de passer à une version unique (et d’imposer l’abonnement face aux anciennes licences perpétuelles).

L’éditeur rappelle qu’il a été longtemps possible de faire cohabiter jusqu’à trois versions différentes d’Exchange au sein d’une même entreprise, mais le poids de ce legacy serait devenu trop important. « Cela a permis d’atténuer les difficultés liées à la migration. Mais cela a également ralenti la modernisation et l’assainissement de l’architecture, car chaque version devait s’adapter aux choix effectués des années auparavant. »

Rappelons qu’Exchange SE reprend et modernise les grandes lignes de la dernière version en date d’Exchange 2019, et doit profiter de deux mises à jour par an (les Cumulative Updates, ou CU) pour entretenir sa compatibilité générale et corriger les bugs ou les failles de sécurité. La migration se fait simplement depuis 2019, mais les entreprises qui utilisent encore 2016 doivent procéder en deux temps (2019, puis SE).

Calendrier de mise à jour et éléments de compatibilité liés à Exchange Server SE – source

Microsoft a par ailleurs révisé à la hausse en juillet 2025 le prix des licences on premises d’Exchange ou Sharepoint.

Exchange fête (à peu près) ses 30 ans

Période d’anniversaire oblige, Microsoft retrace par ailleurs l’histoire de son serveur de messagerie, pour souligner à la fois sa place de premier plan sur le marché et son influence sur l’évolution de l’ensemble du secteur, notamment au travers du service Exchange Directory, devenu plus tard Active Directory.

« Exchange Server est devenu l’un des premiers succès de Microsoft sur le marché des serveurs d’entreprise, contribuant à nous installer en tant que fournisseur sérieux de plateformes d’entreprise au-delà du poste de travail », résume l’éditeur.

Reste une inconnue, déjà maintes fois mise en lumière par les équipes de Microsoft : quelle date faut-il formellement inscrire sur le bulletin de naissance d’Exchange ? Selon les points de vue, la sortie du logiciel se situe quelque part entre mars 1996 et juin de la même année, avec un point d’ancrage central au 2 avril, date de l’annonce de la disponibilité d’Exchange 4.0. Mais en réalité, « personne ne le sait avec certitude car la première version publique diffusée n’était pas celle basée sur la version master (la version RTM validée) », commente Microsoft, qui illustrait déjà cette incertitude il y a dix ans, dans une vidéo commémorant les 20 ans et les dix moments clé de l’histoire d’Exchange.


Cyber : vols de données à l’Éducation nationale et à l’Enseignement catholique

24 mars 2026 à 07:55

Cyber : vols de données à l’Éducation nationale et à l’Enseignement catholique

Le secteur de l’éducation vient de faire l’objet de deux intrusions distinctes ayant permis un vol de données personnelles. Au sein du ministère de l’Éducation nationale, c’est le portail RH Compas qui a exposé les informations de quelque 243 000 agents et stagiaires. Le Secrétariat général de l’Enseignement catholique reconnait quant à lui une attaque ayant entraîné un accès non autorisé à des données administratives et personnelles de plus de 1,5 million d’élèves, familles et enseignants.

Après les fédérations sportives, place au monde de l’éducation ? Deux incidents de sécurité impliquant une extraction de données personnelles ont été signalés dans le secteur.

243 000 comptes d’agents et de stagiaires exposés

Le plus récent concerne le ministère de l’Éducation nationale, qui a confirmé, mardi matin, avoir été alerté d’un accès frauduleux à la base de données alimentant le système COMPAS, dédié à la gestion des stagiaires des premier et second degrés. « L’accès frauduleux aurait été réalisé le 15 mars 2026 à la suite de l’usurpation d’un compte externe », indique le ministère :

« Les premières investigations indiquent qu’un volume de données concernant environ 243 000 agents, stagiaires ou titulaires, a été exfiltré. Elles concernent des éléments d’identité, des coordonnées (adresse et numéro de téléphone), des périodes d’absence (sans information de santé), ainsi que l’identité et les numéros de téléphone professionnels des tuteurs. »

Le Centre opérationnel de sécurité des systèmes d’information du ministère aurait alerté de cet incident le 19 mars au soir, vraisemblablement suite à la publication d’une annonce présentant un échantillon de ces données sur un forum dédié.

« Dès la détection de l’incident, une cellule de crise a été activée. L’accès externe au système concerné a été suspendu et des vérifications sont en cours sur l’ensemble des systèmes d’information du ministère afin de prévenir tout risque de propagation », promet le ministère. Le système d’information COMPAS était effectivement inaccessible mardi matin d’après nos constatations.

L’Éducation nationale appelle dans ce contexte l’ensemble de ses agents à faire preuve d’une attention particulière face aux tentatives de fraude.

L’enseignement catholique lui aussi visé, élèves et familles exposés

Quelques jours plus tôt, c’est le Secrétariat général de l’Enseignement catholique qui a tenu une communication du même acabit. Dans un communiqué daté du 21 mars (PDF), l’association a indiqué avoir subi « une attaque informatique ciblant l’application de gestion de ses établissements du premier degré ». Cette fois, l’hémorragie ne se limite pas aux personnels encadrants : « l’attaque a entraîné un accès non autorisé aux données relatives à l’identification des utilisateurs de cette application et aux coordonnées des élèves, de leurs familles et des enseignants ».

L’Enseignement catholique affirme avoir dûment sécurisé ses systèmes et répondu à ses obligations légales de signalement.

« Parallèlement, une communication proactive a été établie avec l’ensemble des chefs d’établissement, des enseignants et des parents d’élèves concernés pour les informer des mesures mises en place pour assurer la sécurisation des systèmes et transmettre des recommandations de vigilance, notamment relatives à la modification des accès et à l’usage de mots de passe complexes. »

Un message d’information a également été envoyé aux parents d’élève (PDF). Dans sa communication, l’association ne précise pas le périmètre exposé, mais celui-ci serait significatif : la fuite toucherait ainsi « 1,5 million de personnes, soit les 800 000 élèves du premier degré (écoles maternelles et élémentaires, ndlr), leurs familles, et 40 000 professeurs » d’après Stéphane Gouraud, secrétaire général adjoint de l’Enseignement catholique, cité par l’AFP.

L’association promet par ailleurs s’être entourée d’experts pour « limiter les conséquences potentielles de cet incident ». La combinaison d’informations personnelles liées aux familles, aux enfants et aux conditions d’accueil scolaire crée en effet un cocktail particulièrement efficace en matière d’ingénierie sociale…

Reçu — 23 mars 2026 Next - Articles gratuits

Terafab : Elon Musk veut créer sa propre usine de semiconducteurs au Texas

23 mars 2026 à 15:55
Satisfactory 2.0
Terafab : Elon Musk veut créer sa propre usine de semiconducteurs au Texas

Elon Musk pousse la logique d’intégration à son paroxysme avec Terafab, un projet d’usine à 25 milliards de dollars qui doit permettre d’alimenter en puces Tesla, SpaceX mais aussi X et xAI. Le milliardaire se voit déjà produire l’équivalent de 1 térawatt de puissance de calcul par an, et envisage l’espace comme son principal débouché à terme, quitte à ce que ses rêves de grandeur se heurtent à quelques contingences matérielles…

Baptisé Terafab, le dernier projet d’Elon Musk a vocation à fournir en puces et processeurs ses trois principales entreprises : Tesla, SpaceX et xAI. Cette gigantesque usine, censée voir le jour d’ici 2027, sera basée à Austin, au Texas, non loin des installations dont dispose déjà Tesla. Elle devrait justifier un investissement compris entre 20 et 25 milliards de dollars grâce auquel Elon Musk affirme qu’il pourra produire des puces gravées jusqu’en 2 nanomètres dont il maitrisera intégralement la conception, du design à la production à grande échelle.

Elon Musk illustre son concept de datacenter orbital alimenté par panneaux solaires et donne ses ambitions chiffrées en matière de transport spatial et de puissance de calcul installée – capture d’écran

Musk, qui n’a pour l’instant aucune expérience directe dans la fabrication de semiconducteurs, se plait à associer ses nouveaux projets à des objectifs chiffrés dantesques, et le milliardaire n’a pas dérogé à cette habitude.

SpaceX et Tesla deviendraient le premier fondeur mondial

D’après lui, Terafab a vocation à rapidement monter de 100 000 à 1 million de wafers par mois, pour produire, à terme, 100 à 200 milliards de puces par an. L’ensemble représenterait l’équivalent de 1 TW (térawatt) de puissance de calcul, ce que Musk estime être le double de la puissance couramment consommée sur le réseau électrique des États-Unis.

À titre de comparaison, le leader mondial de la gravure TSMC atteint des cadences de l’ordre de 160 000 wafers par mois sur ses procédés de fabrication en 3 nm et vise une production équivalente pour fin 2026 sur ses lignes en 2 nm.

Au cours de sa présentation, diffusée en direct sur X dimanche 22 mars, Musk a affirmé qu’aucune usine au monde ne disposait d’une chaine de production aussi complète que celle envisagée pour Terafab. La réunion de l’ensemble des étapes du process de fabrication au sein d’une même usine, du design aux tests finaux en passant par la création des masques de lithographie ou la gravure proprement dite, doit selon lui offrir à Terafab une rapidité d’itération inégalée sur le marché.

L’usine aurait vocation à produire des puces représentant l’équivalent de 1 TW de puissance électrique consommée – capture d’écran

Ces puces auraient vocation à équiper progressivement les principaux produits des entreprises de Musk, en commençant par les voitures électriques Tesla (dont le fameux robotaxi promis de longue date, testé avec un succès mitigé), avec la fameuse AI5, attendue pour mi-2027. Terafab approvisionnera également les datacenters de xAI, qui alimentent notamment Grok. Ces puces, dédiées principalement à l’inférence, trouveraient enfin des débouchés dans les futurs robots Optimus sur lesquels planche Tesla et bien sûr à bord des lanceurs réutilisables de SpaceX.

Un million de datacenters orbitaux

Ces activités terrestres ne mobiliseraient toutefois qu’une partie des capacités de Terafab, de l’ordre de 20 % du volume total productible selon Musk. Le milliardaire a en effet réaffirmé son souhait d’installer des satellites dédiés à l’intelligence artificielle en orbite pour, enfin, résoudre la problématique de l’alimentation électrique grâce à l’énergie solaire. Et c’est donc à Austin que seraient produits les composants nécessaires, à commencer par un processeur baptisé D3.

La puce AI5 doit alimenter les prochaines Tesla, tandis qu’Optimus recevrait la génération suivante. L’espace ferait l’objet d’une puce IA dédiée, D3 – capture d’écran

Musk a dans le même temps illustré sa vision de ce que serait un micro satellite dédié à l’IA, en affirmant viser au départ une puissance de l’ordre de 100 kW par satellite, pour atteindre à terme 1 MW. Rappelons que SpaceX a déjà déposé (PDF), le 4 février dernier, une demande de licence auprès de la FCC américaine pour installer « jusqu’à un million » de « systèmes de datacenters orbitaux ». Une perspective qui donne déjà des sueurs froides aux astronomes du monde entier.

« Le système proposé constituerait une première étape vers l’accession à une civilisation de niveau Kardachev II et servirait d’autres objectifs, selon le demandeur », commentait complaisamment Brendan Carr, patron de la FCC, suite au dépôt de la demande de SpaceX.

Elon Musk a, à nouveau, invoqué cette échelle de Kardachev, qui définit le niveau d’avancement d’une civilisation par sa maitrise de l’énergie, pour justifier le caractère presque impératif – dans son esprit – de chiffres aussi démesurés.

Le milliardaire s’est félicité dimanche de pouvoir compter sur le soutien du gouverneur du Texas et il est probable que la gigantesque introduction en bourse envisagée par SpaceX donne à Terafab les liquidités nécessaires à la construction de l’usine. Pour le reste, et sans même parler de son bien-fondé, la réalisation du projet soulève une infinité de défis, qui rendent quelque peu hypothétiques les promesses chiffrées formulées par Musk.

De Twitter à X et xAI, Elon Musk accusé de manœuvres sur la valeur de ses entreprises

23 mars 2026 à 11:00
L'histoire se répète toujours deux fois, disait Marx
De Twitter à X et xAI, Elon Musk accusé de manœuvres sur la valeur de ses entreprises

Un jury californien a reconnu vendredi 20 mars la responsabilité d’Elon Musk dans la baisse du cours de l’action Twitter au cours des semaines précédant son tumultueux rachat. Le parquet de Paris a, le même jour, émis un signalement aux autorités des États-Unis s’inquiétant de possibles manipulations liées à la future introduction en bourse de l’entreprise X et xAI, via SpaceX. Musk a répondu en qualifiant les procureurs français d’ « attardés mentaux ».

Ira, ira pas ? Dans sa biographie d’Elon Musk, Walter Isaacson illustre bien comment le milliardaire a hésité pendant plusieurs semaines à finalement boucler l’acquisition programmée de Twitter, en grande partie parce qu’il craignait de payer trop cher une entreprise incapable de quantifier avec précision le nombre de bots ou de faux comptes évoluant sur sa plateforme. Il raconte aussi comment, à l’époque, les conseils de Musk alertaient ce dernier sur le caractère parfois limite de ses publications relatives à la transaction sur Twitter.

Musk condamné face aux actionnaires de Twitter

Ses déclarations de 2022 ont valu à Elon Musk un procès de trois semaines, ouvert le 2 mars dernier au sein du tribunal de San Francisco à la demande d’ex actionnaires de Twitter. Ces derniers s’estimaient lésés par deux messages particuliers d’Elon Musk, dont un tweet daté du 13 mai 2022 affirmant qu’il mettait en pause son projet d’acquisition le temps de déterminer le nombre réel de bots animant la plateforme, ce qui avait immédiatement fait plonger le cours de Twitter en bourse.

Au terme de trois semaines d’audience, le jury composé de neuf personnes a donné raison aux plaignants et leur a accordé entre 3 et 8 dollars de dommages par action détenue, soit une enveloppe globale d’environ 2,1 milliards de dollars.

«  Je pense que le verdict du jury envoie un message fort : même si vous êtes riche et puissant, vous devez obéir à la loi, et nul n’est au-dessus des lois », s’est félicité l’un des avocats des parties civiles, dont les propos sont rapportés par NPR.

Dans son verdict (voir copie en PDF obtenue par Next), le jury reprend chacun des deux tweets litigieux. Il retient à l’unanimité que le premier constitue bien une forme de tromperie vis-à-vis des actionnaires de Twitter, mais rejette l’accusation de manœuvre frauduleuse délibérée associée au second.

Auditionné le 4 mars dernier, Elon Musk a maintenu que la direction en place chez Twitter en 2022 lui avait dissimulé certains chiffres relatifs au nombre de bots ou de faux comptes créés sur la plateforme. L’entreprise renvoyait alors vers ses déclarations réglementaires auprès de la SEC, dans laquelle elle estimait que les faux comptes représentaient environ 5 % de son parc total d’utilisateurs. Musk a de son côté toujours défendu l’idée selon laquelle Twitter minorait la réalité du phénomène.

Musk a par ailleurs fait valoir qu’il avait finalement bouclé le rachat de Twitter dans les conditions initialement annoncées, à savoir un prix de 54,20 dollars par action, pour une valorisation totale de l’ordre de 44 milliards de dollars. Il a également argué qu’il ne pouvait être tenu responsable du comportement des actionnaires qui ont choisi de vendre leurs titres dans les semaines qui ont précédé, quand l’incertitude a fait plonger le cours de Twitter, entraînant une décote allant jusqu’à 40 % par rapport à ce prix annoncé.

La direction de Twitter avait pour mémoire engagé des poursuites à l’encontre d’Elon Musk pour le contraindre à honorer sa promesse d’achat.

Elon Musk n’a pas commenté publiquement ce verdict, et ses avocats n’ont pour l’instant pas indiqué quelles suites ils pourraient donner à l’affaire.

Le parquet de Paris émet un signalement sur X

Hasard du calendrier, la condamnation d’Elon Musk intervient à quelques jours du vingtième anniversaire du premier tweet de l’histoire du réseau social, mais aussi à trois jours seulement d’un double signalement formulé par la justice française en direction des États-Unis.

Révélé par le Monde vendredi 20 mars, il s’adresse à la fois au ministère de la justice, et au gendarme de la Bourse, la SEC. Il évoque l’idée selon laquelle l’affaire des deepfakes à caractère sexuel produits par Grok pourrait avoir été montée de toute pièce pour augmenter la valorisation de X et de xAI en vue de la future fusion programmée avec SpaceX, avant introduction en bourse de l’ensemble.

Cette « transmission spontanée d’information » découlerait d’éléments obtenus par les procureurs dans le cadre de l’enquête judiciaire diligentée contre X en France début 2025 au sujet de potentielles manipulations de l’algorithme.

« La polémique suscitée par les deepfakes à caractère sexuel générés par Grok (IA de X) pourrait avoir été générée à dessein, afin de valoriser artificiellement les sociétés X et xAI », en vue de « l’introduction en Bourse prévue en juin 2026 de la nouvelle entité née de la fusion entre Space X et X AI », confirme le parquet de Paris à l’AFP.

Les procureurs auraient ainsi voulu attirer l’attention de leurs homologues états-uniens et de la SEC « sur des renseignements apparus (…) et accessibles en source ouverte ». La nature précise de ces renseignements n’a pas été communiquée.

Cette fois, Musk a réagi, et en français dans le texte. « Ce sont des attardés mentaux », a écrit sur X le milliardaire dans un message daté du 21 mars qui répondait au relais de ce signalement par le compte de l’AFP. Il n’a en revanche pas répondu à la question de fond soulevée par ces fameux signalements.

Rappelons qu’Elon Musk, qui a déjà réuni X et xAI au sein d’une même entreprise, envisage de fusionner leurs activités avec celles de l’entreprise spatiale SpaceX pour préparer ce qui constituerait la plus importante introduction en bourse de tous les temps, avec une valorisation potentielle du nouvel ensemble à quelque 1 500 milliards de dollars.

Le verbe fleuri d’Elon Musk en réponse à une dépêche AFP évoquant ces signalements – capture d’écran
❌