Six mois après la précédente, une nouvelle vague de licenciements a été engagée au sein des équipes d’Oracle. Certains employés ont été avertis par email que leur poste a été « supprimé » de l’organisation. Les estimations et les témoignages évoquent des coupes comprises entre 10 000 et 30 000 postes. Oracle ne s’est pour l’instant pas exprimé.
Oracle a enclenché un nouveau round de licenciements, dont le périmètre exact est encore difficile à déterminer. Cette salve intervient six mois seulement après la précédente, et elle en reprend le mode opératoire : les employés concernés évoluent dans toutes les divisions de l’entreprise, et sont prévenus par email, de façon plus ou moins laconique selon les cas.
Jusqu’à 30 000 postes concernés ?
Business Insider a reproduit par exemple mardi 31 mars un courrier électronique annonçant une suspension de poste sans préavis. « Après mûre réflexion et compte tenu des besoins actuels d’Oracle, nous avons décidé de supprimer votre poste dans le cadre d’une restructuration plus large. Par conséquent, aujourd’hui est votre dernier jour de travail », indique ce message signé Oracle Leadership.
D’autres témoignages (partagés sur Reddit, origine non vérifiée) montrent que certains employés ont reçu des messages légèrement différents dans la forme, mais similaires sur le fond : le poste concerné n’est plus considéré comme indispensable à l’entreprise, et se voit donc supprimé sans délai.
Comme en septembre dernier, la question se pose de savoir quelle est l’ampleur réelle de cette réduction d’effectifs. Oracle n’a pour l’instant pas communiqué via ses canaux officiels. L’entreprise a toutefois dû signaler formellement certains de ses licenciements pour des raisons réglementaires. Reuters remarque par exemple que l’entreprise a déclaré 491 suppressions de postes dans l’État de Washington et dans ses bureaux de Seattle en raison du Worker Adjustment and Retraining Notification (WARN) Act.
En Inde, où Oracle emploie aujourd’hui environ 30 000 personnes, plusieurs sources évoquent le chiffre de 12 000 licenciements au sein d’Oracle IDC (India Development Centre), le centre chargé notamment du développement de NetSuite, l’ERP du groupe, mais ce chiffre n’a pas été confirmé.
Du cash flow pour les investissements dans l’IA
Le groupe présidé par Larry Ellison, qui comptait 162 000 employés dans le monde d’après son dernier rapport annuel de mai 2025, a toutefois laissé entrevoir des signes avant-coureurs dans sa dernière communication financière à destination de la SEC, le gendarme de la bourse des États-Unis. Datée du 10 mars dernier (PDF), celle-ci indique en effet qu’Oracle prévoit une enveloppe totale de 2,1 milliards de dollars de frais de restructuration pour son année fiscale 2026, et qu’il en a pour l’instant dépensé 982 millions sur les trois premiers trimestres de l’exercice concerné.
L’ampleur de ces provisions laisse imaginer un plan de licenciements susceptible de concerner jusqu’à 30 000 personnes dans le monde, estiment certains commentateurs. Une telle réduction d’effectifs se traduirait par une augmentation de la trésorerie disponible d’Oracle de l’ordre de 8 à 10 milliards de dollars. De quoi soutenir le financement des projets pharaoniques d’infrastructures engagés par le groupe, aux côtés notamment d’OpenAI, qui constituent à la fois le cœur de sa politique d’investissements, mais aussi de ses débouchés commerciaux, puisqu’Oracle affiche un carnet de commandes de l’ordre du demi-millier de milliards de dollars.
Bull, marque historique du calcul informatique, a définitivement tourné la page Atos :l’Étata annoncé mardi 31 mars avoir finalisé le rachat de l’ex-division supercalcul du groupe informatique, sur la base d’une valeur d’entreprise qui pourrait atteindre 404 millions d’euros, en fonction de la réalisation de certains objectifs (non communiqués).
« Cette opération constitue une étape majeure pour la souveraineté technologique française et européenne, en particulier dans les domaines du calcul haute performance, de l’intelligence artificielle et du quantique », vante Bercy.
L’État s’était positionné dès fin 2024 comme un repreneur potentiel des activités supercalcul d’Atos, alors que le groupe de services informatiques entrait dans une période de tourmente boursière et financière sur fond de tentative de rachat manquée. L’intention s’était transformée en offre ferme en juin 2025.
Logo Bull
La démarche visait selon Bercy à préserver une activité qualifiée de critique dans la mesure où Atos, via sa division supercalcul, équipait la Défense (notamment pour la simulation nucléaire) et certains grands acteurs de l’industrie française.
Fin janvier, le nouvel actionnaire avait acté sa décision de relancer la marque Bull, quasi-centenaire, pour porter ces activités qui représenteraient aujourd’hui « plus de 3 000 professionnels et experts, pour la moitié basée en France » et un chiffre d’affaires de l’ordre de 720 millions d’euros en 2025.
Bull, sous son ancienne casquette Atos Eviden, est notamment intervenue récemment dans la fabrication du supercalculateur allemand Jupiter, et participe à la création du supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 554 millions d’euros sur cinq ans. Ce dernier doit en effet être construit sur la base de la plateforme BullSequana XH3500, puis équipé de GPU AMD Instinct MI430X, pour viser une puissance de calcul de l’ordre de l’exaflops en double précision.
« L’entrée de l’État au capital de Bull apporte à l’entreprise un actionnaire public de long terme, garant de la stabilité, de la continuité stratégique et de la préservation de compétences critiques au service d’une filière française et européenne d’excellence », affirme Bercy.
OpenAI annonce avoir conclu sa dernière levée de fonds sur un montant revu à la hausse : 122 milliards de dollars, pour une valorisation totale désormais estimée à 852 milliards de dollars. L’entreprise affirme désormais engranger 2 milliards de dollars de chiffre d’affaires par mois et revendique une croissance quatre fois supérieure à celle d’Alphabet ou de Meta.
Les investisseurs semblent toujours enclins à suivre Sam Altman dans sa course au gigantisme. OpenAI a en effet annoncé mardi 31 mars avoir conclu son dernier tour de table, un an précisément après sa levée de fonds de 40 milliards de dollars au printemps 2025.
La levée de fonds partait sous des auspices favorables, avec 110 milliards de dollars promis par Amazon, Softbank et NVIDIA, pour une valorisation fixée à 730 milliards de dollars. Elle se termine finalement sur des indicateurs en hausse : OpenAI revendique en effet désormais des engagements à hauteur de 122 milliards de dollars, sur la base d’une valorisation post-money (après réalisation de l’augmentation de capital) de 852 milliards de dollars.
Une ouverture indirecte aux investisseurs particuliers
Dans sa communication, OpenAI affirme clairement voir dans cette surallocation un message de confiance de la part du secteur financier. Outre les trois acteurs déjà mentionnés, le tour réunit 25 fonds d’investissements et gestionnaires d’actifs, parmi les plus grands noms du secteur, dont Sequoia Capital, Thrive Capital, Andreessen Horowitz (a16z), D.E. Shaw & Co, Blackrock, Blackstone, etc. Aux côtés de ces acteurs principalement états-uniens, on note la présence de MGX, fonds d’investissement adossé aux Émirats arabes unis, et de Temasek, le fonds souverain de Singapour.
Au sein de cette enveloppe, trois milliards de dollars émanent indirectement d’investisseurs particuliers, par l’intermédiaire de trois banques privées avec lesquelles OpenAI a passé un accord de distribution. L’entreprise annonce par ailleurs avoir passé un accord avec le gestionnaire d’actifs ARK Invest pour que celui-ci intègre des titres OpenAI à certains de ses fonds de placement cotés (ETF). Une manœuvre que l’on pourrait interpréter comme un galop d’essai, afin de jauger l’intérêt du public pour la future action OpenAI si l’introduction en bourse devait aller à son terme.
L’infrastructure comme avantage stratégique
OpenAI profite de cette communication pour actualiser ses chiffres : ChatGPT compterait maintenant plus de 900 millions d’utilisateurs actifs par semaine, dont plus de 50 millions d’abonnés payants. Le trafic web et mobile de ChatGPT, exprimé en visites mensuelles, serait également six fois supérieur à celui de la deuxième application d’IA du marché (dont OpenAI ne précise pas le nom), et quatre fois supérieur à celui de tous les concurrents combinés.
« À ce stade, notre chiffre d’affaires croît quatre fois plus vite que celui des entreprises qui ont façonné les ères d’Internet et du mobile, notamment Alphabet et Meta », clame OpenAI.
Le marché entreprises représenterait quant à lui 40 % du chiffre d’affaires revendiqué. L’utilisation de ChatGPT par API se chiffrerait à 15 milliards de tokens par minute, et Codex, l’outil dédié aux développeurs, compterait 2 millions d’utilisateurs hebdomadaires.
Les expérimentations liées à la publicité porteraient quant à elles déjà leurs fruits, avec 100 millions de dollars en revenu annuel récurrent atteints en seulement six semaines. « Il ne s’agit pas seulement d’étapes de croissance importantes, mais aussi de la preuve que l’IA de pointe fait désormais partie du quotidien des gens du monde entier ».
Paradoxe de Jevons assumé
De quoi justifier, pour OpenAI, une stratégie toujours plus offensive d’investissement dans les infrastructures, qui assume une logique en droite ligne avec les préceptes du paradoxe de Jevons :
« À chaque nouvelle génération d’infrastructure, nous entraînons des modèles plus performants, rendant chaque token plus intelligent qu’auparavant. Parallèlement, les améliorations algorithmiques et matérielles réduisent le coût de service de chaque token, diminuant ainsi le coût par unité d’intelligence. Cette intelligence accrue rend l’IA utile pour des flux de travail plus complexes, ce qui augmente son utilisation, stimule la demande de calcul et accélère le cycle de croissance.
Il en résulte un effet cumulatif : une infrastructure et des modèles plus performants réduisent le coût de déploiement, tandis que des produits améliorés et un déploiement plus poussé en entreprise augmentent le revenu par unité de calcul. À mesure que l’utilisation augmente et que la plateforme gagne en maturité, cela génère un effet de levier opérationnel significatif au fil du temps. »
Le message ne sera sans doute pas de nature à rassurer ceux qui déplorent la course au gigantisme en matière d’infrastructures, ou qui craignent que les promesses d’investissements conditionnées à des perspectives de commandes finissent par faire éclater une possible bulle de l’IA.
Il confirme en revanche, s’il en était besoin, l’ambition d’OpenAI de se positionner comme le fournisseur d’une « superapp IA unifiée », autrement dit un ChatGPT capable de répondre à l’ensemble des demandes, qu’il s’agisse de requêtes grand public, de flux de travail spécialisés, de code ou de faire tourner des agents. Une approche quasi hégémonique qui paradoxalement servira peut-être à consolider le discours d’acteurs faisant le choix de modèles de pointe spécialisés, à l’image de Mistral AI.
Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.
Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.
Proton Workspace, à partir de 12,99 euros par mois
« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.
Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).
L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.
Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next
Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.
Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.
Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.
« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.
La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.
Proton Meet met le cap sur la visio
Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.
« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.
L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.
Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton
D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.
Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.
L’anonymat de Proton n’est pas au-dessus des lois suisses
Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.
L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.
« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.
L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.
Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.
Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».
En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next
« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.
X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.
La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».
Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.
On peut (heureusement) désactiver la traduction automatique – capture d’écran Next
Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.
GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).
Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.
« Copilot a intégré une pub à ma PR »
Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.
L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson
Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.
« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »
GitHub rétropédale en urgence
Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :
« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »
Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :
« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »
Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».
GitHub renforce l’intégration de Copilot (et son accès aux données)
Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.
Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».
L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.
L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next
L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.
Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.
La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :
Sorties acceptées ou modifiées par vos soins
Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
Commentaires et documentation que vous rédigez
Noms de fichiers, structure du dépôt et habitudes de navigation
Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)
Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.
La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :
« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »
Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.
Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.
Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.
Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.
44 MW de puissance IT équipés en GB300
Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.
L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).
Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.
L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.
Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?
Une infrastructure au service de Mistral Compute
Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.
« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.
Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.
Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.
Mieux que le flux chronologique, le flux généré par IA ?
« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.
En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.
Attie permet par exemple de constituer une liste thématique de comptes à suivre…
Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.
Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.
… ou de chercher des messages au contenu plus spécifique – captures d’écran
Un appel à vibe coder autour d’atproto
Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.
« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »
Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :
« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »
Un accueil plutôt mitigé
L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.
Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.
Attie compte déjà quelques détracteurs sur Bluesky – source
« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.
De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.
113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran
Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.
Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.
Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).
Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.
Différences de points de vue
Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.
Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.
Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.
L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.
« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.
Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.
Trilogues à venir
Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :
« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »
Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :
« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »
La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.
La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.
Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran
« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.
Élaboré par des ingénieurs venus du monde du référencement naturel, le futur moteur de recherche français Ibou a lancé cette semaine la première brique de son modèle : un « Explorer », présenté comme une alternative aux algorithmes de recommandation des grands acteurs états-uniens. La société annonce dans le même temps avoir recueilli le soutien financier d’un certain Xavier Niel.
Alors que les réseaux sociaux ou les moteurs de recherche sont régulièrement pointés du doigt pour leurs algorithmes de recommandation et toutes les techniques relevant de l’économie de l’attention, peut-on envisager de créer un outil de découverte d’articles d’actualité respectueux de la vie privée ?
Telle est en tout cas l’ambition affichée par le projet français Ibou, qui vient de mettre en ligne la première brique de son futur moteur de recherche conversationnel, dont Next avait présenté en détail les enjeux et les perspectives en septembre dernier.
Tous les navigateurs et les moteurs de recherche disposent aujourd’hui de fonctions de recommandations algorithmiques, à commencer par le plus populaire d’entre eux, Google. Ibou Explorer prend le contrepied de ces outils « en privilégiant la qualité éditoriale et le pluralisme des points de vue plutôt que le seul engagement ».
En pratique ? Le portail mis en ligne prend la forme d’une sélection assez générique d’articles d’actualité issus de grandes marques média, et distribuée selon plusieurs catégories, dont une rubrique « Sciences et Tech ». Ibou invite, ou incite, l’internaute à créer un compte pour personnaliser cette sélection d’articles grâce à un système de j’aime / je n’aime pas. Le portail propose également un système de signets qui permet de centraliser des articles à lire plus tard.
Après quelques jours, la sélection a évolué mais difficile d’affirmer qu’elle colle à mes goûts compte tenu de son caractère éclectique – capture d’écran Next
Les cartes de présentation des articles se limitent à un titre et un visuel, ainsi qu’au logo du média source. Il n’y a, à ce stade, aucun résumé généré par IA, et le projet revendique son engagement en matière de respect des éditeurs et des créateurs de contenus.
« Journalistes, blogueurs, photographes, développeurs : chaque créateur mérite la visibilité et le trafic que son travail a gagné », affirme l’entreprise, qui promet par ailleurs de respecter à la lettre les consignes des éditeurs en matière d’indexation.
« Nous ne voulons pas nous approprier les contenus. Nous ne faisons que du renvoi de trafic vers les tiers, avec un mécanisme d’opt-out et des accords partenariaux. », nous avait confirmé Sylvain Peyronnet, PDG et cofondateur de Babbar, l’entreprise éditrice d’Ibou.
Un fonctionnement partiellement expliqué
Comment sont classés les contenus et sur quelle base le moteur fait-il évoluer ses recommandations ? Sur la page qui présente sa « vision », Ibou renouvelle sa promesse de favoriser la découverte et la diversité à la performance pure. « Pas de bulles, pas de manipulation émotionnelle. », écrit la startup.
Testé pendant quelques jours, le portail repose à ce stade sur une sélection limitée de médias, et il n’est pas évident d’évaluer de façon empirique l’efficacité de l’algorithme de recommandation. Il semble avoir saisi que les actualités liées à la cybersécurité et aux impacts de l’IA ou de la guerre en Iran nous intéressent tout particulièrement, mais persiste à nous suggérer des publications sur certains thèmes ou émanant de médias pourtant systématiquement « dislikés ».
Version bêta oblige, l’entreprise cherche logiquement à ajuster ses curseurs. Contactée par nos soins, elle confirme d’ailleurs n’avoir pas finalisé la réflexion liée à la personnalisation éventuelle des publicités affichées par le service.
L’entreprise avait présenté quelques éléments du fonctionnement de son Explorer en septembre dernier, dans un billet de blog dédié. « Cette personnalisation que nous effectuons dépend de ce que les utilisateurs expriment, mais aussi des articles vus et appréciés par l’utilisateur. En cas d’arbitrage nécessaire, c’est ensuite les qualités en termes de performances supposées de chaque article qui fera la différence », expliquait-elle alors.
Ibou écrivait également à cette occasion travailler à un filtre pensé pour pénaliser les contenus « mal faits avec de l’IA », mais aussi les articles susceptibles de faire porter un risque sur les lecteurs, parce qu’ils dispensent par exemple « des conseils médicaux ou juridiques qui, mal utilisés, pourraient amener à un préjudice irréversible ».
Un facteur également pris en compte par Google dans son Discover, et qui explique sans doute en partie pourquoi l’algorithme présente une telle proportion d’articles relevant plus du divertissement que de l’information.
Un historique disponible en un clic
En attendant de voir jusqu’où l’entreprise lèvera le capot sur le fonctionnement de son outil, Ibou Explorer affiche de façon claire les éléments liés à la confidentialité et donc à l’utilisation faite des données personnelles de l’utilisateur.
L’entreprise collecte les interactions de l’utilisateur lorsqu’il est connecté à son compte (clics, likes, dislikes, signets) et affirme les utiliser pour personnaliser les suggestions individuelles et « améliorer l’algorithme de recommandation ».
« Aucune donnée n’est vendue ou partagée avec des tiers », promet Ibou Explorer, dont le profil utilisateur permet de récupérer en un clic un fichier .json contenant l’intégralité des interactions enregistrées par le site.
Le profil permet de réinitialiser ses infos ou télécharger son historique en un clic (sous forme de fichier json) – capture d’écran Next
Xavier Niel entre au capital
« Cette première verticale constitue la première étape visible d’un projet plus large : elle sera progressivement complétée par d’autres verticales — recherche web, images, actualités — pour aboutir à un moteur de recherche conversationnel complet », rappelle l’entreprise éditrice d’Ibou.
Elle peut se targuer d’un nouveau soutien pour développer son projet. Elle annonce en effet avoir accueilli Xavier Niel à son capital, pour un montant non communiqué.
Cette nouvelle levée de fonds complète un tour de table de 2,1 millions d’euros réalisé en 2021. « Ce qui m’a convaincu chez Ibou, c’est d’abord Sylvain et son équipe. Ce sont des gens qui savent de quoi ils parlent, qui ont déjà construit quelque chose de solide et qui ont une vision claire de comment réaliser un moteur souverain. Le reste, ça suit », salue Xavier Niel dans un communiqué reçu par email.
Au fait, qu’est-ce qu’un moteur conversationnel ? « Nous voulons être un moteur qui répond à l’utilisateur, mais pas comme un LLM classique comme ChatGPT ou autres, avec un texte qui explicite absolument tout. Cela génère souvent une mauvaise qualité de réponse. Indépendamment des hallucinations ou des mensonges, en réalité, les gens veulent souvent accéder à une source. La bonne réponse, de notre point de vue, est l’explication de pourquoi il faut aller lire une source. Nous voulons nous interposer à un niveau intermédiaire avec toutes les modalités qui permettent d’expliquer, les images, les cartes, etc. », nous expliquait Sylvain Peyronnet en septembre dernier.
La distribution Tails, axée sur la sécurité et la confidentialité, passe en version 7.6 avec comme principale nouveauté l’intégration des ponts Tor (Tor bridges en anglais) au niveau de l’assistant de connexion intégré au système.
Cette fonctionnalité a fait son apparition dans Tor en juillet 2022 avec la version 11.5 du navigateur. Elle permet de dissimuler la connexion au réseau décentralisé, en introduisant un pont, c’est-à-dire un point d’entrée intermédiaire qui n’est pas identifié comme un nœud Tor, dans le parcours, de façon à contourner les dispositifs de censure.
Dans Tails 7.6, l’assistant de connexion dispose maintenant d’un écran dédié à la configuration de ces ponts, avec la possibilité d’opter pour un point d’entrée par défaut, sélectionné en fonction géographique ou paramétré à la main. L’utilisateur peut également demander la création d’un pont à à la communauté par mail.
Paramétrage d’un pont Tor dans Tails 7.6
« Tails télécharge, via l’API Moat du projet Tor, des informations sur les ponts les plus susceptibles de fonctionner dans votre région. Afin de contourner la censure, cette connexion est dissimulée sous l’apparence d’une connexion à un autre site web grâce à la technique du domain fronting », explique l’équipe de Tails.
La version 7.6 signe également l’introduction de Secrets comme gestionnaire de mots de passe par défaut (en remplacement de KeePassXC), une décision motivée par son interface plus simple et sa meilleure intégration dans GNOME.
Secrets propose de déverrouiller automatiquement l’ancienne base de données KeePassXC, les deux logiciels utilisant le même format de fichier pour stocker les mots de passe. Il est aussi possible d’installer KeePassXC en tant que logiciel complémentaire.
La 7.6 est également l’occasion de corriger divers petits bugs, et de mettre à jour les principaux composants tels que Tor Browser (15.0.8), Thunderbird (140.8.0) ou Electrum (4.7.0).
Les liens de téléchargement, guides d’installation et notes de version sont accessibles via ce billet.
Disponible depuis l’automne dernier sous forme de bêta destinée aux internautes des États-Unis et de Corée du Sud, la version Windows du navigateur de Samsung, basée sur Chromium, est désormais accessible à tous les internautes via le site dédié. Le fabricant y invite à découvrir un « navigateur Web simple et rapide qui donne la priorité à votre confidentialité et à votre sécurité ».
Le site officiel n’est pour l’instant décliné qu’en anglais et en coréen, mais le logiciel est bien traduit en français. Après récupération de l’exécutable d’installation et téléchargement en arrière-plan, on découvre un processus d’installation classique, avec validation des conditions d’utilisation, proposition d’import des favoris depuis un autre navigateur, proposition d’activer un bloqueur de publicités, et bien sûr connexion à un compte Samsung existant.
C’est en effet dans la capacité à établir un pont entre un smartphone ou une tablette Samsung Galaxy et le PC sous Windows, notamment pour synchroniser les données de navigation ou les mots de passe, que réside l’essentiel de la promesse. On peut ainsi demander à afficher, sur son PC, une page précédemment ouverte sur son smartphone.
Le Samsung Browser dispose d’une vue partagée, comme Chrome – capture d’écran Next
À cette continuité entre PC et mobile, le Samsung Browser ajoute, ô surprise, une proposition de valeur axée sur l’IA, avec la présence d’un « assistant Web » capable de proposer un résumé de la page affichée ou d’opérer une traduction à la volée, mais aussi d’opérer des tâches plus complexes, dans une logique agentique. Pour ce faire, Samsung revendique un partenariat avec Perplexity, dont les modalités financières n’ont pas été dévoilées.
« Le navigateur Samsung est conçu pour comprendre le langage naturel et le contexte de la page consultée, ainsi que l’activité entre les onglets, facilitant ainsi l’exploration du contenu et la prise de décision. Cette nouvelle intelligence permet non seulement de répondre aux questions sur la page web, mais aussi de gérer les onglets, de consulter l’historique de navigation et de rester productif sans quitter le navigateur », promet à ce sujet le fabricant sud-coréen.
Si les résumés et la traduction sont accessibles à tous (sous réserve de création d’un compte Samsung), les fonctions liées au partenariat avec Perplexity sont pour l’instant cantonnées aux États-Unis et à la Corée du Sud. On pourra consulter la déclaration de confidentialité associée au logiciel via ce lien.
Comme prévu, les binaires et fichiers d’installation de Firefox 149 ont bien fait leur apparition mardi 24 mars sur les FTP de la fondation Mozilla, mais il a fallu attendre le lendemain pour l’annonce formelle et la publication des notes de version associées.
C’est désormais chose faite, et les internautes de quatre pays (France, Allemagne, Royaume-Uni et États-Unis) sont censés pouvoir accéder à la principale nouveauté annoncée mi-mars par Mozilla : l’introduction d’une fonctionnalité de VPN native au sein du navigateur, accessible gratuitement dans la limite de 50 Go de trafic par mois, à des fins de protection de la vie privée.
Firefox 149 intègre un VPN gratuit associé à 50 Go de trafic – capture d’écran Next
La fonction, comme souvent, fait l’objet d’un déploiement progressif chez les utilisateurs finaux, ce qui signifie qu’elle n’apparait pas forcément chez tous les utilisateurs, même avec la version 149 installée. Il est cependant possible de forcer son activation via la page about:config en passant le paramètre browser.ipProtection.enabled à true.
Notez qu’il est nécessaire d’être connecté à un compte Mozilla. Une icône VPN fait alors son apparition à droite de la barre d’adresse du navigateur. Elle permet d’activer la fonction et d’accéder aux paramètres de cette dernière.
Mozilla a fait le choix à ce niveau de proposer une mise en application globale par défaut, avec une désactivation au cas par cas : les paramètres permettent de spécifier quels sont les sites sur lesquels on ne souhaite pas passer par le tunnel. L’inverse aurait pu sembler pertinent, pour limiter l’emploi des 50 Go offerts aux quelques sites dont l’internaute estime qu’ils méritent le recours à un VPN.
Testé rapidement jeudi matin, le VPN donne des résultats disparates, avec une vitesse de chargement anémique lors de certains essais, et un surf tout à fait honnête sur d’autres courtes sessions. L’adresse de sortie est clairement identifiée comme un VPN associé à Firefox, localisé à Paris. Notons que Mozilla ne propose aucune possibilité de choix géographique sur cette version gratuite, alors que l’option existe au sein de son offre de VPN payante, à partir de 59,88 euros par an.
Activation du VPN et réglages associés – capture d’écran Next
Quid de la vie privée ? Mozilla aborde la question dans la FAQ dédiée :
« Mozilla collecte les données techniques nécessaires pour fournir, maintenir et assurer la performance et la stabilité du service, mais aussi des données d’interaction pour comprendre comment est utilisé la fonctionnalité et aider à orienter les améliorations. Par exemple, nous pouvons enregistrer si une connexion réussit ou échoue. Nous pouvons aussi noter que 2 Go de données ont été consommés un même jour. Important ! Le VPN n’enregistre jamais quels sites web vous consultez ni le contenu de vos communications ».
Pile à temps pour la Journée de Libération des Documents
L’Allemagne vient d’imposer le recours à Open Document Format (ODF) comme standard pour l’enregistrement des documents bureautiques au sein de la pile des logiciels et services numériques de son administration. La Document Foundation, qui soutient ce standard ouvert, salue la décision et lance un appel aux autres pays européens.
La nouvelle aurait pu passer inaperçue, perdue qu’elle était au milieu d’un document de spécifications techniques. Elle n’a cependant pas mis longtemps à revenir aux oreilles, ou plutôt aux yeux, des membres de la Document Foundation, qui s’en sont fait l’écho le 19 mars dernier : l’Allemagne demande désormais de façon tout à fait formelle à ses services publics de recourir à deux formats pour l’enregistrement de leurs documents : le PDF et Open Document Format (ODF). « Il ne s’agit pas d’une recommandation ou d’une préférence, il s’agit d’une obligation », jubile Florian Effenberger, directeur exécutif de la Document Foundation.
L’Allemagne précise la doctrine de sa Deutschland Stack
Cette allusion explicite à ODF intervient dans le cadre de la définition, par l’Allemagne, de sa nouvelle politique en matière de souveraineté, baptisée Deutschland Stack, et censée conduire à la création d’un socle technologique commun (la « stack ») pour l’ensemble des systèmes d’information utilisés par ou destinés aux services publics.
Les grandes lignes de ce socle ont été adoptées et présentées le 18 mars dernier par l’IT-Planungsrat, l’organe allemand de coordination en charge de la numérisation de l’administration publique. Elles reposent sur quatre grands principes.
D’abord, une mise en place progressive sous contrôle fédéral, puis un socle technique commun obligatoire garantissant l’interopérabilité (intégrant les principaux services de base comme la gestion de l’identité ou les mécanismes d’échange et de conservation des données). Elles prévoient ensuite un recours admis et encouragé à l’intelligence artificielle avec une logique de standardisation.
Le cadre de la Deutschland Stack dispose enfin que les services publics doivent recourir à des solutions achetées prioritairement sur le marché européen, et opter pour des licences open source pour les développements réalisés via les agences fédérales ou régionales.
Ces quatre piliers sont accompagnés d’une série de principes architecturaux (acheter plutôt que faire, adopter systématiquement des logiques DevOps ou DevSecOps, raisonner exclusivement sous forme de services et d’API, etc.) et de quelques normes techniques, dont le caractère contraignant se justifie au regard des exigences d’interopérabilité évoquées précédemment. À ce niveau, l’IT-Planungsrat spécifie effectivement deux options pour les documents : PDF/UA (pour PDF/Universal Accessibility, ou accessibilité universelle des PDF) et ODF.
La feuille de route liste les formats qui font office de normes techniques pour la mise en oeuvre des technologies sémantiques au sein de l’administration allemande – source (PDF)
À ce stade, ces grands principes et les contraintes afférentes constituent un cadre normatif, dont les contours exacts pourront cependant évoluer jusqu’à l’horizon 2028, présenté comme le premier palier de mise en œuvre de cette nouvelle politique.
L’Allemagne montre la voie pour la Document Foundation
L’administration allemande risque donc de continuer à enregistrer des documents en .docx ou .xlsx pendant encore quelques années, mais l’essentiel n’est pas là pour la Document Foundation, qui voit dans cette décision de l’IT-Planungsrat une reconnaissance au plus haut niveau de la problématique des formats ouverts et par essence indépendants de tout fournisseur.
Rappelons que l’association, basée en Allemagne et qui milite depuis 2010 sur le sujet des formats libres et ouverts, décrie régulièrement Microsoft, qu’elle accuse d’entretenir une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, alors que c’est une version différente du format qui est implémentée dans ses logiciels.
« La décision de l’Allemagne de placer l’ODF au cœur de son système de gouvernance nationale confirme ce que nous affirmons depuis des années : les formats de documents ouverts et indépendants des fournisseurs ne sont pas une préoccupation marginale pour quelques spécialistes en technologies et défenseurs des logiciels libres. Ils constituent une infrastructure fondamentale pour des administrations publiques démocratiques, interopérables et souveraines », argue Florian Effenberger.
L’association profite de l’occasion pour appeler les autres pays d’Europe à réagir en maniant l’aiguillon de la souveraineté : « À ce stade, la question est claire pour tous les autres gouvernements européens : qu’attendez-vous ? Avec cette décision, la distinction entre ceux qui se soucient de la souveraineté numérique et ceux qui ne s’en soucient pas devient flagrante », écrit-elle dans un nouveau billet daté du 23 mars.
Elle a ensuite remis le couvert deux jours plus tard pour une occasion toute trouvée en ce 25 mars : le dernier mercredi du mois de mars est en effet traditionnellement et depuis 2008 la Journée du document libre au sein de la communauté open source :
« L’utilisation de LibreOffice dans l’administration publique, l’exigence d’ODF dans les politiques d’achat public et la possibilité pour les citoyens d’ouvrir un document gouvernemental sans avoir à acheter de licence logicielle propriétaire ne sont pas de petites victoires, mais la construction progressive d’un espace public numérique qui appartient à tous. »
La France ne s’est pas, à ce stade, dotée d’un cadre aussi normatif que celui envisagé par l’Allemagne, mais le recours à l’open source, aux suites bureautiques libres et aux formats ouverts fait progressivement son chemin chez certaines administrations et collectivités, comme à Lyon ou Échirolles par exemple, dont Next publiait récemment le retour d’expérience.
Le Centre national des œuvres universitaires et scolaires (Cnous) a signalé mardi 24 mars avoir été victime d’une exfiltration de données personnelles. Ces informations ont été obtenues par l’intermédiaire de sa plateforme de prise de rendez-vous avec les 27 établissements régionaux (les Crous) qui constituent son réseau.
L’organisme chiffre précisément la population concernée : en l’occurrence, 774 000 personnes différentes, dont les données « sont issues de rendez-vous pris sur les dix dernières années ».
« Parmi elles, 139 000 personnes ont fait l’objet d’une exfiltration de pièces jointes déposées dans l’application et 635 000 ont fait l’objet d’une exfiltration de données très limitée (nom, prénom, adresse mail, objet et date du rendez-vous) », précise le Cnous.
Il indique avoir pris connaissance de cette exfiltration la veille de son communiqué, soit le 23 mars, vraisemblablement suite à la revendication exprimée par l’attaquant supposé sur un forum spécialisé.
Illustration : Flock
Le Cnous affirme s’être acquitté de ses obligations réglementaires et avoir temporairement suspendu l’accès au site concerné (mesrdv.etudiant.gouv.fr), « le temps de procéder aux corrections nécessaires et de garantir une réouverture dans des conditions de sécurité renforcées ». Les services sociaux des Crous restent, dans l’intervalle, accessibles par téléphone (09 72 59 65 65). « Un dépôt de plainte est en cours. Chaque personne concernée sera informée de la situation par le Cnous », déclare encore l’organisme.
Cette attaque, dont le mode opératoire précis (ingénierie sociale, infostealer ou autre) n’a pas été précisé, participe à une vague de vols de données touchant le monde de l’éducation. Ces derniers jours, des incidents cyber de grande ampleur ont ainsi touché l’Éducation nationale et le secrétariat général à l’enseignement catholique.
OVHcloud fait une nouvelle incursion dans le domaine de l’IA générative avec l’annonce, mercredi 25 mars, d’un accord engageant portant sur l’acquisition de la startup française Dragon LLM.
Venue du monde de la traduction automatique, dans lequel elle a évolué depuis 2011 sous le nom Lingua Custodia, cette dernière se positionne comme un producteur de grands modèles de langage (LLM) spécialisés, pensés initialement pour le secteur financier.
« Grâce à cette acquisition, OVHcloud renforce ses équipes avec de nouveaux experts de fine-tuning. En internalisant les briques technologiques développées par Dragon LLM, OVHcloud proposera à ses clients de nouveaux services dans l’IA générative pour les données sensibles, déployables dans le Cloud et On-Premise », déclare le groupe roubaisien dans un communiqué (PDF).
OVHcloud annonce à cette occasion la création de son « lab AI », une division chargée de concevoir et commercialiser ces services associés à l’entraînement ou à la spécialisation des grands modèles de langages. Le groupe confirme ainsi son ambition de ne pas se limiter à l’hébergement d’infrastructures dédiées à l’IA générative, mais bien de remonter une partie de la chaîne de valeur.
Le montant de cette acquisition, qui doit donc encore être finalisée, n’a pas été communiqué.
Lingua Custodia a opéré son pivot vers Dragon LLM à partir de 2024 en postulant, avec succès, au Large AI Grand Challenge lancé par la Commission européenne. L’entreprise, basée en région parisienne, a dans ce cadre pu accéder à plusieurs millions d’heures d’utilisation des supercalculateurs Leonardo (Italie) et Jupiter (Allemagne), pour une valeur cumulée de l’ordre de 10 millions d’euros.
Dragon LLM a livré en novembre 2025 une première incarnation concrète de sa vision en matière de modèles spécialisés et verticaux, avec la publication, sur Hugging Face, de deux LLM Open Finance basés respectivement sur Llama 3.1 et Qwen 3, conçus en partenariat avec l’Agefi et soutenus financièrement par Bpifrance. Ces modèles open source à 8 milliards de paramètres se déclinent également en modèles distribués sous licences commerciales, comptant de 12 milliards à 70 milliards de paramètres, toujours spécialisés en finance et notamment en traduction de documents.
Dragon LLM revendique des performances supérieures à celles des modèles généralistes sur des missions spécifiques au monde de la finance – crédit Dragon LLM
En novembre dernier, Octave Klaba, redevenu CEO d’OVHcloud, avait développé lors du sommet annuel du groupe l’idée selon laquelle l’IA et les grands modèles de langage s’installeraient bientôt comme une forme de surcouche omniprésente au-dessus des applications métier.
Fondée en 2024 et financée à hauteur de 30 millions de dollars un an plus tard, cette équipe de 50 personnes développe un robot humanoïde baptisé Sprout, officiellement dévoilé le 27 janvier dernier. Tout en rondeurs, ce robot de 107 cm pour 22,7 kg est présenté par la startup comme une plateforme de développement dédiée à la création de robots pensés pour le service à la personne.
« Conçu pour les innovateurs dans les domaines de la robotique, de l’IA, de l’enseignement supérieur, du divertissement, du commerce et de l’hôtellerie, Sprout combine mobilité bipède, interaction expressive et manipulation dans un robot léger, robuste et élégant. Son corps à 29 degrés de liberté, son interface vocale naturelle et son design doux et ergonomique le rendent idéal pour déployer des robots dans les mêmes environnements que les personnes », explique ainsi l’entreprise dans la fiche de présentation (PDF) de l’appareil.
Rob Cochran, cofondateur de Fauna Robotics, et le robot Sprout – crédit Fauna Robotics
Amazon a confirmé que les équipes de Fauna et ses deux cofondateurs rejoindraient sa division robotique, sans préciser plus avant ses plans. « Grâce à l’expertise d’Amazon en matière de robotique et à ses décennies d’expérience dans l’acquisition de la confiance des clients à domicile grâce à nos activités de vente au détail et d’appareils, nous sommes impatients d’inventer de nouvelles façons d’améliorer et de simplifier la vie de nos clients », déclare un porte-parole cité par Bloomberg.
Les dernières acquisitions d’Amazon en matière de robots concernaient plutôt la logistique et le transport, activités situées au cœur de son modèle. Le géant du e-commerce a cependant déjà manifesté son intérêt pour la robotique « personnelle » : on se souvient par exemple d’Astro, son petit robot domestique lancé en 2021, qui s’est rapidement révélé un échec technique et commercial.
Epic Games a initié mardi 24 mars le licenciement de plus de 1 000 employés, et annoncé la décision en interne via un email reproduit sur son site. Cette coupe dans les effectifs s’accompagne d’un plan de réduction des coûts de 500 millions de dollars par an. Les deux mesures combinées doivent permettre à Epic de revenir à une position « plus stable », explique Tim Sweeney, CEO d’Epic.
Dans sa lettre aux employés, ce dernier invoque d’abord le contexte général de l’industrie du jeu vidéo, avec une croissance ralentie, des dépenses d’investissements en berne, des consoles de dernière génération dont les ventes plafonnent et une concurrence accrue entre le jeu vidéo et d’autres formes de divertissement.
À ces éléments de langage entendus dans la plupart des grands plans de licenciement enclenchés par l’industrie, notamment chez Riot Games ou Ubisoft, s’ajoutent des facteurs plus spécifiquement liés à Epic, au premier rang desquels la baisse de popularité de Fortnite. Tim Sweeney :
« Malgré le succès indéfectible de Fortnite, l’un des jeux les plus populaires au monde, nous avons rencontré des difficultés à maintenir la magie de Fortnite à chaque saison ; nous n’en sommes qu’aux prémices de notre retour sur mobile et de l’optimisation de Fortnite pour les milliards de smartphones à travers le monde ; et en tant que pionniers du secteur, nous avons essuyé de nombreuses critiques dans une bataille qui ne commence que récemment à porter ses fruits pour nous et pour tous les développeurs. »
Cette bataille, censée profiter à l’ensemble des développeurs, c’est bien sûr le combat engagé en justice par Epic contre Google et Apple afin de limiter le contrôle et les coûts associés à la distribution sur les kiosques d’applications mobiles. Un terrain sur lequel Epic peut effectivement se targuer de premières victoires significatives, ayant conduit Apple à transiger et Google à ouvrir plus largement les vannes du Play Store.
Logo Epic Games
Le CEO d’Epic appelle maintenant ses équipes à construire de nouvelles expériences Fortnite pour relancer la dynamique et évoque la migration engagée vers l’Unreal Engine 6 à la fois pour le jeu et pour l’outil de création associé, Unreal Editor pour Fortnite (UEFN). « C’est ce que nous souhaitons faire pour nos joueurs, et nous voulons emmener avec nous d’autres développeurs partageant les mêmes idées dans ce projet afin de construire ensemble un avenir du divertissement toujours plus ouvert et dynamique. »
En ces temps troublés par l’avènement des grands modèles de langage, Tim Sweeney prend soin de préciser que ce plan de licenciements n’est pas lié à l’IA :
« Puisque le sujet est désormais d’actualité, je tiens à préciser que les licenciements ne sont pas liés à l’IA. Dans la mesure où elle améliore la productivité, nous souhaitons disposer d’un maximum de développeurs talentueux pour créer du contenu et des technologies de pointe. »
Epic avait déjà licencié 900 personnes, soit environ 16 % de son effectif de l’époque, en septembre 2023. Sweeney tenait déjà un discours similaire quant aux facteurs conjoncturels et à la nécessité de réduire les coûts de fonctionnement. « Depuis un certain temps, nous dépensons beaucoup plus d’argent que nous n’en gagnons », écrivait-il alors.
Microsoft saisit l’occasion du trentième anniversaire d’Exchange Server pour réaffirmer son engagement en faveur de la version sur site du serveur de messagerie, avec la promesse d’un support assuré au moins jusqu’en 2035 pour Exchange Subscription Edition (SE).
Microsoft a profité du trentième anniversaire de son célèbre serveur de messagerie pour tenter de rassurer les administrateurs inquiets de constater à quel point les offres hébergées concentrent les efforts de ses équipes. Oui, Exchange Online, la version cloud, constitue bien le fer de lance stratégique de l’éditeur en matière de messagerie, mais non, la déclinaison on premises du serveur, n’est pas morte. Mieux : « Exchange Server compte toujours en 2026 », écrit Microsoft.
Support jusqu’en 2035 pour Exchange SE
Cette déclaration s’accompagne d’une promesse : la garantie d’un support technique assuré « au moins jusqu’en 2035 » pour Exchange Subscription Edition (SE), la licence exclusivement sur abonnement qui succède aux versions 2016 et 2019 d’Exchange Server, dont le support s’est interrompu en octobre 2025, en même temps que la fin de vie programmée de Windows 10.
« Pour les clients qui en ont besoin, Exchange Server demeure un choix architectural pertinent. L’investissement continu dans Exchange Server, notamment le lancement d’Exchange Subscription Edition (SE), que nous nous engageons à prendre en charge au moins jusqu’à fin 2035, témoigne du fait que la messagerie d’entreprise ne peut être standardisée. »
Microsoft prend tout de même soin de souligner que c’est sur la version cloud que « l’innovation est la plus rapide », mais reconnait que la capacité à fournir une infrastructure sur site (ou un fonctionnement hybride) reste un impératif, particulièrement quand « les discussions autour de la souveraineté numérique, de la conformité réglementaire et du contrôle administratif se poursuivent ».
Critiqué pour l’abandon des versions 2016 et 2019, Microsoft profite de son billet pour justifier sa décision de passer à une version unique (et d’imposer l’abonnement face aux anciennes licences perpétuelles).
L’éditeur rappelle qu’il a été longtemps possible de faire cohabiter jusqu’à trois versions différentes d’Exchange au sein d’une même entreprise, mais le poids de ce legacy serait devenu trop important. « Cela a permis d’atténuer les difficultés liées à la migration. Mais cela a également ralenti la modernisation et l’assainissement de l’architecture, car chaque version devait s’adapter aux choix effectués des années auparavant. »
Rappelons qu’Exchange SE reprend et modernise les grandes lignes de la dernière version en date d’Exchange 2019, et doit profiter de deux mises à jour par an (les Cumulative Updates, ou CU) pour entretenir sa compatibilité générale et corriger les bugs ou les failles de sécurité. La migration se fait simplement depuis 2019, mais les entreprises qui utilisent encore 2016 doivent procéder en deux temps (2019, puis SE).
Calendrier de mise à jour et éléments de compatibilité liés à Exchange Server SE – source
Période d’anniversaire oblige, Microsoft retrace par ailleurs l’histoire de son serveur de messagerie, pour souligner à la fois sa place de premier plan sur le marché et son influence sur l’évolution de l’ensemble du secteur, notamment au travers du service Exchange Directory, devenu plus tard Active Directory.
« Exchange Server est devenu l’un des premiers succès de Microsoft sur le marché des serveurs d’entreprise, contribuant à nous installer en tant que fournisseur sérieux de plateformes d’entreprise au-delà du poste de travail », résume l’éditeur.
Reste une inconnue, déjà maintes fois mise en lumière par les équipes de Microsoft : quelle date faut-il formellement inscrire sur le bulletin de naissance d’Exchange ? Selon les points de vue, la sortie du logiciel se situe quelque part entre mars 1996 et juin de la même année, avec un point d’ancrage central au 2 avril, date de l’annonce de la disponibilité d’Exchange 4.0. Mais en réalité, « personne ne le sait avec certitude car la première version publique diffusée n’était pas celle basée sur la version master (la version RTM validée) », commente Microsoft, qui illustrait déjà cette incertitude il y a dix ans, dans une vidéo commémorant les 20 ans et les dix moments clé de l’histoire d’Exchange.