Vue normale

Reçu — 1 avril 2026 Actualités numériques

Oracle relance une vague de licenciements, plusieurs milliers de postes concernés

1 avril 2026 à 13:47
You are terminated
Oracle relance une vague de licenciements, plusieurs milliers de postes concernés

Six mois après la précédente, une nouvelle vague de licenciements a été engagée au sein des équipes d’Oracle. Certains employés ont été avertis par email que leur poste a été « supprimé » de l’organisation. Les estimations et les témoignages évoquent des coupes comprises entre 10 000 et 30 000 postes. Oracle ne s’est pour l’instant pas exprimé.

Oracle a enclenché un nouveau round de licenciements, dont le périmètre exact est encore difficile à déterminer. Cette salve intervient six mois seulement après la précédente, et elle en reprend le mode opératoire : les employés concernés évoluent dans toutes les divisions de l’entreprise, et sont prévenus par email, de façon plus ou moins laconique selon les cas.

Jusqu’à 30 000 postes concernés ?

Business Insider a reproduit par exemple mardi 31 mars un courrier électronique annonçant une suspension de poste sans préavis. « Après mûre réflexion et compte tenu des besoins actuels d’Oracle, nous avons décidé de supprimer votre poste dans le cadre d’une restructuration plus large. Par conséquent, aujourd’hui est votre dernier jour de travail », indique ce message signé Oracle Leadership.

D’autres témoignages (partagés sur Reddit, origine non vérifiée) montrent que certains employés ont reçu des messages légèrement différents dans la forme, mais similaires sur le fond : le poste concerné n’est plus considéré comme indispensable à l’entreprise, et se voit donc supprimé sans délai.

Comme en septembre dernier, la question se pose de savoir quelle est l’ampleur réelle de cette réduction d’effectifs. Oracle n’a pour l’instant pas communiqué via ses canaux officiels. L’entreprise a toutefois dû signaler formellement certains de ses licenciements pour des raisons réglementaires. Reuters remarque par exemple que l’entreprise a déclaré 491 suppressions de postes dans l’État de Washington et dans ses bureaux de Seattle en raison du ​Worker Adjustment and Retraining Notification (WARN) Act.

En Inde, où Oracle emploie aujourd’hui environ 30 000 personnes, plusieurs sources évoquent le chiffre de 12 000 licenciements au sein d’Oracle IDC (India Development Centre), le centre chargé notamment du développement de NetSuite, l’ERP du groupe, mais ce chiffre n’a pas été confirmé.

Du cash flow pour les investissements dans l’IA

Le groupe présidé par Larry Ellison, qui comptait 162 000 employés dans le monde d’après son dernier rapport annuel de mai 2025, a toutefois laissé entrevoir des signes avant-coureurs dans sa dernière communication financière à destination de la SEC, le gendarme de la bourse des États-Unis. Datée du 10 mars dernier (PDF), celle-ci indique en effet qu’Oracle prévoit une enveloppe totale de 2,1 milliards de dollars de frais de restructuration pour son année fiscale 2026, et qu’il en a pour l’instant dépensé 982 millions sur les trois premiers trimestres de l’exercice concerné.

L’ampleur de ces provisions laisse imaginer un plan de licenciements susceptible de concerner jusqu’à 30 000 personnes dans le monde, estiment certains commentateurs. Une telle réduction d’effectifs se traduirait par une augmentation de la trésorerie disponible d’Oracle de l’ordre de 8 à 10 milliards de dollars. De quoi soutenir le financement des projets pharaoniques d’infrastructures engagés par le groupe, aux côtés notamment d’OpenAI, qui constituent à la fois le cœur de sa politique d’investissements, mais aussi de ses débouchés commerciaux, puisqu’Oracle affiche un carnet de commandes de l’ordre du demi-millier de milliards de dollars.

Oracle relance une vague de licenciements, plusieurs milliers de postes concernés

1 avril 2026 à 13:47
You are terminated
Oracle relance une vague de licenciements, plusieurs milliers de postes concernés

Six mois après la précédente, une nouvelle vague de licenciements a été engagée au sein des équipes d’Oracle. Certains employés ont été avertis par email que leur poste a été « supprimé » de l’organisation. Les estimations et les témoignages évoquent des coupes comprises entre 10 000 et 30 000 postes. Oracle ne s’est pour l’instant pas exprimé.

Oracle a enclenché un nouveau round de licenciements, dont le périmètre exact est encore difficile à déterminer. Cette salve intervient six mois seulement après la précédente, et elle en reprend le mode opératoire : les employés concernés évoluent dans toutes les divisions de l’entreprise, et sont prévenus par email, de façon plus ou moins laconique selon les cas.

Jusqu’à 30 000 postes concernés ?

Business Insider a reproduit par exemple mardi 31 mars un courrier électronique annonçant une suspension de poste sans préavis. « Après mûre réflexion et compte tenu des besoins actuels d’Oracle, nous avons décidé de supprimer votre poste dans le cadre d’une restructuration plus large. Par conséquent, aujourd’hui est votre dernier jour de travail », indique ce message signé Oracle Leadership.

D’autres témoignages (partagés sur Reddit, origine non vérifiée) montrent que certains employés ont reçu des messages légèrement différents dans la forme, mais similaires sur le fond : le poste concerné n’est plus considéré comme indispensable à l’entreprise, et se voit donc supprimé sans délai.

Comme en septembre dernier, la question se pose de savoir quelle est l’ampleur réelle de cette réduction d’effectifs. Oracle n’a pour l’instant pas communiqué via ses canaux officiels. L’entreprise a toutefois dû signaler formellement certains de ses licenciements pour des raisons réglementaires. Reuters remarque par exemple que l’entreprise a déclaré 491 suppressions de postes dans l’État de Washington et dans ses bureaux de Seattle en raison du ​Worker Adjustment and Retraining Notification (WARN) Act.

En Inde, où Oracle emploie aujourd’hui environ 30 000 personnes, plusieurs sources évoquent le chiffre de 12 000 licenciements au sein d’Oracle IDC (India Development Centre), le centre chargé notamment du développement de NetSuite, l’ERP du groupe, mais ce chiffre n’a pas été confirmé.

Du cash flow pour les investissements dans l’IA

Le groupe présidé par Larry Ellison, qui comptait 162 000 employés dans le monde d’après son dernier rapport annuel de mai 2025, a toutefois laissé entrevoir des signes avant-coureurs dans sa dernière communication financière à destination de la SEC, le gendarme de la bourse des États-Unis. Datée du 10 mars dernier (PDF), celle-ci indique en effet qu’Oracle prévoit une enveloppe totale de 2,1 milliards de dollars de frais de restructuration pour son année fiscale 2026, et qu’il en a pour l’instant dépensé 982 millions sur les trois premiers trimestres de l’exercice concerné.

L’ampleur de ces provisions laisse imaginer un plan de licenciements susceptible de concerner jusqu’à 30 000 personnes dans le monde, estiment certains commentateurs. Une telle réduction d’effectifs se traduirait par une augmentation de la trésorerie disponible d’Oracle de l’ordre de 8 à 10 milliards de dollars. De quoi soutenir le financement des projets pharaoniques d’infrastructures engagés par le groupe, aux côtés notamment d’OpenAI, qui constituent à la fois le cœur de sa politique d’investissements, mais aussi de ses débouchés commerciaux, puisqu’Oracle affiche un carnet de commandes de l’ordre du demi-millier de milliards de dollars.

☕️ L’État français finalise le rachat de Bull

1 avril 2026 à 09:03


Bull, marque historique du calcul informatique, a définitivement tourné la page Atos : l’État a annoncé mardi 31 mars avoir finalisé le rachat de l’ex-division supercalcul du groupe informatique, sur la base d’une valeur d’entreprise qui pourrait atteindre 404 millions d’euros, en fonction de la réalisation de certains objectifs (non communiqués).

« Cette opération constitue une étape majeure pour la souveraineté technologique française et européenne, en particulier dans les domaines du calcul haute performance, de l’intelligence artificielle et du quantique », vante Bercy.

L’État s’était positionné dès fin 2024 comme un repreneur potentiel des activités supercalcul d’Atos, alors que le groupe de services informatiques entrait dans une période de tourmente boursière et financière sur fond de tentative de rachat manquée. L’intention s’était transformée en offre ferme en juin 2025.

Logo Bull

La démarche visait selon Bercy à préserver une activité qualifiée de critique dans la mesure où Atos, via sa division supercalcul, équipait la Défense (notamment pour la simulation nucléaire) et certains grands acteurs de l’industrie française.

Fin janvier, le nouvel actionnaire avait acté sa décision de relancer la marque Bull, quasi-centenaire, pour porter ces activités qui représenteraient aujourd’hui « plus de 3 000 professionnels et experts, pour la moitié basée en France » et un chiffre d’affaires de l’ordre de 720 millions d’euros en 2025.

Bull, sous son ancienne casquette Atos Eviden, est notamment intervenue récemment dans la fabrication du supercalculateur allemand Jupiter, et participe à la création du supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 554 millions d’euros sur cinq ans. Ce dernier doit en effet être construit sur la base de la plateforme BullSequana XH3500, puis équipé de GPU AMD Instinct MI430X, pour viser une puissance de calcul de l’ordre de l’exaflops en double précision.

« L’entrée de l’État au capital de Bull apporte à l’entreprise un actionnaire public de long terme, garant de la stabilité, de la continuité stratégique et de la préservation de compétences critiques au service d’une filière française et européenne d’excellence », affirme Bercy.

☕️ L’État français finalise le rachat de Bull

1 avril 2026 à 09:03


Bull, marque historique du calcul informatique, a définitivement tourné la page Atos : l’État a annoncé mardi 31 mars avoir finalisé le rachat de l’ex-division supercalcul du groupe informatique, sur la base d’une valeur d’entreprise qui pourrait atteindre 404 millions d’euros, en fonction de la réalisation de certains objectifs (non communiqués).

« Cette opération constitue une étape majeure pour la souveraineté technologique française et européenne, en particulier dans les domaines du calcul haute performance, de l’intelligence artificielle et du quantique », vante Bercy.

L’État s’était positionné dès fin 2024 comme un repreneur potentiel des activités supercalcul d’Atos, alors que le groupe de services informatiques entrait dans une période de tourmente boursière et financière sur fond de tentative de rachat manquée. L’intention s’était transformée en offre ferme en juin 2025.

Logo Bull

La démarche visait selon Bercy à préserver une activité qualifiée de critique dans la mesure où Atos, via sa division supercalcul, équipait la Défense (notamment pour la simulation nucléaire) et certains grands acteurs de l’industrie française.

Fin janvier, le nouvel actionnaire avait acté sa décision de relancer la marque Bull, quasi-centenaire, pour porter ces activités qui représenteraient aujourd’hui « plus de 3 000 professionnels et experts, pour la moitié basée en France » et un chiffre d’affaires de l’ordre de 720 millions d’euros en 2025.

Bull, sous son ancienne casquette Atos Eviden, est notamment intervenue récemment dans la fabrication du supercalculateur allemand Jupiter, et participe à la création du supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 554 millions d’euros sur cinq ans. Ce dernier doit en effet être construit sur la base de la plateforme BullSequana XH3500, puis équipé de GPU AMD Instinct MI430X, pour viser une puissance de calcul de l’ordre de l’exaflops en double précision.

« L’entrée de l’État au capital de Bull apporte à l’entreprise un actionnaire public de long terme, garant de la stabilité, de la continuité stratégique et de la préservation de compétences critiques au service d’une filière française et européenne d’excellence », affirme Bercy.

OpenAI porte son tour de table à 122 milliards de dollars

1 avril 2026 à 07:07
Qui trop embrasse mal étreint
OpenAI porte son tour de table à 122 milliards de dollars

OpenAI annonce avoir conclu sa dernière levée de fonds sur un montant revu à la hausse : 122 milliards de dollars, pour une valorisation totale désormais estimée à 852 milliards de dollars. L’entreprise affirme désormais engranger 2 milliards de dollars de chiffre d’affaires par mois et revendique une croissance quatre fois supérieure à celle d’Alphabet ou de Meta.

Les investisseurs semblent toujours enclins à suivre Sam Altman dans sa course au gigantisme. OpenAI a en effet annoncé mardi 31 mars avoir conclu son dernier tour de table, un an précisément après sa levée de fonds de 40 milliards de dollars au printemps 2025.

La levée de fonds partait sous des auspices favorables, avec 110 milliards de dollars promis par Amazon, Softbank et NVIDIA, pour une valorisation fixée à 730 milliards de dollars. Elle se termine finalement sur des indicateurs en hausse : OpenAI revendique en effet désormais des engagements à hauteur de 122 milliards de dollars, sur la base d’une valorisation post-money (après réalisation de l’augmentation de capital) de 852 milliards de dollars.

Une ouverture indirecte aux investisseurs particuliers

Dans sa communication, OpenAI affirme clairement voir dans cette surallocation un message de confiance de la part du secteur financier. Outre les trois acteurs déjà mentionnés, le tour réunit 25 fonds d’investissements et gestionnaires d’actifs, parmi les plus grands noms du secteur, dont Sequoia Capital, Thrive Capital, Andreessen Horowitz (a16z), D.E. Shaw & Co, Blackrock, Blackstone, etc. Aux côtés de ces acteurs principalement états-uniens, on note la présence de MGX, fonds d’investissement adossé aux Émirats arabes unis, et de Temasek, le fonds souverain de Singapour.

Au sein de cette enveloppe, trois milliards de dollars émanent indirectement d’investisseurs particuliers, par l’intermédiaire de trois banques privées avec lesquelles OpenAI a passé un accord de distribution. L’entreprise annonce par ailleurs avoir passé un accord avec le gestionnaire d’actifs ARK Invest pour que celui-ci intègre des titres OpenAI à certains de ses fonds de placement cotés (ETF). Une manœuvre que l’on pourrait interpréter comme un galop d’essai, afin de jauger l’intérêt du public pour la future action OpenAI si l’introduction en bourse devait aller à son terme.

L’infrastructure comme avantage stratégique

OpenAI profite de cette communication pour actualiser ses chiffres : ChatGPT compterait maintenant plus de 900 millions d’utilisateurs actifs par semaine, dont plus de 50 millions d’abonnés payants. Le trafic web et mobile de ChatGPT, exprimé en visites mensuelles, serait également six fois supérieur à celui de la deuxième application d’IA du marché (dont OpenAI ne précise pas le nom), et quatre fois supérieur à celui de tous les concurrents combinés.

« À ce stade, notre chiffre d’affaires croît quatre fois plus vite que celui des entreprises qui ont façonné les ères d’Internet et du mobile, notamment Alphabet et Meta », clame OpenAI.

Le marché entreprises représenterait quant à lui 40 % du chiffre d’affaires revendiqué. L’utilisation de ChatGPT par API se chiffrerait à 15 milliards de tokens par minute, et Codex, l’outil dédié aux développeurs, compterait 2 millions d’utilisateurs hebdomadaires.

Les expérimentations liées à la publicité porteraient quant à elles déjà leurs fruits, avec 100 millions de dollars en revenu annuel récurrent atteints en seulement six semaines. « Il ne s’agit pas seulement d’étapes de croissance importantes, mais aussi de la preuve que l’IA de pointe fait désormais partie du quotidien des gens du monde entier ».

Paradoxe de Jevons assumé

De quoi justifier, pour OpenAI, une stratégie toujours plus offensive d’investissement dans les infrastructures, qui assume une logique en droite ligne avec les préceptes du paradoxe de Jevons :

« À chaque nouvelle génération d’infrastructure, nous entraînons des modèles plus performants, rendant chaque token plus intelligent qu’auparavant. Parallèlement, les améliorations algorithmiques et matérielles réduisent le coût de service de chaque token, diminuant ainsi le coût par unité d’intelligence. Cette intelligence accrue rend l’IA utile pour des flux de travail plus complexes, ce qui augmente son utilisation, stimule la demande de calcul et accélère le cycle de croissance.

Il en résulte un effet cumulatif : une infrastructure et des modèles plus performants réduisent le coût de déploiement, tandis que des produits améliorés et un déploiement plus poussé en entreprise augmentent le revenu par unité de calcul. À mesure que l’utilisation augmente et que la plateforme gagne en maturité, cela génère un effet de levier opérationnel significatif au fil du temps.
 »

Le message ne sera sans doute pas de nature à rassurer ceux qui déplorent la course au gigantisme en matière d’infrastructures, ou qui craignent que les promesses d’investissements conditionnées à des perspectives de commandes finissent par faire éclater une possible bulle de l’IA.

Il confirme en revanche, s’il en était besoin, l’ambition d’OpenAI de se positionner comme le fournisseur d’une « superapp IA unifiée », autrement dit un ChatGPT capable de répondre à l’ensemble des demandes, qu’il s’agisse de requêtes grand public, de flux de travail spécialisés, de code ou de faire tourner des agents. Une approche quasi hégémonique qui paradoxalement servira peut-être à consolider le discours d’acteurs faisant le choix de modèles de pointe spécialisés, à l’image de Mistral AI.

En attendant, les vœux d’OpenAI et de Sam Altman se heurtent à certaines contingences matérielles : l’entreprise a ainsi mis un terme soudain à Sora, son IA générative dédiée à la production de vidéos, et reporté sine die ses projets de version adulte de ChatGPT.

OpenAI porte son tour de table à 122 milliards de dollars

1 avril 2026 à 07:07
Qui trop embrasse mal étreint
OpenAI porte son tour de table à 122 milliards de dollars

OpenAI annonce avoir conclu sa dernière levée de fonds sur un montant revu à la hausse : 122 milliards de dollars, pour une valorisation totale désormais estimée à 852 milliards de dollars. L’entreprise affirme désormais engranger 2 milliards de dollars de chiffre d’affaires par mois et revendique une croissance quatre fois supérieure à celle d’Alphabet ou de Meta.

Les investisseurs semblent toujours enclins à suivre Sam Altman dans sa course au gigantisme. OpenAI a en effet annoncé mardi 31 mars avoir conclu son dernier tour de table, un an précisément après sa levée de fonds de 40 milliards de dollars au printemps 2025.

La levée de fonds partait sous des auspices favorables, avec 110 milliards de dollars promis par Amazon, Softbank et NVIDIA, pour une valorisation fixée à 730 milliards de dollars. Elle se termine finalement sur des indicateurs en hausse : OpenAI revendique en effet désormais des engagements à hauteur de 122 milliards de dollars, sur la base d’une valorisation post-money (après réalisation de l’augmentation de capital) de 852 milliards de dollars.

Une ouverture indirecte aux investisseurs particuliers

Dans sa communication, OpenAI affirme clairement voir dans cette surallocation un message de confiance de la part du secteur financier. Outre les trois acteurs déjà mentionnés, le tour réunit 25 fonds d’investissements et gestionnaires d’actifs, parmi les plus grands noms du secteur, dont Sequoia Capital, Thrive Capital, Andreessen Horowitz (a16z), D.E. Shaw & Co, Blackrock, Blackstone, etc. Aux côtés de ces acteurs principalement états-uniens, on note la présence de MGX, fonds d’investissement adossé aux Émirats arabes unis, et de Temasek, le fonds souverain de Singapour.

Au sein de cette enveloppe, trois milliards de dollars émanent indirectement d’investisseurs particuliers, par l’intermédiaire de trois banques privées avec lesquelles OpenAI a passé un accord de distribution. L’entreprise annonce par ailleurs avoir passé un accord avec le gestionnaire d’actifs ARK Invest pour que celui-ci intègre des titres OpenAI à certains de ses fonds de placement cotés (ETF). Une manœuvre que l’on pourrait interpréter comme un galop d’essai, afin de jauger l’intérêt du public pour la future action OpenAI si l’introduction en bourse devait aller à son terme.

L’infrastructure comme avantage stratégique

OpenAI profite de cette communication pour actualiser ses chiffres : ChatGPT compterait maintenant plus de 900 millions d’utilisateurs actifs par semaine, dont plus de 50 millions d’abonnés payants. Le trafic web et mobile de ChatGPT, exprimé en visites mensuelles, serait également six fois supérieur à celui de la deuxième application d’IA du marché (dont OpenAI ne précise pas le nom), et quatre fois supérieur à celui de tous les concurrents combinés.

« À ce stade, notre chiffre d’affaires croît quatre fois plus vite que celui des entreprises qui ont façonné les ères d’Internet et du mobile, notamment Alphabet et Meta », clame OpenAI.

Le marché entreprises représenterait quant à lui 40 % du chiffre d’affaires revendiqué. L’utilisation de ChatGPT par API se chiffrerait à 15 milliards de tokens par minute, et Codex, l’outil dédié aux développeurs, compterait 2 millions d’utilisateurs hebdomadaires.

Les expérimentations liées à la publicité porteraient quant à elles déjà leurs fruits, avec 100 millions de dollars en revenu annuel récurrent atteints en seulement six semaines. « Il ne s’agit pas seulement d’étapes de croissance importantes, mais aussi de la preuve que l’IA de pointe fait désormais partie du quotidien des gens du monde entier ».

Paradoxe de Jevons assumé

De quoi justifier, pour OpenAI, une stratégie toujours plus offensive d’investissement dans les infrastructures, qui assume une logique en droite ligne avec les préceptes du paradoxe de Jevons :

« À chaque nouvelle génération d’infrastructure, nous entraînons des modèles plus performants, rendant chaque token plus intelligent qu’auparavant. Parallèlement, les améliorations algorithmiques et matérielles réduisent le coût de service de chaque token, diminuant ainsi le coût par unité d’intelligence. Cette intelligence accrue rend l’IA utile pour des flux de travail plus complexes, ce qui augmente son utilisation, stimule la demande de calcul et accélère le cycle de croissance.

Il en résulte un effet cumulatif : une infrastructure et des modèles plus performants réduisent le coût de déploiement, tandis que des produits améliorés et un déploiement plus poussé en entreprise augmentent le revenu par unité de calcul. À mesure que l’utilisation augmente et que la plateforme gagne en maturité, cela génère un effet de levier opérationnel significatif au fil du temps.
 »

Le message ne sera sans doute pas de nature à rassurer ceux qui déplorent la course au gigantisme en matière d’infrastructures, ou qui craignent que les promesses d’investissements conditionnées à des perspectives de commandes finissent par faire éclater une possible bulle de l’IA.

Il confirme en revanche, s’il en était besoin, l’ambition d’OpenAI de se positionner comme le fournisseur d’une « superapp IA unifiée », autrement dit un ChatGPT capable de répondre à l’ensemble des demandes, qu’il s’agisse de requêtes grand public, de flux de travail spécialisés, de code ou de faire tourner des agents. Une approche quasi hégémonique qui paradoxalement servira peut-être à consolider le discours d’acteurs faisant le choix de modèles de pointe spécialisés, à l’image de Mistral AI.

En attendant, les vœux d’OpenAI et de Sam Altman se heurtent à certaines contingences matérielles : l’entreprise a ainsi mis un terme soudain à Sora, son IA générative dédiée à la production de vidéos, et reporté sine die ses projets de version adulte de ChatGPT.

Reçu — 31 mars 2026 Actualités numériques

Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

31 mars 2026 à 15:36
souverainete.ch
Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.

Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.

Proton Workspace, à partir de 12,99 euros par mois

« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.

Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).

L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.

Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next

Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.

Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.

Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.

« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.

La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.

Proton Meet met le cap sur la visio

Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.

« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.

L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.

Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton

D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.

Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.

L’anonymat de Proton n’est pas au-dessus des lois suisses

Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.

L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.

« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.


Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

31 mars 2026 à 15:36
souverainete.ch
Proton lance un Meet et réunit ses services bureautiques dans un Workspace européen

Proton a annoncé coup sur coup mardi le lancement d’une solution de visioconférence, Proton Meet, et la réunion de ses différents services destinés aux professionnels sous une nouvelle marque ombrelle, Proton Workspace. Celle-ci est bien sûr présentée comme une alternative européenne aux ténors du secteur que sont Office 365 ou Google Workspace.

Le suisse Proton avance ses pions sur le terrain très médiatisé de la « souveraineté » avec l’annonce d’une nouvelle offre commerciale baptisée Proton Workspace. Celle-ci prend la forme d’un abonnement unique, pour accéder aux principales composantes de l’offre de service développée par l’entreprise.

Proton Workspace, à partir de 12,99 euros par mois

« Récemment, la demande pour les solutions professionnelles de Proton a explosé et les entreprises sont passées de l’utilisation de services individuels à l’adoption de notre écosystème complet et en constante expansion. C’est pourquoi nous lançons aujourd’hui Proton Workspace : une suite entièrement intégrée qui regroupe tous les services de Proton axés sur la protection de la vie privée au sein d’une offre unique », résume Andy Yen, CEO de l’entreprise.

Autrement dit, les différentes briques Proton restent disponibles à la carte, mais l’hébergeur les package pour simplifier la lecture de son offre. La formule Workspace Standard réunit ainsi Proton Mail, l’activité de messagerie historique, l’Agenda, le Drive, les outils Docs et Sheets, le VPN, le gestionnaire de mots de passe, et la nouvelle solution de visioconférence Meet (voir plus bas).

L’abonnement est affiché à 14,99 euros par mois sans engagement, et passe à 12,99 euros par mois en facturation annuelle. Il donne droit à 1 To d’espace de stockage et 15 domaines de messagerie personnalisés.

Proton affiche désormais trois abonnements principaux, Mail et les deux formules Workspace – capture d’écran Next

Proton ajoute une formule Workspace Premium à 24,99 euros par mois sans engagement, ou 19,99 euros par mois en facturation annuelle, avec cette fois 3 To de stockage, 20 domaines de messagerie personnalisés, mais aussi l’accès à l’IA générative Lumo lancée en juillet 2025, ainsi qu’à l’assistant d’écriture Proton Scribe.

Notons que ces tarifs s’entendent hors taxes, 20 % de TVA s’ajoutent donc sur la facture.

Outre le caractère européen de son offre, protégée de la portée extraterritoriale des lois états-uniennes (également valable pour des acteurs déjà installés comme Infomaniak), Proton revendique également une sécurité de haut niveau grâce à un code open source auditable et un chiffrement bout-en-bout par défaut. L’entreprise se dit enfin particulièrement compétitive.

« Bien que Proton Workspace inclue des outils de cybersécurité supplémentaires très utiles, il est moins cher que les offres comparables des grands acteurs du secteur et bien plus avantageux que l’achat de chaque service individuellement. Chez Proton, nous privilégions l’humain au profit, c’est pourquoi nous n’augmentons pas nos tarifs chaque année. Depuis plus de dix ans, nous n’avons jamais augmenté nos prix pour nos clients existants », vante l’entreprise.

La comparaison directe n’est toutefois pas aussi évidente que le prétend Proton, dans la mesure où les offres Microsoft 365 et Google Workspace recouvrent des périmètres et des capacités différents. L’argument final sonnera toutefois de façon positive aux oreilles des clients Microsoft 365 confrontés aux hausses de prix programmées par l’éditeur.

Proton Meet met le cap sur la visio

Proton lance également à cette occasion son service de visio, baptisé Proton Meet, et présenté, lui aussi, comme un rempart face aux risques en matière de non-respect de la vie privée.

« De nombreux services de visioconférence sont motivés par des modèles publicitaires ou par la course à l’IA visant à enregistrer, transcrire et stocker un maximum de données de réunion. Ces géants de la tech peuvent désormais déployer à moindre coût une IA générative pour analyser et tirer des enseignements de tout ce qui est dit et présenté lors de nos réunions », affirme Dingchao Lu, directeur de l’ingénierie chez Proton.

L’entreprise s’affranchirait de ces dérives, réelles ou supposées, grâce à un chiffrement de bout en bout basé sur le protocole Messaging Layer Security (également mis en œuvre dans RCS). Elle affirme également pouvoir garantir l’obfuscation de l’adresse IP des utilisateurs sans recourir à un réseau de type P2P ou oignon. Pour ce faire, Proton évoque une implémentation de WebRTC permettant d’exploiter un réseau de points de présence dans le monde entier, jouant donc le rôle de relais dans les échanges.

Proton Meet propose un chiffrement bout-en-bout via MLS – crédit Proton

D’un point de vue fonctionnel, Proton Meet permet aux particuliers de créer une visio gratuitement avec une limite d’utilisation fixée à une heure, sans qu’il soit nécessaire de disposer d’un compte Proton ou de renseigner un e-mail.

Pour des visios plus longues, ou des quotas rehaussés en matière de participants, il faudra en revanche se tourner soit vers les abonnements Workspace, soit souscrire un abonnement Meet Professional, affiché à 7,99 euros par utilisateur et par mois.

L’anonymat de Proton n’est pas au-dessus des lois suisses

Début mars, les promesses d’anonymat et de protection de la vie privée formulées par Proton ont été mises en balance d’une actualité récente. Le site 404 Media a en effet rapporté que Proton Mail avait donné suite aux demandes d’identification d’un utilisateur de Proton Mail formulées par les autorités suisses, sur demande préalable du FBI.

L’information avait été reprise dans la foulée par la fondation pour la liberté de la presse, dans un billet d’alerte affirmant qu’en dépit de son marketing et de ses qualités intrinsèques, dont le recours à PGP, Proton Mail ne devait pas être considéré comme une solution garantissant l’anonymat des utilisateurs. L’entreprise avait ensuite récusé toute soumission aux demandes des États-Unis, mais précisé devoir se conformer au droit suisse.

« Proton ne fournit que les informations limitées dont nous disposons lorsque nous recevons une ordonnance juridiquement contraignante des autorités suisses, ce qui ne peut se produire qu’après que toutes les vérifications juridiques suisses ont été effectuées. Il s’agit d’une distinction importante, car Proton œuvre exclusivement sous le droit suisse », a déclaré un porte-parole au quotidien Le Temps.


☕️ Comment désactiver la traduction automatique par Grok sur X

31 mars 2026 à 14:12


L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.

Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.

Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».

En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next

« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.

X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.

La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».

Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.

On peut (heureusement) désactiver la traduction automatique – capture d’écran Next

Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.

☕️ Comment désactiver la traduction automatique par Grok sur X

31 mars 2026 à 14:12


L’ex-Twitter a activé une option qui fait déjà râler bon nombre d’internautes sur Reddit : la traduction automatique et par défaut des posts qui sont rédigés dans une langue autre que celle sélectionnée par l’utilisateur au niveau de son profil.

Sur un profil paramétré en français, tous les messages publiés en anglais apparaissent donc systématiquement traduits dans la langue de Molière, avec tout ce que le traitement automatisé peut entraîner comme faux amis, erreurs d’interprétation et autres subtilités liées à l’argot, au second degré ou aux expressions idiomatiques.

Le changement a été annoncé par Ray Hotate, un des ingénieurs de xAI, en relais d’un post écrit en japonais dont la traduction automatisée fait particulièrement envie : « J’aime cette photo avec des hommes américains et de la viande. J’aimerais bien y participer sur place un jour ».

En barbecue comme en traduction, la qualité vaut parfois mieux que la quantité – capture d’écran Next

« L’année dernière, après avoir renforcé les fonctionnalités multilingues de Grok par un apprentissage postérieur, j’ai commencé à développer ce système de traduction automatique tout seul », décrit Ray Hotate, d’après la traduction réalisée par Grok depuis le japonais.

X proposait bien jusqu’ici une fonction de traduction opérée par Grok, le modèle d’IA générative développé par xAI, mais celle-ci se présentait comme une option, sous la forme d’un lien discret invitant à traduire le message rédigé dans une langue étrangère.

La logique est maintenant inversée par défaut : X affiche une mention « À l’origine en anglais et traduit », suivie d’un lien « Afficher l’original ».

Il est cependant possible de désactiver cette traduction automatique langue par langue, en ouvrant un message traduit automatiquement (c’est-à-dire en l’affichant via son lien spécifique, et pas uniquement dans le flux d’actualités). Sur la page du post apparait alors une petite roue crantée à droite de la ligne signalant la traduction automatique. On peut ensuite la réactiver au même endroit.

On peut (heureusement) désactiver la traduction automatique – capture d’écran Next

Notons que X propose également de gérer l’affichage des traductions via les paramètres, dans la rubrique Accessibilité, affichage et langues, mais le réglage associé n’était pas fonctionnel chez nous mardi après-midi.

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

31 mars 2026 à 10:08
It's not a bug, it's a feature
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).

Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.

« Copilot a intégré une pub à ma PR »

Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.

L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson

Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.

« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »

GitHub rétropédale en urgence

Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :

« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »

Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :

« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »

Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».

GitHub renforce l’intégration de Copilot (et son accès aux données)

Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.

Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».

L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.

L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next

L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.

Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.

La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :

  • Sorties acceptées ou modifiées par vos soins
  • Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
  • Commentaires et documentation que vous rédigez
  • Noms de fichiers, structure du dépôt et habitudes de navigation
  • Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
  • Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)

Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.

La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :

« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »

Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.

Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

31 mars 2026 à 10:08
It's not a bug, it's a feature
Entre collecte et pubs ajoutées par Copilot dans le code, GitHub agace ses utilisateurs

GitHub a désactivé en urgence une fonctionnalité qui permettait l’insertion, par Copilot, de « conseils » dans les pull requests des utilisateurs. Quelques jours plus tôt, la plateforme avait annoncé l’extension de l’utilisation faite des données des utilisateurs pour l’entraînement de ses modèles, avec une approbation tacite par défaut et une désactivation manuelle (opt-out).

Glisser des conseils en forme de pubs dans le code des demandes de tirage (pull requests), il fallait y penser. GitHub l’a fait, de façon fort maladroite, et vient de rétropédaler en urgence face à la fronde des utilisateurs. La plateforme invoque une erreur de paramétrage, liée à une autre de ses modifications récentes : la possibilité de collecter les données issues des interactions de l’utilisateur avec Copilot.

« Copilot a intégré une pub à ma PR »

Lundi 30 mars, plusieurs développeurs s’insurgent sur les réseaux sociaux : en lisant les demandes de tirage réalisées au sein de leurs équipes, ils réalisent que le code a fait l’objet d’une édition réalisée par l’agent IA Copilot intégré à la plateforme. « Déployez rapidement des agents de codage Copilot depuis n’importe quel endroit de votre machine macOS ou Windows grâce à Raycast », écrit l’IA de Microsoft, avec émoticône en forme d’éclair et lien vers le site de l’éditeur concerné.

L’IA a édité la PR pour y ajouter une phrase faisant la promotion d’un outil tiers, Raycast – capture d’écran publiée par Zach Manson

Quelles que soient les qualités intrinsèques de Raycast, difficile de ne pas interpréter ce message comme une incitation à installer le logiciel, et donc comme une publicité. « C’est horrible. Je savais que ce genre de conneries finirait par arriver, mais je ne m’attendais pas à ce que ce soit si tôt », s’émeut le développeur australien Zach Manson, capture d’écran à l’appui, qui rappelle ensuite la fameuse citation de Cory Doctorow sur la théorie de la merdification.

« Au départ, les plateformes conviennent à leurs utilisateurs ; ensuite, elles abusent de ces usagers pour améliorer l’expérience de leurs clients professionnels ; enfin, elles abusent de leurs clients professionnels pour récupérer toute la valeur pour elles-mêmes. »

GitHub rétropédale en urgence

Sentant la bronca venir, GitHub n’a pas tardé à réagir. La plateforme nie toute velléité publicitaire et invoque plutôt l’erreur technique liée à une fonctionnalité présentée comme acceptable, les conseils produits. C’est Martin Woodward, vice-président en charge des relations avec les développeurs, qui est monté au créneau sur X lundi en fin de journée, en répondant à un compte qui s’alarmait de ce changement :

« Nous l’avons déjà désactivé. En fait, il s’agissait de conseils produits, ce qui était acceptable pour les demandes de fusion initiées par Copilot. Mais lorsque nous avons ajouté la possibilité d’utiliser Copilot sur _n’importe quelle_ demande de fusion en le mentionnant, le comportement est devenu problématique. Nous avons donc désactivé complètement les conseils produits suite aux retours reçus. »

Quelques heures plus tard, il livre une explication de texte légèrement plus détaillée et promet que GitHub n’a jamais eu et n’a toujours pas l’intention d’intégrer de publicité sur sa plateforme :

« Notre objectif était de partager des utilisations innovantes de l’agent de codage Copilot. Dans ce cas précis, nous avions mis en avant notre intégration avec Raycast parmi un ensemble plus large de conseils produits. Cependant, cette suggestion est apparue plus fréquemment que prévu, au même titre que d’autres suggestions de fonctionnalités. Nous avons donc supprimé les conseils relatifs à l’agent Copilot de toutes les pull requests. »

Il situe par ailleurs la date d’introduction de ce comportement problématique au 24 mars, à l’occasion « d’un déploiement qui a étendu la capacité de Copilot à contribuer à toute demande de fusion lorsqu’un développeur en fait la demande ».

GitHub renforce l’intégration de Copilot (et son accès aux données)

Le 24 mars, c’est précisément la date à laquelle GitHub a annoncé une mise à jour de ses conditions d’utilisation, pour étendre les possibilités d’entrainement de Copilot.

Ces nouvelles conditions, qui entreront en vigueur le 24 avril prochain, prévoient que « les données d’interaction (notamment les entrées, les sorties, les extraits de code et le contexte associé) des utilisateurs de Copilot Free, Pro et Pro+ seront utilisées pour entraîner et améliorer nos modèles d’IA, sauf s’ils s’y opposent ».

L’entreprise indique explicitement que les utilisateurs de comptes Copilot Business et Copilot Enterprise sont exclus de ce périmètre, mais pour les autres, il faudra une modification manuelle du paramètre en question pour refuser ce nouveau comportement. Autrement dit, Microsoft procède selon une logique d’opt-out (le consentement est donné par défaut, et il faut signaler son refus), là où le caractère personnel des informations concernées aurait pu (ou dû) motiver un opt-in, c’est-à-dire un consentement explicite avant activation.

L’option Autoriser GitHub à utiliser mes données pour l’entraînement des modèles IA est activée par défaut – capture d’écran Next

L’option correspondante est dès à présent disponible dans le menu Settings, à la rubrique Copilot / Features. Pour celles et ceux qui voudraient faire d’une pierre deux coups, l’écran dédié permet au passage de réduire la fréquence des allusions permanentes à Copilot dans l’interface de GitHub.

Pour justifier sa décision, GitHub estime s’aligner avec les standards de l’industrie et promet que leur consentement permettra aux utilisateurs de contribuer à l’amélioration de la qualité de ses modèles.

La plateforme précise par ailleurs le périmètre des données concernées par ces possibilités d’entrainement. Elle affirme ainsi pouvoir collecter les éléments suivants :

  • Sorties acceptées ou modifiées par vos soins
  • Entrées envoyées à GitHub Copilot, y compris les extraits de code présentés au modèle Contexte du code autour de la position de votre curseur
  • Commentaires et documentation que vous rédigez
  • Noms de fichiers, structure du dépôt et habitudes de navigation
  • Interactions avec les fonctionnalités de Copilot (chat, suggestions intégrées, etc.)
  • Vos commentaires sur les suggestions (appréciations : « J’aime »/« Je n’aime pas »)

Le contenu des tickets, des discussions ou des dépôts privés échappe en revanche à la collecte à des fins d’entrainement.

La plateforme promet enfin que ces données ne seront pas vendues à des tiers, mais se réserve la possibilité d’en faire profiter d’autres entités du groupe Microsoft :

« Les données utilisées dans le cadre de ce programme peuvent être partagées avec les filiales de GitHub, qui font partie de notre groupe, notamment Microsoft. Ces données ne seront pas partagées avec des fournisseurs de modèles d’IA tiers ni avec d’autres prestataires de services indépendants. »

Dans la conversation qui s’est enclenchée sur la FAQ dédiée, certains utilisateurs suggèrent que GitHub récompense cette exploitation sous forme de tokens gratuits. D’autres réclament la possibilité de retrouver une version de la plateforme complètement expurgée de Copilot.

Reçu — 30 mars 2026 Actualités numériques

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

30 mars 2026 à 15:21

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral annonce avoir finalisé l’emprunt de 830 millions de dollars qui doit lui permettre de financer les GPU destinés à son datacenter de Bruyères-le-Châtel, au sud de Paris. Cette somme amenée par un pool bancaire, servira à acheter 13 800 puces GB300 à NVIDIA, et portera la puissance IT installée sur le site à 44 MW.

Mistral AI a annoncé lundi 30 mars avoir conclu les conditions d’un financement par la dette portant sur une enveloppe de 830 millions de dollars (722 millions d’euros), auprès d’un panel de banques.

Cet emprunt, dont les conditions n’ont pas été précisées, répond à un besoin précisément identifié : l’équipement en puces spécialisées du datacenter utilisé par Mistral AI et construit par Eclairion à Bruyères-le-Châtel, à proximité immédiate des installations du CEA au sud de Paris, à une trentaine de kilomètres du plateau de Saclay. La somme doit en l’occurrence permettre l’acquisition de 13 800 puces GB300 signées NVIDIA.

44 MW de puissance IT équipés en GB300

Ces ressources informatiques porteront la puissance IT disponible pour Mistral à 44 MW, indique l’entreprise. « Alors que les gouvernements et les entreprises cherchent activement à construire leur propre environnement d’IA personnalisé, nous développons notre infrastructure en Europe. Mistral AI est le guichet unique pour l’innovation et l’autonomie en IA. », s’est réjoui Arthur Mensch, CEO et cofondateur de Mistral AI.

L’opération fait intervenir une majorité d’acteurs français, avec la banque publique d’investissement, Bpifrance et cinq établissements privés BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis Corporate & Investment Banking. Un septième acteur, étranger cette fois, participe au tour : la banque MUFG (groupe Mitsubishi).

Le projet et son emplacement avaient été dévoilés en février 2025 par Mistral AI. La startup avait alors annoncé s’être associée avec Eclairion, un acteur français spécialisé dans la conception de datacenters haute densité.

L’intégration devait également associer un intégrateur britannique devenu états-unien, Fluidstack, qui s’était également positionné sur l’un des projets clés en main identifiés par la France à Bosquel dans la Somme avec une enveloppe prévisionnelle de l’ordre de 10 milliards de dollars. D’après Bloomberg, Fluidstack aurait cependant révisé ses plans concernant la France, préférant concentrer ses investissements sur le sol des États-Unis.

Dans sa communication récente, Mistral AI n’évoque pas les partenaires industriels du projet, et ne précise pas les modalités de déploiement de ces GB300, ou la part exacte que représenteront ces derniers dans les 44 MW de puissance IT. Arnaud Lépinois, CEO d’Eclairion, indiquait le 4 décembre 2025 à l’occasion du Dell Technologies Forum être à quelques heures de la mise en production d’un cluster de GB200 destinés à Mistral AI et représentant la plus grosse machine d’IA de France. Les cartes du projet auraient-elles été rebattues ?

Une infrastructure au service de Mistral Compute

Si les parties prenantes ou le calendrier ont pu évoluer, Mistral AI parle d’une mise en service au deuxième trimestre 2026 et reste alignée sur l’objectif déjà exprimé : mettre à disposition une infrastructure de calcul affranchie de toute considération réglementaire extraterritoriale au profit des projets IA de ses grands clients institutionnels, via son offre Mistral Compute, officiellement inaugurée en juin dernier. En janvier, l’entreprise a notamment signé un accord-cadre avec le ministère des Armées.

« Nous continuerons d’investir dans ce domaine, compte tenu de la demande forte et durable des gouvernements, des entreprises et des institutions de recherche qui cherchent à construire leur propre environnement d’IA personnalisé, plutôt que de dépendre de fournisseurs cloud tiers. », déclare à ce propos Arthur Mensch.

Outre son projet en Essonne, l’entreprise a annoncé en février dernier un investissement à hauteur de 1,2 milliard d’euros dans un projet de centre de données situé en Suède, sa première infrastructure opérée en propre située hors de France. Quelques mois plus tôt, Mistral AI avait levé 1,3 milliard d’euros auprès du néerlandais ASML, en échange de 11 % de son capital. L’entreprise était alors valorisée 11,7 milliards d’euros. Elle affirme aujourd’hui viser 200 MW de puissance IT installée à fin 2027.

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran

Bluesky teste Attie, un assistant de recherche… basé sur l’IA

30 mars 2026 à 09:58
Le mauvais chasseur, y voit un truc qui bouge, y tire. Alors que le bon chasseur...
Bluesky teste Attie, un assistant de recherche… basé sur l’IA

Bluesky ouvre une expérimentation prudente autour de l’IA avec le lancement d’Attie, un « assistant » censé aider l’utilisateur à trouver des comptes ou des contenus intéressants, en fonction de demandes exprimées en langage naturel. Présentée comme exploratoire, la démarche est accueillie plutôt froidement par les utilisateurs du réseau social.

Organisée entre les 26 et 29 mars, la conférence Atmosphere a réuni pendant quatre jours la communauté des développeurs intéressés par le protocole AT (Authenticated Transfer Protocol). Bluesky, dont le réseau social exploite ce fameux atproto, a profité de l’occasion pour présenter sa dernière application en date. Baptisée Attie (en référence à la façon dont on prononce l’acronyme AT en anglais), elle prend la forme d’un agent IA chargé de construire des flux de messages personnalisés en fonction de la demande de l’utilisateur.

Mieux que le flux chronologique, le flux généré par IA ?

« Décrivez ce que vous souhaitez voir et regardez votre flux se composer automatiquement autour de vous », promet le site dédié à Attie. Le service fait pour l’instant l’objet d’une bêta fermée, mais il propose une liste d’attente à laquelle on peut s’inscrire avec un identifiant Bluesky.

En attendant que les vannes soient ouvertes plus largement, il dispense plusieurs exemples illustrant le fonctionnement d’Attie. Plutôt que de procéder à une recherche par mots-clés, l’interface propose d’entrer une requête en langage naturel, et suggère en retour une sélection de comptes à suivre ou de messages susceptibles d’y répondre. On peut ainsi demander une liste de comptes spécialisés sur une thématique donnée, ou chercher qui parmi les comptes suivis par l’utilisateur publie des poèmes de son cru.

Attie permet par exemple de constituer une liste thématique de comptes à suivre…

Attie permet ensuite de sauvegarder la requête, pour en faire un flux personnalisé. Ce dernier semble pour l’instant cantonné à l’application Attie, mais la logique voudrait qu’il soit à terme possible de l’exporter soit vers Bluesky, soit vers d’autres clients exploitant atproto.

Bluesky présente l’outil comme un agent social. « On a davantage l’impression d’avoir une conversation que de configurer un logiciel. Vous décrivez le type de publications que vous souhaitez voir, et l’agent de codage crée le flux que vous avez décrit », explique Jay Graber, ex CEO devenue responsable de l’innovation chez Bluesky.

… ou de chercher des messages au contenu plus spécifique – captures d’écran

Un appel à vibe coder autour d’atproto

Dans son billet, Jay Graber présente Attie comme une première pierre à caractère exploratoire pour un édifice nettement plus ambitieux : faciliter la création de nouvelles applications capables de tirer parti des échanges sur un réseau atproto, notamment grâce à l’IA.

« Nous avons conçu le protocole AT pour que chacun puisse développer l’application de son choix, mais jusqu’à récemment, n’importe qui ​​signifiait en réalité n’importe qui sachant coder. Les outils de programmation automatisée changent la donne. Pour la première fois, un protocole ouvert est véritablement accessible à tous. »

Attie serait ainsi une forme de démonstrateur de ce qu’il est possible de faire au sein de l’Atmosphere, le terme par lequel Bluesky désigne l’écosystème d’applications et de services construits sur le protocole AT :

« L’Atmosphere est une couche de données ouverte dotée d’un schéma clairement défini pour les applications, ce qui la rend particulièrement adaptée au développement d’agents. Nous nous sommes donc demandé : que se passe-t-il lorsque vous pouvez décrire l’expérience sociale souhaitée et qu’elle est créée pour vous ? »

Un accueil plutôt mitigé

L’interopérabilité et la capacité à développer des services capitalisant sur les promesses d’ouverture et de décentralisation d’atproto (décentralisation très relative dans le cas de Bluesky) fédèrent déjà près d’un millier d’applications, remarque Toni Schneider, investisseur chez True Ventures, dans un billet laudateur.

Sans remettre en cause cette promesse, l’application Attie a de façon plus prosaïque reçu un accueil mitigé sur Bluesky, où divers mèmes circulent pour souligner que personne n’a jamais exprimé le souhait de paramétrer son flux à l’aide d’un agent IA.

Attie compte déjà quelques détracteurs sur Bluesky – source

« Attie est une application distincte, et son utilisation est entièrement à votre discrétion. Bluesky continuera d’évoluer en tant qu’application sociale utilisée par des millions de personnes. Attie sera notre plateforme d’expérimentation pour une interaction sociale proactive », affirme Jay Grabber.

De façon symbolique, l’identifiant Bluesky dédié à Attie est passé lundi midi à la troisième place du classement des comptes les plus bloqués sur le réseau social selon un outil tiers. Attie a ainsi surpassé le compte de l’ICE, la police de l’immigration, et talonne désormais la Maison-blanche, même si le numéro un, le vice-président JD Vance, reste encore hors de portée.

113 000 utilisateurs de Bluesky auraient symboliquement bloqué le compte attie – capture d’écran
Reçu — 27 mars 2026 Actualités numériques

Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

27 mars 2026 à 16:17
Le plus important, ça n'est pas la chute
Chat Control : le Parlement européen refuse de prolonger la surveillance jusqu’en 2027

Le Parlement européen a rejeté jeudi la proposition de la Commission européenne visant à autoriser les grands acteurs du numérique à surveiller volontairement les communications électroniques pour y détecter les contenus relevant d’abus sexuels sur mineurs. La dérogation accordée jusqu’en 2027 est donc annulée, et la pratique doit prendre fin au 3 avril prochain.

Nouveau rebondissement dans le feuilleton Chat Control : avec 228 voix pour, 92 abstentions et 311 voix contre, les députés européens ont rejeté jeudi 26 mars la proposition de la Commission européenne visant à prolonger la dérogation existante à la directive ePrivacy.

Cette dernière permet pour mémoire aux grandes plateformes numériques de scanner le contenu des conversations privées pour y détecter la circulation de contenus relevant d’abus sexuels sur mineurs (CSAM, pour child sexual abuse material en anglais).

Cette prolongation était demandée par Bruxelles pour maintenir une possibilité temporaire de surveillance, en attendant la conclusion des négociations relatives à un cadre juridique à long terme : le projet Child Sexual Abuse Regulation (CSAR), surnommé Chat Control par ses opposants.

Différences de points de vue

Les eurodéputés s’étaient déjà exprimés sur la question de la détection volontaire de matériaux pédocriminels le 11 mars dernier. Ils avaient alors adopté, comme Next le rapportait, une position en faveur d’une extension de la dérogation à la directive ePrivacy jusqu’au mois d’août 2027.

Ils avaient également intégré à la proposition de règlement plusieurs modifications réduisant le caractère global de la surveillance ainsi permise, en restreignant par exemple cette dernière aux utilisateurs identifiés par une autorité judiciaire comme étant « raisonnablement soupçonnés » d’être liés à des abus sur mineurs.

Sur la base de cette position, les négociations devaient ensuite s’engager via un trilogue avec le Conseil de l’UE et la Commission européenne, pour entériner (ou non) cette proposition de dérogation. Avec une certaine dimension d’urgence, puisque la précédente dérogation ne court que jusqu’au 3 avril 2026.

L’affaire a donc été renvoyée dès le 11 mars au comité chargé des négociations interinstitutionnelles… et les discussions engagées par ce dernier ont achoppé, comme l’a annoncé le Parlement européen dans un communiqué le 17 mars dernier.

« Par leur manque de souplesse, les États membres ont délibérément accepté que ce règlement expire en avril. Dès lors, le contrôle volontaire visant à lutter contre la diffusion en ligne de contenus pédopornographiques par les fournisseurs d’accès ne sera plus possible », y déclare la rapporteure allemande du texte, Brigit Sippel.

Faute d’accord, les eurodéputés se sont donc exprimés jeudi 26 mars sur la proposition de la Commission européenne, et l’ont rejetée, clôturant ainsi la première lecture. Ce faisant, ils provoquent donc la fin, au 3 avril prochain, de la dérogation qui autorisait la surveillance des conversations chiffrées.

Trilogues à venir

Patrick Breyer, principal opposant déclaré au texte, voit dans ce rejet une nouvelle victoire :

« Les entreprises américaines comme Meta, Google et Microsoft doivent cesser de scruter sans discernement les conversations privées des citoyens européens. La confidentialité des échanges numériques est rétablie ! »

Il rappelle toutefois que ce nouveau rebondissement ne signe pas la fin des velléités de contrôle manifestées par certains États membres et par Bruxelles, notamment parce que les négociations autour d’un éventuel Chat Control 2.0 se poursuivent. Et souligne que la question ne se limite pas à la surveillance des correspondances :

« Par ailleurs, la prochaine menace majeure pour les libertés numériques est déjà à l’ordre du jour : dans le cadre du trilogue en cours, les législateurs devront négocier la question de savoir si les services de messagerie instantanée et les plateformes de téléchargement d’applications seront légalement tenus de mettre en œuvre une vérification de l’âge. Cela obligerait les utilisateurs à fournir une pièce d’identité ou à se soumettre à une reconnaissance faciale, rendant de fait toute communication anonyme impossible et mettant gravement en danger les groupes vulnérables tels que les lanceurs d’alerte et les personnes persécutées. »


☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

☕️ Sony augmente de 100 euros le prix des différentes versions de la PS5

27 mars 2026 à 14:23


La hausse de prix est aussi significative que globale : Sony a annoncé vendredi 7 mars une révision des tarifs de sa console de salon vedette, la PlayStation 5, dans le monde entier. En Europe, les trois versions de la console voient leur prix public augmenter de 100 euros, à compter du 2 avril 2026.

La PS5 standard passe à 650 euros, tandis que la PS5 édition numérique (sans lecteur optique physique) grimpe à 600 euros. Enfin, la PS5 Pro est désormais affichée à 900 euros. Le PlayStation Portal (lecteur à distance) voit lui aussi son prix public conseillé grimper de 220 à 250 euros.

Les nouveaux prix publics conseillés s’appliquent à partir du 2 avril sur les principaux marchés – capture d’écran

« Nous savons que les changements de prix ont un impact sur notre communauté et, après une évaluation minutieuse, nous avons conclu qu’il s’agissait d’une étape nécessaire pour garantir que nous puissions continuer à offrir des expériences de jeu innovantes et de haute qualité aux joueurs du monde entier. », commente Sony qui invoque, sans surprise, des « pressions continues dans le paysage économique mondial » pour justifier sa décision.

La PS5 avait déjà subi une hausse de prix au printemps 2025 en Europe. À l’époque, la hausse épargnait toutefois la PS5 Pro, lancée quelques mois plus tôt à 800 euros.

❌