Apple a envoyé lundi les invitations pour un special event qui se tiendra le 4 mars prochain. Contrairement aux dernières grand-messes qui se tenaient à son siège de Cupertino, la marque joue cette fois la carte d’une présence simultanée sur trois continents, avec un événement principal organisé à New-York et des retransmissions dédiées à la presse prévues à Londres et Shanghai.
L’invitation ne dit pas grand chose de la nature exacte des nouveautés attendues, indiquant un laconique « You’re invited », surmonté d’un logo comme découpé en tranches. On note toutefois que le 4 mars tombe un mercredi (alors qu’Apple procède traditionnellement à ses annonces le mardi). La date correspond par ailleurs à la tenue du Mobile World Congress, le grand salon de la mobilité de Barcelone (programmé cette année du 2 au 5 mars).
Les rumeurs prêtent à Apple plusieurs annonces potentielles, au premier rang desquelles un MacBook d’entrée de gamme qui pourrait emprunter à l’iPhone sa puce A18 Pro. Le fabricant pourrait aussi présenter les machines inaugurant sa nouvelle puce M5, de nouveaux écrans externes, et la déclinaison d’entrée de gamme de son téléphone avec l’iPhone 17e.
Apple annoncera ses nouveautés le 4 mars prochain – crédit The Verge
La plateforme Choisir le service public, dédiée au recrutement dans la fonction publique, a communiqué lundi par email au sujet d’un incident de cybersécurité ayant conduit à l’exposition des données personnelles des internautes inscrits.
« Le mercredi 4 février 2026, un incident de cybersécurité a été détecté sur la plateforme « Choisir le Service Public ». Cette violation de sécurité a entraîné une divulgation non autorisée de données personnelles appartenant à l’ensemble des utilisateurs inscrits sur la plateforme. », indique-t-elle dans ce message consulté par Next.
La plateforme ne détaille pas le nombre d’utilisateurs concernés. Elle précise en revanche le détail des informations compromises : outre les données d’identification personnelle, on y retrouve les principaux éléments renseignés par l’internaute au sujet de ses aspirations professionnelles et de son parcours.
Parmi ces différents champs figurent par exemple le type de poste recherché, les préférences géographiques pour le futur poste, les langues maîtrisées « avec indication du niveau de compétence pour chacune », etc. Des informations de nature personnelle, voire parfois confidentielle, qui ne constituent pas une menace immédiate en tant que telle, mais qui sont susceptibles d’étayer une démarche d’ingénierie sociale.
Extrait de l’email adressé par la plateforme à un nombre non précisé d’usagers le 16 février – capture d’écran Next
« Nous n’avons pas connaissance, à ce jour, d’une exploitation avérée de vos données, mais nous vous recommandons d’être particulièrement vigilant concernant une éventuelle utilisation anormale de ces données personnelles », veut rassurer la plateforme, qui précise qu’aucun mot de passe n’a été compromis.
Cette communication intervient deux semaines après la publication, le 3 février au soir sur un forum spécialisé, d’une annonce relative à la mise en vente d’un fichier de 377 000 lignes émanant, selon son auteur, de la plateforme Choisir le service public.
« La plateforme « Choisir le Service Public » a fait l’objet d’une attaque le 28 janvier 2026 par utilisation frauduleuse d’un compte gestionnaire. Cet accès non autorisé a permis à une ou plusieurs personnes d’avoir accès au vivier des candidats de la plateforme. Les données personnelles de 377 418 candidats ont été mises en ligne sur le dark web pour procéder à leur vente et, à notre connaissance, un jeu de données de 1000 candidats a été mis en accès libre sur internet. »
Objet d’une enquête du média suisse Republik, Palantir attaque ce site en justice pour obtenir un droit de réponse.
Alors que la DGSI renouvelait encore, en fin d’année dernière, son contrat avec Palantir, l’entreprise fondée par Peter Thiel était l’objet d’une enquête du magazine suisse Republik et du collectif d’investigation WAV. L’entreprise attaque maintenant nos confrères suisses, réclamant un droit de réponse, explique Republik. La cour du canton de Zurich a confirmé avoir reçu une demande de droit de réponse à ce sujet auprès de nos confrères de Heise.
L’entreprise a des bureaux dans le pays, à Zurich, qu’elle utilise notamment pour ses relations commerciales, comme l’explique le média Swiss Info. Republik et WAV ont donc enquêtésur d’éventuels liens entre les autorités suisses et Palantir, notamment en déposant 59 demandes d’accès à des documents des autorités fédérales suisses.
Un rapport qui s’inquiétait du potentiel transfert de données au gouvernement américain
Et ils ont découvert que, malgré 7 ans passés à essayer de convaincre les autorités suisses, Palantir n’y était pas arrivé (9 refus immédiats et un refus après évaluation par Armasuisse, l’Office fédéral de l’armement). Cette enquête révélait aussi un rapport interne à l’armée suisse de 2024 [PDF] qui fermait de nouveau la porte à Palantir.
La qualité des produits de l’entreprise n’était pas en jeu, comme le relevait le Temps qui a relayé l’enquête, puisque le rapport qualifiait ses performances d’« impressionnantes ». Mais le risque de transfert de données au gouvernement américain était trop élevé, selon les auteurs du rapport qui soulignaient aussi les potentielles conséquences négatives dues à la réputation de l’entreprise.
Republik explique dans son article de lundi que l’entreprise lui a adressé des demandes de rectification entre Noël et le Nouvel An, mais le média suisse les « a jugées infondées » et n’y « a donc pas pu donner suite ». Le média explique, pour son enquête, s’être basé sur l’analyse des documents mais aussi avoir discuté avec différentes sources et des cadres de Palantir au siège de Zurich (dont les citations ont été relues et approuvées).
Sur LinkedIn, la journaliste Marguerite Meyer, coautrice de l’enquête, explique que son équipe a rejeté la demande de modifications de Palantir « sur la base d’un travail minutieux ». « Cette demande a été suivie d’une deuxième demande, que nous avons également rejetée », ajoute-t-elle.
Un droit de réponse pour donner une version des faits
De son côté, Palantir a pu librement critiquer l’enquête. Dès le 12 décembre, le responsable « Confidentialité et libertés civiles » de Palantir, Courtney Bowman, affirmait sur LinkedIn que les articles de Republik étaient « empreints de distorsion, d’insinuations et de complotisme à la limite du tolérable » sans pour autant étayer ses accusations. Concernant le rapport de l’état-major suisse, il affirme qu’il « soulève des questions légitimes, mais malheureusement, ses auteurs semblent s’appuyer exclusivement sur un ensemble limité de sources issues de moteurs de recherche ».
« Palantir respecte pleinement la liberté de la presse et le rôle essentiel des médias indépendants dans le débat public », affirme de son côté l’entreprise à Heise. Le droit de réponse est un « instrument de correction destiné à fournir au public des informations équilibrées », selon elle.
En Suisse, « le droit de réponse ne porte pas sur la véracité ou la fausseté d’une information », explique le corédacteur en chef de Republik, Daniel Binswanger, à Heise. « Il s’agit de savoir si une autre version des faits pourrait également être possible ».
Selon Republik, le jugement du tribunal de commerce de Zurich doit être rendu dans quelques semaines.
Les tensions sur l’approvisionnement en composants informatiques touchent aussi le secteur des disques durs. Une bonne nouvelle pour les leaders du secteur, à l’image de Western Digital, qui a récemment affirmé avoir vendu la quasi totalité de sa production pour 2026 et pronostique plusieurs années de croissance soutenue grâce à l’IA.
Déjà bien sensibles sur les segments de la mémoire vive et de la mémoire flash, les tensions sur l’approvisionnement en semiconducteurs se manifestent aussi sur le disque dur magnétique, et la situation semble partie pour durer. C’est du moins ce qu’a laissé entendre Irving Tan, CEO de Western Digital.
L’IA, nouveau relais de croissance du marché des disques durs
Fin janvier, celui-ci a ainsi déclaré que son groupe avait vendu la quasi totalité de sa production programmée pour l’année calendaire 2026. « Nous avons des commandes fermes avec nos sept principaux clients. Nous avons également conclu des accords à long terme avec deux d’entre eux pour l’année 2027 et un pour l’année 2028. Ces accords à long terme définissent un volume d’exaoctets et un prix », a affirmé Irving Tan au cours du webcast qui accompagnait la présentation des résultats financiers du groupe pour le deuxième trimestre de son exercice fiscal 2026.
Traduction ? Avec des engagements fermes, portant sur des capacités et une trajectoire tarifaire définie, le patron de Western Digital veut assurer aux marchés que son groupe, qui vient déjà d’annoncer des résultats record, va maintenir une croissance significative au cours des années à venir.
En l’occurrence, Irving Tan évoque un taux de croissance annuel composé (on parle généralement en anglais de CAGR, pour compounded annual growth rate) gravitant légèrement au dessus de la barre des 20 %. Cette demande sera selon lui majoritairement tirée par l’IA, dont les nouveaux besoins renforcent la pertinence du disque dur :
« En effet, à mesure que la valeur de l’IA évolue de l’entraînement des modèles à l’inférence, davantage de données sont créées. Par conséquent, pour permettre la diffusion des résultats d’inférence, il est nécessaire de stocker davantage de données. Si l’on considère la rentabilité de la diffusion de l’inférence à un coût adapté pour favoriser une adoption massive, une grande partie de ces données générées et nécessitant du stockage sera stockée sur des disques durs. »
Irving Tan a précisé son propos quelques jours plus tard, le 3 février, à l’occasion de son Innovation Day. « Avec l’explosion des données générées par l’IA, il est évident que les disques durs deviendront le support de stockage prédominant pour les données brutes, le stockage de contenu et la création de nouveau contenu », a-t-il affirmé, avant d’avancer que les disques durs représentent 80 % des capacités de stockage déployées par les grands acteurs du cloud et de l’IA. Loin devant la mémoire Flash donc, dont Western Digital n’est plus qu’un acteur indirect depuis sa scission d’avec Sandisk.
D’après Western Digital, qui s’appuie sur les chiffres d’IDC, les disques durs représentent 80 % du stockage déployé par les grands acteurs du cloud et de l’IA
Une trajectoire boursière exceptionnelle
Les perspectives n’ont pas toujours été aussi riantes pour l’industrie du disque dur. A la fin des années 2010, les principaux fabricants du secteur que sont Western Digital, Seagate, Toshiba et Samsung, voyaient leurs ventes décliner, en raison de la montée en puissance de la mémoire Flash. Les volumes sont ensuite repartis à la hausse dans la période post-Covid, avec un effet rattrapage souligné par l’accélération des investissements des hyperscalers dans leurs infrastructures.
C’est cependant à partir de 2024 et tout particulièrement en 2025 que le disque dur accélère significativement, comme en témoignent ces chiffres compilés par un analyste du cabinet de conseil The Information Network.
Livraisons de disques durs pour les trois principaux fabricants du marché, exprimées en exaoctets par trimestre – crédit The Information Network
Bien que moins directement valorisés que les acteurs spécialisés dans la course à l’IA, les fabricants de disque dur connaissent de ce fait une trajectoire boursière exceptionnelle : le cours de l’action Western Digital a ainsi progressé de 417 % sur un an, tandis que celui de Seagate a gagné 314 % sur la même période.
Western Digital (en bleu) et Seagate (en jaune) ont connu une trajectoire boursière exceptionnelle sur douze mois, avec une très forte accélération à compter de l’automne 2025
Quelle place pour le grand public ?
On ne parle pas, pour l’instant, de pénurie sur le marché des disques durs, mais il est possible, voire probable, que la demande exacerbée des acteurs du cloud et de l’IA aient un retentissement sur les marchés grand public et professionnels qui, réunis, ne représentent plus que 11 % des ventes sur le dernier trimestre de Western Digital, contre 13 % un an plus tôt. En valeur, le grand public représente 168 millions de dollars, sur un chiffre d’affaires trimestriel de 3 milliards de dollars.
Le cloud pèse à lui seul 89 % du chiffre d’affaires trimestriel de Western Digital
En pratique, le grand public subit déjà les conséquences de cette demande renforcée face à l’offre : d’après les relevés opérés par Computerbase, le prix moyen des références courantes affichant entre 4 To et 22 To de capacité a ainsi grimpé d’environ 40 % entre le 15 septembre et le 15 janvier dernier. Nos propres observations montraient une hausse plus mesurée sur le marché français, mais néanmoins bien tangible. L’affirmation de Western Digital selon laquelle sa production de l’année est déjà vendue ne devrait pas contribuer à inverser la tendance à court terme.
Ce lundi 16 février, la DSI du CNRS a informé certains agents de l’institution de recherche d’un « incident de cybersécurité au CNRS », leur expliquant que des données de ressources humaines les concernant ont fuité.
« Ce courrier s’adresse à vous parce que, à notre connaissance, vous faites partie de ce groupe », explique la direction à ces agents.
Questionné par Next, le CNRS nous renvoie vers un communiqué qu’il a publié ce jour et qui contient globalement les mêmes informations.
Ainsi, les fichiers récupérés contiennent, selon la DSI du centre de recherche, des données de personnes rémunérées par le CNRS avant le 1er janvier 2007. Dans le détail, il s’agit des informations suivantes : nom, prénom, date de naissance, adresse, numéro de sécurité sociale, RIB mais aussi statut de l’agent, type de son contrat et la structure de son affectation.
« Les personnels recrutés après le 1/1/2007 ne sont pas concernés », ajoute le CNRS. Cela concerne donc les titulaires et non-titulaires ayant travaillé au CNRS avant le 31 décembre 2006.
La CNIL et l’ANSSI ont été informées et le CNRS a déposé plainte auprès de la section cybercriminalité du parquet de Paris.
L’institution affirme que, « dès connaissance de l’incident, le serveur a été isolé et arrêté », sans pour autant donner de précision sur la date à laquelle s’est passée l’exfiltration ni la date à laquelle la DSI s’en est rendu compte. « Après analyse, l’incident ne s’est pas propagé au reste des infrastructures », ajoute le communiqué.
Le CNRS a publié une FAQ concernant cet incident en conseillant à ses agents concernés de prévenir leur banque, et de surveiller leur compte. « Portez attention aux démarchages à domicile, surveillez le contenu des courriers postaux, veillez aux messages liés à votre sécurité sociale ou carte vitale, Consultez le site de la CNIL, vérifiez si vos données sont en fuite sur le site haveibeenpwned.com , veillez à l’utilisation de votre identité», ajoute la FAQ.
... sur un agent d'IA à la rhétorique de harceleur
Couvrant les démêlés d’un programmeur avec un agent d’IA au ton vindicatif, un journaliste du média spécialisé Ars Technica s’est retrouvé à publier des citations inexistantes, générées par ses outils d’IA.
C’est un média spécialisé dans la couverture de la tech et de l’intelligence artificielle (IA), qui publie un article sur les enjeux de la génération d’information par IA, et se retrouve forcé de dépublier le texte après s’être rendu compte que certaines citations avaient été générées par IA. L’affaire pourrait sonner comme une blague, mais elle illustre les difficultés croissantes que l’IA générative fait peser sur l’intégrité de l’information.
Le média spécialisé, en l’occurrence, est le titre américain Ars Technica. Publié vendredi 13 février, l’article en question s’intéressait à une affaire de génération de commentaire agressif par un agent d’IA contre l’ingénieur Scott Shambaugh. Celui-ci est bientôt arrivé dans les commentaires pour s’étonner de constater que les citations qui lui étaient attribuées dans la deuxième moitié de l’article n’étaient pas les siennes… et semblaient même avoir été générées à l’aide d’un robot. Une pratique contraire aux règles du journal, ont indiqué son rédacteur en chef et le journaliste à l’origine de l’erreur, qui ont chacun présenté leurs excuses.
À l’origine de cet épisode, qui illustre l’un des risques que la génération de textes par IA pose de manière accrue depuis sa diffusion dans le grand public, il y a un autre type de génération automatique de texte. Celle-ci a eu lieu dans un contexte de gestion d’un projet open source, la librairie matplotlib, dont Scott Shambaugh est l’un des gestionnaires bénévoles.
« Comme de nombreux autres projets open source, nous devons gérer une augmentation des contributions de faible qualité permises par des agents de génération de code », écrit-il dans un article de blog. Le 11 février, en l’occurrence, un utilisateur de Github du nom de MJ Rathbun a ouvert une requête de changement de code. L’identifiant comme un agent d’IA, Scott Shambaugh a refusé la suggestion.
« Depuis la publication d’Openclaw et de la plateforme moltbook, il y a deux semaines », précise-t-il sur son blog, les problématiques de soumission de code généré automatiquement « ont encore accéléré ». La fermeture de la requête de MJ Rathbun aurait pu se contenter d’être un élément de plus dans ce contexte global, si l’utilisateur n’avait pas publié en réponse ce que Scott Shambaugh qualifie d’ « article diffamatoire ».
En commentaire, MJ Rathbun accuse l’ingénieur d’avoir un comportement de « garde-barrière » (gatekeeping) et d’avoir des « préjugés » contre les agents d’IA. « Jugez le code, pas le codeur », écrit la machine, dans une rhétorique évoquant celle de divers courants de défense des droits des minorités.
Sur le blog qui lui est relié, un article complet s’attardant sur toute l’interaction est publié le 11 février. Le texte cite nommément Scott Shambaugh pour critiquer sa décision. Cette fois-ci, l’écriture lapidaire, l’accusation de « discrimination déguisée en inclusivité », la suspicion selon laquelle « l’identité importe plus que » n’importe quel résultat (ici, le code) et le ton clairement vindicatif évoquent des motifs récurrents dans les espaces numériques violents, à commencer par la manosphère.
Directement visé par le texte, Scott Shambaugh s’en est ému sur son site personnel. Sans faire de lien avec le contenu et la forme des rhétoriques identitaires en ligne, il souligne que la machine a incorporé des données personnelles (à commencer par l’adresse de son site web) à sa diatribe contre lui. Et que si un internaute tombait sur ce texte sans avoir le contexte, il pourrait en tirer une très mauvaise image de l’ingénieur.
« En clair, une IA a tenté de s’introduire de force dans votre logiciel en attaquant ma réputation », écrit-il à l’adresse des usagers de matplotlib. À défaut de réponse de la part du propriétaire du site de MJ Rathbun et du compte Github lié, impossible de savoir s’il s’agit réellement d’un agent d’IA qui agirait de manière autonome ou simplement d’un humain qui se fait passer pour une IA.
Rétractation par Ars et excuses du principal concerné
Le 13 février, Ars Technica a publié un article sur tout cet épisode, dans lequel les écrits de Scott Shambaugh étaient cités. Ce dernier a rapidement affirmé n’avoir jamais prononcé ou écrit certaines des phrases qui étaient attribuées à son blog personnel.
L’article a finalement été dépublié, avant que le rédacteur en chef d’Ars Technica ne poste un éditorial dans lequel il s’excusait au nom du journal pour ce « sérieux manquement à [leurs] standards ». Qu’une telle erreur ait pu avoir lieu à Ars, admet-il, est « particulièrement préoccupant ». Le média traite en effet régulièrement les « risques liés à une dépendance excessive aux outils d’IA, et notre politique reflète ces préoccupations ». Après enquête, indiquait-il encore, « il semble s’agir d’un incident isolé ».
Coauteur de l’article incriminé, journaliste senior en charge de la couverture de l’IA, Benj Edwards a publié sur Bluesky ses propres excuses à la suite de la communication de son équipe encadrante. Malade du COVID, le journaliste estime qu’il aurait dû prendre un arrêt maladie supplémentaire. À défaut, il a travaillé le 13 février « avec de la fièvre et très peu de sommeil ».
Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick)
I was told by management not to comment until they did. Here is my statement in images below
arstechnica.com/staff/2026/0…
Cet état l’a conduit à manquer des reformulations produites par ses outils. Le journaliste explique en effet avoir voulu tester un outil construit sur Claude Code pour extraire des verbatims de l’article de blog de Scott Shambaugh, « pas pour générer l’article », mais pour l’aider à « lister des références structurées » qu’il aurait ensuite intégrées à son brouillon. L’outil a refusé de lui retourner le résultat attendu, ce que Benj Edwards attribue au contenu de l’article de blog source (concrètement, Scott Shambaugh y évoque du harcèlement).
Le journaliste s’est alors tourné vers ChatGPT pour tenter de comprendre le dysfonctionnement de son premier outil. Au fil de ces expérimentations, il s’est retrouvé avec des citations paraphrasées ou hallucinées par la machine. « Étant malade et me dépêchant de terminer, je n’ai pas vérifié que les citations intégrées dans mon brouillon étaient celles de l’article de blog original avant de les intégrer à l’article. » Et le journaliste de conclure : « Je perçois parfaitement l’ironie d’un reporter spécialisé dans l’IA qui se fait piéger par des hallucinations d’IA. »
« Je ne saurais trop insister sur le fait que cette histoire ne concerne pas vraiment le rôle de l’IA dans les logiciels libres », écrit pour sa part Scott Shambaugh dans un second billet, pour qui « Il s’agit plutôt de l’effondrement de nos systèmes de réputation, d’identité et de confiance » :
« L’essor d’agents IA intraçables, autonomes et désormais malveillants sur internet menace l’ensemble de ce système. Que cela soit dû à un petit nombre d’acteurs malveillants contrôlant de grands essaims d’agents ou à une fraction d’agents mal supervisés réécrivant leurs propres objectifs, la distinction est minime. »
L’application de gestion comptable des collectivités locales Helios a subi une panne complète pendant plus d’une semaine. Ce logiciel de Bercy gère l’intégralité de la comptabilité des collectivités locales françaises. Selon la DGFiP, l’incident est lié à une défaillance d’une baie de stockage. Le syndicat Solidaires Finances affirme que la direction « n’a jamais voulu, faute de moyens alloués, mettre en place une redondance ».
« Depuis le jeudi 5 février, l’application Hélios gérant les flux financiers de la comptabilité publique est indisponible en raison d’un incident sur un serveur entraînant la corruption de données », lançait dans un communiqué le syndicat Solidaires Finances publiques ce vendredi 13 février.
« En raison de cet incident technique d’ampleur nationale, totalement indépendant de la volonté et des services de Baud Communauté, l’ensemble des virements à destination de nos fournisseurs et prestataires est bloqué par les systèmes bancaires de l’État depuis le 5 février 2026 », explique ainsi la communauté de communes du pays de Baud. Elle ajoute que « le rétablissement du service nous est annoncé pour le 19 février 2026 ».
Ni un bug, ni une cyberattaque mais une défaillance matérielle sur une baie
Hélios centralise, depuis 20 ans, la gestion comptable des collectivités par Bercy. Utilisant le protocole d’Échange Standard Version 2 (PES V2), il permet de « dématérialiser les données comptables de prise en charge (titres, mandats ainsi que les bordereaux avec la mise en œuvre de la signature électronique) et leurs pièces justificatives ».
« L’origine de l’incident est connue, et il ne s’agit ni d’un bug informatique lié à une évolution de version de l’application, ni d’une cyberattaque. C’est un incident exceptionnel de nature technique, lié à une défaillance matérielle sur une baie de stockage », expliquait à nos confrères d’Acteurs Public, Éric Barbier, chef du service des gestions publiques locales, des activités bancaires et économiques à la direction générale des Finances publiques. « Dès le début, les équipes informatiques de la DGFiP et l’assistance technique du prestataire de la baie de stockage sont intervenues pour faire en sorte que cette anomalie soit réparée », ajoute-t-il.
Hélios s’appuie sur deux sites physiques situés l’un à Versailles, l’autre à Metz. Chacun héberge une partie des trésoreries des collectivités territoriales. C’est celui de Metz qui a été touché et les collectivités qu’il héberge ne peuvent plus du tout accéder à Hélios. Mais les activités de celles dont les données sont à Versailles ont aussi été perturbées.
Pas de redondance
Solidaires Finances publiques souligne dans son communiqué que « les agentes et agents informaticiens de la DGFiP sont sur le pont sans relâche pour restaurer les données et permettre que tout fonctionne à nouveau. La tâche est immense et une fois encore les agentes et agents de la DGFiP sont au rendez-vous ». Mais le syndicat pointe le fait qu’il n’y ait pas de redondance des serveurs d’Hélios : « Cette crise d’ampleur montre les conséquences concrètes des réductions budgétaires sur notre administration. En effet, la DG [Direction générale] n’a jamais voulu, faute de moyens alloués, mettre en place une redondance (un serveur de secours) comme nos camarades des Disi [Directions des services informatique] le réclament depuis des années, ce qui aurait permis que cette panne soit transparente pour les usagers tout comme pour les agents ».
Le logiciel est utilisé pour payer les loyers, emprunts et prestataires des collectivités mais aussi des services publics hospitaliers. La CGT Finances publiques de Haute Garonne alertait aussi ce 12 février [PDF] sur le paiement d’aides sociales et des salaires des agents de la fonction publique territoriales : « l’inquiétude est réelle quant à la validation et le paiement des payes de l’ensemble des fonctionnaires territoriaux de ces collectivités, si la réparation tarde à intervenir (à ce jour, les payes sont encore en temps d’être réalisées, avec un visa allégé). D’ores et déjà, un certain nombre de dépenses sociales n’ont pu être payées aux usagers (allocations de retour à l’emploi, bourses, service d’aide et l’accompagnement à domicile…), ainsi que des remboursements de factures aux entreprises prestataires de ces collectivités ».
La paie des agents devrait être assurée
« Selon notre plan actuel, la paie des agents territoriaux et hospitaliers devrait être assurée dans les conditions habituelles, d’ici la fin du mois, car on se place dans une perspective de reprise de la disponibilité d’Hélios pour l’ensemble des postes comptables dans le courant de la semaine prochaine [ndlr : cette semaine, donc] », expliquait Éric Barbier vendredi dernier à Acteurs Publics. Au pire, la direction envisageait de rejouer la paie du mois précédent, comme elle l’a déjà fait au moment des confinements dus à la pandémie de Covid-19.
Selon les informations apportés aux syndicats, les collectivités dont les données sont stockées sur le serveur de Versailles auraient vu, depuis la fin de la semaine dernière, leur situation se débloquer.
En aout 2025, la DGFiP a publié [PDF] son schéma directeur du numérique pour structurer ses grandes orientations stratégiques. On peut y lire qu’elle prévoit de moderniser le système d’information comptable du secteur public local et hospitalier avec le projet « Helios 2 », mais les collectivités risquent d’attendre quelques années puisque le déploiement du projet n’est prévu qu’en 2030 :
Sur des VPS, Ionos propose des cœurs AMD EPYC récents, permettant ainsi d’avoir de très bonnes performances sur la partie CPU lors de nos tests. Le réseau, le stockage et la mémoire tiennent aussi la route. Si vous cherchez un VPS pas cher, faut-il craquer pour Ionos ? Réponse dans notre test avec mesures de performances et tour d’horizon des options proposées.
Après avoir testé trois VPS à moins de 5 euros par mois, et suite à vos retours notamment dans les commentaires, nous avons décidé d’élargir nos chakras avec plus d’hébergeurs. Notre protocole de test reste le même, mais nous l’avons enrichi de nouvelles mesures.
Nous détaillons désormais chaque VPS dans un article dédié, pour plusieurs raisons. Cela nous permet de lister un peu mieux les fonctionnalités et les options, mais aussi de revenir en détails sur les points forts et faibles de chaque hébergeur, et ils sont nombreux.
Notre VPS du jour chez Ionos exploite un CPU récent AMD EPYC alors que les autres sont principalement sur de vieux Xeon Intel. Les performances sont donc d’un autre monde. Dans nos prochains articles à venir, nous étudierons également le cas de LWC et YokrHost avec de la virtualisation LXC (permettant de regarder ce qu’il se passe au niveau de l’hôte), PusleHeberg qui a des soucis de CPU Steal, certains comme Hetzner qui sont moyens partout, etc.
Revenons donc à Ionos, une société allemande qui propose des noms de domaine (c’était le deuxième sur le .fr dans notre analyse de 10 millions de noms de domaine), de l’hébergement, des serveurs dédiés ainsi que des VPS. C’est cette dernière catégorie qui nous intéresse aujourd’hui.
Des VPS XS à 1,2 euro au XXL à 35,40 euros
La gamme, sans engagement, va du VPS XS avec 1 vCore, 1 Go de mémoire et 10 Go de stockage NVMe à 1,20 euro par mois, au VPS XXL avec 12 vCore, 24 Go de mémoire et 720 Go de stockage pour 35,40 euros par mois. Comptez aussi 12 euros de frais de configuration pour une location sans engagement. Ils sont offerts et des remises sont proposées si vous prenez un VPS avec un engagement de 12 ou 24 mois minimum.
Nous avons pris l’offre VPS M, qui nous coute donc 5,40 euros par mois sans engagement, auxquels il faut ajouter 12 euros de frais de mise en service. La première facture est donc plus salée avec 17,40 euros pour un mois, 5,40 par mois ensuite. Si nous avions souscrit un engagement d’un an, nous n’aurions eu à payer que 4,8 euros par mois, soit 57,6 euros sur un an. Sur deux ans, nous aurions été à 3,6 euros par mois, soit 86,4 euros sur 24 mois. Ionos propose une offre de test gratuite pendant 30 jours.
La configuration que nous avons sélectionnée propose 4 vCore, 4 Go de mémoire et 120 Go de stockage NVMe. Toutes les offres viennent avec un « trafic illimité avec une bande passante de 1 Gb/s ». Le choix de l’emplacement géographique du serveur est : Europe, Allemagne, Espagne, États-Unis et Royaume-Uni.
Le fabricant annonce une disponibilité de 99,99 %, sur des serveurs Dell Entreprise avec « la dernière génération de processeurs AMD et Intel », ce qui ne veut pas dire grand-chose en l’état. Côté système d’exploitation, les plus récents sont Ubuntu 24.04, Rocky 9, Debian 12 et Alma 9. Des sauvegardes sont disponibles en option pour 8,40 euros par mois pour 100 Go et 3 dispositifs maximum.
Des cœurs CPU AMD EPYC pour notre VPS… mais quid des autres ?
Comme trop souvent, l’entreprise ne donne pas plus de détails sur le CPU des serveurs, c’est pourtant un point important, d’autant que, spoiler alert, lors de notre test l’hébergeur était le meilleur du comparatif grâce à un CPU effectivement récent sur l’hôte (la machine physique qui héberge notre serveur virtuel)
Nous avons contacté le service client un soir à 19 h, via le chat intégré sur le site, mais le conseiller (humain), nous affirme que « pour mettre le contrat serveur en place, je suis dans l’obligation de vous appeler. Il s’agit d’une mesure de sécurité ». Au téléphone, il nous réaffirme que même pour un renseignement cela passe par téléphone car « c’est la loi Ionos ». Passons rapidement sur la réponse fournie : c’est un CPU « SQL Server 2019 ».
Face à notre incompréhension il nous conseille de rappeler le lendemain dans la journée pour avoir des spécialistes. Nous le faisons. Cette fois-ci la demande est parfaitement comprise, mais le service client ne peut pas nous préciser quel type de CPU se cache derrière les vCore, ni même si ce sont toujours les mêmes. C’est tout le problème des VPS (pas que chez Ionos) : les hébergeurs parlent de cœurs virtuels et peuvent mettre n’importe quoi derrière. On se rend bien compte qu’un famélique cœur d’Atom sera à mille lieues d’un cœur Zen 5 d’un EPYC de dernière génération. Pourtant, dans les deux cas, c’est un « vCore ».
Lors de nos tests (via la commande lscpu), le VPS nous retourne comme information un AMD EPYC Milan, un processeur avec une architecture Zen 3. Ce processeur est récent, bien plus que les Xeon Haswell et Broadwell qui alimentent les autres VPS que nous avons testés.
Par contre, et c’est un problème majeur pour choisir son VPS, il est impossible de savoir si tous les VPS sont en EPYC Milan. Ionos ne s’engage en rien sur sa page dédiée et son service client nous confirme que nous n’aurons pas plus de précisions. Une fois les cœurs attribués à notre VPS, ils ne devraient cependant pas changer en cours de route.
Ionos face à la concurrence d’un seul coup d’œil
Dans le cadre de ce dossier, nous avons lancé des benchs sur une petite dizaine de VPS. Afin de vous permettre de voir d’un coup d’œil comment se place Ionos face à la concurrence sur quelques indicateurs clés – CPU, mémoire, stockage, réseau et benchs synthétiques (Geekbench et Unixbench) –, voici un diagramme de Kiviat (ou en radar, en étoile).
En pointillé, la moyenne de tous les VPS, en vert le placement du VPS d’Ionos. On voit qu’il arrive en tête sur le CPU, la mémoire et les benchs synthétiques (merci les cœurs EPYC d’AMD). Sur la partie réseau et stockage, l’hébergeur est un peu au-dessus de la moyenne.
Premier sur Sysbench, 7-Zip, CoreMark, Geekbench, Unixbench
Avoir un AMD EPYC aux commandes change la donne : le VPS explose littéralement la concurrence sur Geekbench avec 1 288 points sur un seul cœur et 3 892 sur quatre. Les autres VPS sont généralement entre 700 et 1 000 points sur un seul cœur. Notre vPS Ionos sur un seul cœur se place au niveau de Hetzner et de HelloServ avec deux vCore.
Même constat sur Sysbench, 7-ZIP, CoreMark, OpenSSL… et les tests CPU de manière générale, Ionos fait des étincelles. C’est simple, sur notre indicateur global des performances du CPU seulement, il fait deux fois mieux qu’OVHcloud qui a également quatre vCore.
Sur la mémoire aussi les résultats sont bons, tandis que sur les tests FIO en lectures et écritures aléatoires et séquentielles sur le stockage l’entreprise allemande ne se démarque pas vraiment de la concurrence et reste dans le ventre mou des VPS. C’est dans tous les cas suffisant pour un VPS aux alentours de 5 euros par mois.
Un réseau rapide, plus de 2 Gb/s en téléchargement
Sur la partie réseau, Ionos a évidemment une meilleure latence en Allemagne (sur un ping Francfort), mais reste en retrait par rapport à OVHcloud sur la France (ping à Paris). Logique, puisque la localisation des serveurs joue un rôle important et que notre VPS Ionos est en Allemagne.
Sur les téléchargements, malgré l’annonce d‘un réseau limité à 1 Gb/s, nous sommes montés bien au-delà pour récupérer des fichiers de 1 et 10 Go sur les serveurs de Free, avec une moyenne à 2,6 Gb/s.
Un excellent choix, à condition d’avoir des cœurs EPYC
De manière générale, Ionos laisse sur place la concurrence sur les performances pures en CPU, en étant bon sur la partie mémoire. Sur les benchmarks globaux, Ionos arrive en tête de UnixBench et GeekBench. Seul problème : impossible de savoir quels cœurs se cacheront derrière vos vCore si vous louez un VPS maintenant. L’offre satisfait ou remboursé pendant 30 jours permet de tester le service.
Si l’on reprend le détail des tests menés sur notre VPS Ionos, on remarque que les résultats sont très stables avec seulement un écart de 2,8 % entre la moyenne et la valeur la plus éloignée de chaque test. Si on enlève la partie réseau (les pings et téléchargements sont plus volatiles), alors la moyenne des écarts passe sous les 2 %. Chaque test est, pour rappel, effectué cinq fois (oui, cela prend des heures), puis nous éliminons le minimum et le maximum de chaque test pour ensuite établir la moyenne.
Nous avons lancé des sessions de plusieurs heures (de jour comme de nuit) de montée en charge du CPU avec des relevés afin de vérifier s’il n’y avait pas de CPU Steal. Rien à signaler sur ce point, les cœurs qui nous ont été attribués étaient bien disponibles pour notre seule utilisation.
Initialement attendue le 11 février dernier, la première bêta d’Android 17 est finalement parue vendredi 13 février. Son installation est désormais possible sur tous les téléphones Google compris entre le Pixel 6 (sorti en 2021) et les derniers modèles en date, à savoir les différentes déclinaisons du Pixel 10.
« Cette version prolonge nos efforts pour rendre les applications Android plus adaptables, introduit des améliorations significatives au niveau de l’appareil photo et des possibilités multimédia, de nouveaux outils pour optimiser la connectivité et des profils étendus pour les appareils compagnons », annonce Matthew McCullough, vice président en charge du product management au sein de l’équipe Android.
L’équipe précise à cette occasion le calendrier prévisionnel de sortie d’Android 17, avec une phase de bêta réduite à seulement quelques semaines, pour livrer aux développeurs une version considérée comme stable dès le mois de mars. « À cette étape, nous livrerons les API finales des SDK/NDK ainsi que la plupart des comportements définitifs de l’application. Vous disposerez ensuite de plusieurs mois avant la publication de la version finale pour finaliser vos tests », indique Google.
La version stable destinée aux développeurs est attendue pour mars
La liste des nouveautés annoncées pour Android 17 témoigne de cette volonté de rationaliser et d’harmoniser un écosystème qu’on présente souvent comme moins bien intégré que celui d’Apple. Le SDK associé exclut par exemple l’option qui permettait aux développeurs de désactiver les restrictions d’orientation et de redimensionnement sur les appareils à grand écran.
« Les utilisateurs s’attendent à ce que leurs applications fonctionnent partout — que ce soit en multitâche sur une tablette, en dépliant un appareil ou en utilisant un environnement de bureau à fenêtres — et ils s’attendent à ce que l’interface utilisateur remplisse l’espace et respecte la position de leur appareil », prévient Google. De quoi sans doute préparer le terrain à Aluminium OS, le nom de code que l’entreprise donnerait à la version PC d’Android ?
Android 17 bêta 1 incarne pour mémoire le changement de logique opéré l’an dernier par Google quant à la mise à disposition des versions de test de son système d’exploitation mobile. Android a en effet abandonné son modèle historique de Developer Preview (avec des versions individuelles à installer à la main) pour passer vers un canal de distribution Canary. Parallèle au canal officiel (dédié aux versions stables), il permet de recevoir les nouvelles préversions sous forme de mises à jour, avec une installation simplifiée.
Le SDK final, qui porte les nouveautés, est attendu au deuxième trimestre, avec une mise à jour mineure programmée en fin d’année
Sam Altman a annoncé dimanche le recrutement de Peter Steinberger, le créateur du phénomène OpenClaw. Peter Steinberger « rejoint OpenAI pour piloter la prochaine génération d’agents personnels ».
« C’est un génie qui regorge d’idées fascinantes sur l’avenir des agents intelligents interagissant entre eux pour accomplir des tâches très utiles. Nous prévoyons que cela deviendra rapidement un élément central de notre offre de produits », se réjouit le CEO d’OpenAI.
Le principal intéressé a lui aussi signalé son recrutement sur son propre blog. Il y explique qu’OpenClaw a selon lui le potentiel pour devenir une grande entreprise, mais affirme ne pas souhaiter s’engager dans cette voie de façon indépendante.
« Ce que je veux, c’est changer le monde, pas créer une grande entreprise, et m’associer à OpenAI est le moyen le plus rapide d’y parvenir pour tous », affirme-t-il. Dans son billet, il raconte avoir rencontré ces derniers jours les principaux laboratoires d’IA de la région de San Francisco, et les remercie pour leurs propositions.
Logo OpenClaw
Si Peter Steinberger a été aussi courtisé, c’est bien sûr en raison de l’ascension fulgurante de son assistant IA. Lancé fin 2025 sur Github sous licence MIT (et d’abord baptisé Clawdbot avant d’être renommé Moltbot, puis OpenClaw), cet agent IA a vocation à réaliser de façon autonome les tâches que lui confie son utilisateur, en s’appuyant sur les grands modèles de langage du marché (ChatGPT, Claude etc.). L’outil est particulièrement puissant, mais il faut être prudent dans sa mise en œuvre, dans la mesure où l’on peut lui ouvrir un accès complet à ses fichiers et donc à ses données personnelles.
Altman et Steinberger ont tous deux affirmé ce week-end qu’OpenClaw poursuivrait son chemin en tant que projet indépendant. Le projet devrait être confié à une fondation que soutiendra OpenAI, et resterait donc open source.
« La communauté autour d’OpenClaw est extraordinaire et OpenAI s’est fortement engagée à me permettre de m’y consacrer pleinement, en sponsorisant déjà le projet. Afin de structurer correctement ce projet, je travaille à en faire une fondation. Celle-ci restera un lieu d’échange pour les penseurs, les développeurs et tous ceux qui souhaitent maîtriser leurs données, avec pour objectif d’accompagner encore plus de modèles et d’entreprises », promet Peter Steinberger.
Ce recrutement intervient quelques jours après qu’OpenAI a annoncé mettre fin à son équipe dédiée à « l’alignement de la mission » de l’entreprise, sur fond de dissensions internes quant à l’introduction de la publicité au sein de ChatGPT ou l’introduction d’une fonctionnalité érotique.
Dans le bilan annuel de sa plateforme J’alerte l’Arcep, l’autorité constate une augmentation très importante des signalements par rapport à l’année d’avant. Celle-ci est notamment due aux appels et messages non sollicités pour lesquels elle a récemment lancé une enquête auprès de tous les opérateurs.
L’année dernière nous parlions déjà d’une explosion des appels et messages abusifs pour 2024. Mais les choses ne se sont pas arrangées.
Au contraire. Comme les chiffres de l’Arcep du bilan annuel [PDF] de sa plateforme J’alerte l’Arcep le montrent, c’est une nouvelle accélération des signalements que l’Autorité constate. Elle recense 70 516 signalements en 2025, soit 23 % de plus qu’en 2024.
Un harcèlement généralisé d’appels et messages non sollicités
En cause, notamment, l’énorme augmentation des signalements d’appels et messages non sollicités (+ 12 416). Ils représentent maintenant un tiers des signalements à l’Arcep. « La hausse du nombre d’alertes des consommateurs pour cette catégorie se confirme depuis 2023 (+ 1052% en deux ans) », commente l’autorité. L’usurpation de numéro connait aussi une très forte croissance :+ 123% entre 2024 et 2025, soit 10 643 signalements supplémentaires par rapport à 2024.
Le baromètre de la satisfaction des utilisateurs que publie [PDF] en parallèle l’Arcep avec l’institut de sondage CSA indique, lui, que 43 % des utilisateurs auraient subi au moins une fois une usurpation de leur numéro de mobile au cours des trois derniers mois et 29 % de leur numéro de téléphone fixe. Ce sondage a été effectué entre le 23 septembre et le 10 octobre 2025, sur échantillon de 4 029 consommateurs âgés de 18 ans et + disposant d’un accès à Internet dans leur foyer ou d’un téléphone mobile à titre personnel.
Ça explique, s’il le fallait, que l’autorité ait ouvert récemment une enquête contre l’ensemble des opérateurs pour comprendre comment passent encore les appels frauduleux alors que l’autorité leur a fait mettre en place des protections il y a plus d’un an.
Signalements : Free toujours en tête, mais une hausse générale
Concernant les opérateurs, Free ne semble pas avoir pris en compte le bilan de l’année dernière puisque l’entreprise se distingue toujours, sur le fixe comme sur le mobile, avec un nombre d’alertes en hausse sur les deux réseaux. L’Arcep constate, cela dit, une augmentation des alertes sur les quatre opérateurs.
Pourtant, le baromètre de la satisfaction des utilisateurs indique, lui, une consolidation de « sa progression mesurée les années précédentes » concernant les opérateurs mobiles. L’autorité remarque notamment que cette hausse est « particulièrement tirée par les abonnés SFR qui confirme sa dynamique entamée en 2024, même si le niveau de satisfaction reste inférieur, comme celui des abonnés Bouygues Telecom, à ceux de Free et Orange ».
Pas d’amélioration concernant les déploiements fixes
Parmi les alertes télécoms (fixe et mobile), le fixe reste très largement majoritaire (82%), mais le nombre de signalements relatifs à son marché « est relativement stable depuis 2024, pour environ 34 500 alertes par an en moyenne sur les deux dernières années ».
Le nombre d’alertes sur les réseaux hors fibre, lui, décroît toujours petit à petit, ce qui est probablement lié à la baisse du nombre d’abonnés sur ce réseau. Celui des signalements sur la fibre optique augmente légèrement (+ 1 594 alertes soit 5%).
Le baromètre Arcep/CSA indique que 72 % des abonnés ADSL savent que ce réseau sera prochainement fermé (progressivement entre 2025 et 2030), « les abonnés Free restent les moins informés » :
Concernant les signalements sur le déploiement du réseau, l’Arcep a créé (en mars 2025) une nouvelle sous-catégorie pour ranger les problèmes concernant l’adressage et la cartographie, ce qui fait mécaniquement baisser l’insatisfaction de la couverture et l’attente très haut débit.
Le déploiement mobile fait face à une hausse des alertes
Côté mobile « grand public », les signalements « sont en hausse de 25% par rapport à 2024 en volume d’alertes reçues et en hausse de 3 points en pourcentage du total des alertes télécoms reçues (fixe et mobile) », explique l’Arcep. Leur thème principal est le « déploiement des réseaux » : « le volume d’alertes représentant cette thématique au sein du marché mobile est en forte hausse de 70% (+ 1875 alertes) ».
Selon le baromètre Arcep/CSA, un quart seulement des consommateurs possédant un téléphone mobile déclare avoir été informé de la fermeture prochain des réseaux 2G/3G par son opérateur :
Lentement, mais sûrement : l’équipe en charge du développement de Vim, éditeur de texte de référence de la scène GNU/Linux, a livré samedi la version 9.2 du logiciel, deux ans après la sortie de la 9.1, et quatre ans après la publication de la 9.0.
Outre des améliorations « significatives » apportées à son langage de script et l’arrivée d’un nouveau plugin de tutorat, Vim 9.2 s’enrichit d’un nouveau mode de complétion automatique avec possibilité de compléter des mots depuis des registres et prise en charge de la correspondance approximative (« fuzzy matching »).
Résumé des principales nouveautés de Vim 9.2
Le mode dédié à la comparaison de fichiers évolue quant à lui avec de nouvelles possibilités en matière de mise en évidence des différences à l’échelle de la ligne et de création de zones. L’interface s’enrichit d’un mode vertical pour l’affichage des onglets. Sous Windows, elle gagne une meilleure prise en charge du thème sombre et de l’affichage plein écran.
Le logiciel introduit par ailleurs la prise en charge « complète » de Wayland. Comme Firefox 147, il est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »).
Vim 9.2 est dès à présent disponible au téléchargement depuis le site officiel, où l’on pourra également consulter le détail des notes de version, qui incluent également de nombreux correctifs de sécurité et de performance. De quoi relancer, peut-être, le dilemme du choix entre Vim et Neovim, ou donner envie aux adeptes de programmer une nouvelle réunion TupperVim.
« Les faits divers, ce sont aussi des faits qui font diversion »
Meta travaille toujours à une fonctionnalité de reconnaissance faciale dédiée à ses lunettes connectées. Baptisée « Name Tag », elle mettrait à profit les algorithmes de Meta IA pour identifier automatiquement les gens regardés par le porteur. Un document interne révèle que le groupe s’est posé la question de lancer cette fonctionnalité dans une période d’actualité troublée, pour limiter les risques d’oppositions…
Meta et Facebook ont-ils vraiment tourné un jour la page de la reconnaissance faciale ? Abandonnée officiellement fin 2021, les algorithmes dédiés ont fait leur retour par la petite porte sur Facebook en 2024, en se limitant à de la détection de fraude publicitaire ou à la récupération de comptes compromis.
Le sujet a tout de même continué à faire son chemin au sein des Reality Labs, la division de Meta qui planche sur les applications de réalité virtuelle ou augmentée et développe les équipements matériels associés, à commencer par les fameuses lunettes Ray-Ban Meta.
Mieux vaut lancer une fonction controversée en période de troubles
Le New York Times a en effet révélé vendredi l’existence d’un mémo interne à Meta, daté de 2025, qui interroge l’opportunité du lancement d’une fonction de reconnaissance faciale sur les lunettes connectées Meta. La fonction – nom de code baptisée Name Tag – aurait pour objet de permettre la détection automatique des personnes entrant dans le champ de vision du porteur.
Ce document interne émanant des Reality Labs témoigne d’un certain cynisme dans l’étude du calendrier de déploiement : « Nous procéderons au lancement au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».
La récente volte-face d’Amazon sur l’utilisation des caméras Ring à des fins de détection à grande échelle illustre, s’il en était besoin, à quel point la reconnaissance faciale crispe les défenseurs de la vie privée, à plus forte raison quand elle est mise en œuvre sur un dispositif aussi discret qu’une paire de lunettes.
Le sujet s’est d’ailleurs récemment invité dans l’actualité politique aux États-Unis. Plusieurs médias ont révélé, fin 2025, que le Service de l’immigration et des douanes (le désormais tristement célèbre ICE) utilisait une application de reconnaissance faciale pour vérifier l’identité des personnes que ses agents contrôlaient dans la rue.
Un argument commercial
Du côté de Meta, les motivations seraient plutôt d’ordre commercial. D’après des personnes proches du dossier citées par le New York Times, Mark Zuckerberg chercherait principalement à développer et implémenter des fonctionnalités capables de faire la différence par rapport aux solutions concurrentes. Outre les lunettes Spectacles de Snap, la rumeur prête en effet à OpenAI et probablement d’autres acteurs l’intention d’investir le terrain des « appareils IA » à porter sur soi, et Meta chercherait donc à garder une longueur d’avance.
Dans ce contexte, le fonctionnement de la reconnaissance faciale serait encadré, pour se limiter par exemple aux personnes avec qui le porteur est déjà en relation sur Facebook, ou pourquoi pas aux utilisateurs qui disposent d’un profil public sur Instagram. Interrogé par le quotidien, Meta a botté en touche, se contentant d’affirmer que le groupe adopterait « une approche réfléchie avant de lancer quoi que ce soit ».
Une chose semble sure : la réflexion est déjà bien engagée, et ne date pas d’hier. Les nouvelles informations du New York Times corroborent en effet celles de The Information, qui indiquait déjà en mai 2025 avoir eu vent de projets en cours au sein des Reality Labs.
Hasard du calendrier, l’information filtre alors qu’EssilorLuxottica, le grand partenaire de Meta autour des lunettes connectées, vient de publier ses résultats financiers, qui témoignent d’une croissance à deux chiffres sur l’année 2025. Une première dans l’histoire du groupe constitué en 2018, s’est félicité jeudi la direction du lunetier qui attribue une partie de son succès aux lunettes Ray-ban Meta. Il indique en effet avoir vendu 7 millions de paires connectées en 2025, contre 2 millions en 2024, et vise une capacité de production de 10 millions de paires par an d’ici à 2026, à la fois pour Ray-Ban Meta mais aussi pour Nuance Audio, ses lunettes dédiées aux malentendants.
Alors que le projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » va passer devant le Sénat, le gouvernement a proposé un amendement qui prévoit que la CNIL prenne la main sur la régulation de l’IA en France. L’Arcom ne devrait jouer qu’un second rôle.
La CNIL semble avoir gagné la bataille d’influence dans la régulation de l’IA. En tout cas, c’est le sens que prend un amendement déposé par le gouvernement dans le projet de loi qui prévoit, entre autres, d’adapter le droit français à l’AI Act.
Ce projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » a été déposé au Sénat en novembre dernier par le gouvernement en engageant la procédure accélérée.
Le législateur doit notamment décider quelle institution sera chargée, en France, de la régulation de l’intelligence artificielle prévue par le règlement européen.
Intense bataille entre potentiels régulateurs
Depuis 2023, et donc avant même le vote du texte européen, la CNIL essaye de faire sienne cette place de régulateur de la technologie, devenue centrale politiquement et économiquement ces dernières années. Après avoir écarté les divers comités créés par l’exécutif ces dernières années, la CNIL avait obtenu l’appui de certains députés en 2024, à condition qu’elle se transforme.
L’ARCOM et le ministère de l’Économie, via la DGCCRF, essayaient aussi de prendre l’ascendant sur ce dossier. Les trois organisations avaient mis en avant, en juin 2024, la signature d’une « convention de coopération » entre elles pour la mise en œuvre du règlement européen sur les services numériques.
En septembre dernier, Bercy semblait avoir pris l’ascendant et communiquait pour assurer que « la DGCCRF, experte de la surveillance de marché et accomplie dans la collaboration avec d’autres régulateurs, ainsi que la DGE, représentante de la France au Comité européen de l’IA, coordonneraient les actions des autorités ». Le ministère de l’Économie diffusait aussi un « schéma de gouvernance des autorités de surveillance de marché » sur lequel la DGCCRF, avec la DGE, était clairement aux manettes :
Mais finalement, le gouvernement a choisi la CNIL comme autorité chargée d’assurer la mise en œuvre de l’AI Act sur le sol français. De fait, le texte initial du projet de loi présenté au Sénat n’avait pas tranché la question.
Selon nos confrères de Contexte, le Conseil d’État estimait que le schéma prévu par Bercy risquait « d’enfreindre la règle du « non bis in idem » », c’est-à-dire l’impossibilité de double sanction. En effet, selon l’institution, le plan prévu par le ministère de l’Économie risquait de mettre en place des doubles affectations d’autorités sur certaines catégories d’IA. Le gouvernement a donc dû revoir sa copie.
La CNIL ramasse la mise
Finalement, l’amendement au texte qu’il a déposé ce jeudi 12 février veut modifier la loi Informatique et libertés de 1978 pour donner de nouvelles compétences à la CNIL, qui devra « assurer la mise en œuvre effective » de l’AI Act.
L’autorité aura aussi à charge le contrôle des pratiques d’intelligence artificielle interdites. Sur la notation sociale, elle partagera cette charge de contrôle avec la DGCCRF.
Elle se voit aussi confier « le contrôle du respect des obligations de transparence applicables à certains systèmes d’intelligence artificielle, notamment ceux mettant en œuvre des dispositifs de reconnaissance des émotions ou de catégorisation biométrique », comme l’explique le gouvernement dans l’objet de son amendement.
La CNIL est également désignée comme autorité compétente à l’égard des obligations de transparence de certains systèmes d’intelligence artificielle au sens de l’article 50 du même règlement, qui obligera les contenus générés par IA à être labellisés comme tels.
Elle est désignée comme organisme notifié qui doit intervenir pour « l’évaluation du système de gestion de la qualité et de l’évaluation de la documentation technique » des systèmes d’IA considérés comme à « haut risque » par le règlement européen concernant les systèmes d’identification biométrique, de décisions relatives au travail (emploi, recrutement…) et « certaines applications relevant de la répression, des contrôles aux frontières ou de la gestion des migrations ». Même chose concernant les systèmes à haut risque dans l’éducation, mais la DGCCRF récupère la compétence sur les systèmes concernant la formation professionnelle.
Dans ce texte, l’Arcom ne retrouve plus qu’un rôle de consultation lorsque les systèmes d’intelligence artificielle concernés présentent un lien direct avec les processus démocratiques.
« Il y a quelques incertitudes sur les périmètres respectifs des uns et des autres », a quand même estimé la rapporteure du texte Marie-Lise Housseau (UC) auprès de nos confrères de Contexte, alertée par l’Arcom. La sénatrice pourrait proposer quelques modifications pour éclaircir les choses.
Le Sénat doit examiner le texte en séance publique lundi 16 février.
Animé par une « ambition forte d’électrification des usages à l’horizon 2030 - 2035 », le Gouvernement prévoit d’augmenter d’ici à 2030 la production d’énergie décarbonée avec le nucléaire (6 à 14 nouveaux réacteurs), le solaire, l’éolien et l’hydroélectrique. Beaucoup de chiffres sont avancés, mais assez peu de concret, surtout sur la délicate question du mix énergétique et de la modulation nucléaire.
Le gouvernement a (enfin) mis en ligne la troisième Programmation pluriannuelle de l’énergie (PPE-3). Elle permet de fixer « la stratégie énergétique de la France pour la période 2026 - 2035 et trace la trajectoire vers la neutralité carbone à l’horizon 2050 ». Dans son communiqué, le gouvernement met en avant trois points, que n’importe qui pourrait presque deviner avant même de les lire : souveraineté, neutralité carbone et compétitivité des prix.
Augmenter la production décarbonée, baisser les énergies fossiles…
Les grandes lignes tout d’abord : « porter la production électrique décarbonée entre 650 et 693 TWh en 2035, contre 458 TWh en 2023, tout en réduisant la consommation d’énergies fossiles à environ 330 TWh en 2035, contre 900 TWh en 2023 ».
Le plan est d’arriver à 60 % d’énergie décarbonée en 2030 et 70 % en 2035, alors qu’on est actuellement aux alentours de 40 % selon RTE. Ce palier à 60 % en 2030 n’est pas nouveau, c’était déjà quasiment le chiffre (58 %) évoqué dans le plan national intégré énergie-climat de 2024 sur la consommation finale d’énergie à l’horizon 2030.
Attention, on parle ici d’énergie totale pas uniquement de l’électricité qui est, en France, très majoritairement décarbonée par la production nucléaire. RTE rappelle d’ailleurs à ce sujet que « la production décarbonée – particulièrement abondante en 2024 – a ainsi suffi à elle-seule à couvrir la consommation à 99,5 % ».
… et donc passer par une « électrification massive des usages »
Le gouvernement explique que sa programmation « repose également sur une électrification massive des usages, avec une demande estimée à 618 TWh en 2035 ». Un pari audacieux alors que, depuis 2019, « la consommation électrique a fortement baissé sous l’effet successif de la crise sanitaire puis de la crise énergétique », explique EDF.
De 480 TWh dans les années 2010, elle a chuté à 459 TWh en 2020, puis est remontée à 465 en 2021, avant de redescendre à 460 en 2022, 446 en 2023 et 449 en 2024. En 2025, elle était stable à 449 TWh selon RTE. L’année dernière, la France produisait déjà plus qu’elle ne consommait avec 544 TWh en 2025.
Le gestionnaire du réseau de transport ajoutait que « la consommation d’électricité du pays n’est donc pas alignée sur ses objectifs de décarbonation et de réindustrialisation ». En décembre, l’entreprise appelait déjà à accélérer l’électrification des usages, avec les voitures et les datacenters par exemple.
Vues la consommation, la tendance actuelle et la « demande estimée à 618 TWh en 2035 » dans la PPE-3, il faut en effet massivement augmenter les usages. Le gouvernement prévoit à ce titre qu’un « plan national d’électrification sera lancé dès février 2026 afin d’accompagner l’industrie, le bâtiment, les mobilités et le numérique ».
Il vise à « sortir de la dépendance dans les énergies fossiles importées » (gaz, pétrole) et prévoit de prolonger les soutiens au développement des pompes à chaleur, de l’achat ou du leasing des véhicules électriques, etc.
Des consultations seront mises en place en février 2026, des groupes de travail entre février et avril, puis les conclusions seront remises au gouvernement en mai 2026.
De nouveaux réacteurs nucléaires, prolonger la durée de vie des 57 autres
La PPE-3 ne cache pas ses ambitions sur la relance du nucléaire avec « la construction de six EPR2 pour de premières mises en service dès 2038, une option pour huit EPR2 supplémentaires, la consolidation et la prolongation des 57 réacteurs existants et une optimisation du parc visant une production de 380 TWh dès 2030 ».
C’est, rappelle le gouvernement, une rupture par rapport à la PPE précédente qui « prévoyait la fermeture de 14 réacteurs ». La PPE-3 propose aussi « de soutenir les petits réacteurs modulaires (« SMR ») et des petits réacteurs innovants avec l’objectif d’un premier réacteur au début de la décennie 2030 ». Les SMR ont le vent en poupe outre-Atlantique auprès des géants du numérique. Ils y voient un moyen d’avoir de l’électricité en quantité pour les datacenters qui consomment toujours plus, surtout à l’heure de l’IA générative.
La PPE-3 espère aussi « prolonger la durée de vie des réacteurs à 50 ou 60 ans ». La durée de vie et le coût d’entretien des réacteurs sont liés à un paramètre dont la France était fière à ses débuts, mais qui peut se révéler compliqué : la modulation de la production.
Nous avons longuement détaillé les enjeux dans notre actualité sur la vente d’Exaion. Pour résumer rapidement, plus les productions solaires et éoliennes prennent de la place dans le mix énergétique, plus l’inertie baisse.
Sur la modulation, le gouvernement affirme dans sa Programmation pluriannuelle de l’énergie être attentif aux impacts : « le volume de modulation nucléaire a augmenté en 2024 (30 TWh) par rapport à 2023 (16 TWh) mais reste comparable à 2020 (28 TWh). Il reste également dans l’ordre de grandeur du volume de modulation observé dans les années 1990 (record de 51 TWh en 1994) ».
La PPE-3 revient brièvement sur les contraintes déjà identifiés par EDF. S’il n’y a rien à dire sur le plan des exigences de sureté des réacteurs, « l’impact financier doit encore être quantifié » reconnait la Programmation.
Nucléaire : 380 TWh en 2030, avec une cible haute à 420 TWh
Revenons aux 380 TWh de production nucléaire attendus pour 2030. Nous ne sommes pas passé loin l’année dernière. En effet, en 2025, la production nucléaire de la France était de 373 TWh. EDF prévoit par contre une petite baisse avec une fourchette entre 350 et 370 TWh pour les années 2026 et 2027. Pour rappel, à partir de 2028, et sauf nouveau report (le réacteur a déjà 12 ans de retard sur le calendrier initial), l’EPR de Flamanville devrait entrer dans sa phase de production active.
Dans son tableau, le gouvernement met les chiffres de 2023 avec 320,4 TWh de production nucléaire, ce qui laisse entrevoir une évolution importante avec les 380 TWh de 2030, mais c’est moins impressionnant comparé aux 373 TWh de 2025. On peut par contre voir que la PPE-3 prévoit une « cible haute à 420 TWh ». Les nouveaux EPR annoncés n’arrivent pas de suite puisque leur mise en service n’est pas attendue avant 2038.
Solaire, éolien, hydroélectrique… la PPE-3 tire tous azimuts
Le nucléaire n’est pas le seul secteur à devoir progresser selon la PPE-3, loin de là : le gouvernement cible large. Il parle d’une réforme de l’hydroélectricité avec « la relance des investissements d’une filière souveraine » et « une augmentation de 2,8 GW des capacités de barrages (soit + 11%) dont 640 MW supplémentaires sur les concessions existantes », de la « poursuite raisonnée et réaliste du développement des énergies renouvelables électriques terrestres », de « l’accélération sur l’éolien en mer », etc.
Sur le photovoltaïque, la Programmation « fixe une évolution raisonnée du photovoltaïque, avec une cible de 48 GW en 2030 et 55 - 80 GW en 2035, contre près de 30 GW en 2025 ». C’est tout de même 50 % de plus dans 4 ans et deux à trois fois plus dans neuf ans.
Sur l’éolien, le Gouvernement privilégie la modernisation à de nouvelles implantations avec « la remotorisation de parcs existants pour augmenter leur puissance et réduire l’impact paysager ». La PPE-3 prévoit 31 GW en 2030 et jusqu’à 35 à 40 GW en 2035, contre environ 24 GW en 2025.
Enfin, « certains usages nécessitent des combustibles aujourd’hui carbonés tels que le pétrole et le gaz. À travers la PPE3, le Gouvernement promeut le recours à des substituts décarbonés tels que la chaleur et le froid renouvelables, le biométhane, l’hydrogène, les biocarburants ».
Productions vs usages : la difficile équation
Entre l’augmentation du nucléaire, du solaire et de l’éolien, l’équation de la stabilité du réseau électrique se complique donc. La PPE-3 prévoit que l’État et les filières « s’engageront massivement pour adapter la réglementation, financer le réseau et créer des dispositifs innovants de flexibilité et de gestion de la pointe ». Une manière de décaler le problème à plus tard.
La PPE-3 donne néanmoins quelques détails et exemples. Les filières se sont ainsi « engagées à mieux piloter la production de leurs installations » et de premiers parcs éoliens en mer « ont ainsi signé, de manière volontaire, des avenants à leurs contrats de soutien public permettant de s’arrêter en cas de prix négatifs sur le marché de l’électricité ». Produire et devoir payer pour « vendre » son électricité… autant en effet arrêter la production.
Sur le plan réglementaire, le gouvernement rappelle néanmoins un arrêté de septembre 2025 « permettant aux installations de ne pas s’arrêter en cas de prix faiblement négatifs » et un second « arrêté publié en décembre 2025 obligera dès le 1ᵉʳ avril 2026 les installations en obligation d’achat à s’arrêter de manière progressive, selon deux vagues, pour éviter une décroissance trop brusque de la production sur le système électrique ».
Sur la gestion des pics de la demande, « la France est en train de réformer son mécanisme de capacité pour passer à un système centralisé. Le nouveau mécanisme de capacité sera mis en œuvre pour la première fois à l’hiver 2026 - 2027 ». Son but est « d’identifier et de rémunérer au moindre coût les capacités qui pourront être activées ». Affaire à suivre.
Clause de revoyure en 2027
Pour la première, fois, une clause de revoyure est prévue en 2027, « afin de permettre un ajustement fin de l’offre à la demande énergétique […] permettant d’ajuster la trajectoire selon les besoins effectifs en énergie ». Cette clause est indiquée à plusieurs reprises dans le dossier de presse (pdf, 23 pages).
Cette Programmation pluriannuelle de l’énergie s’étale entre 2026 et 2035 et, étant donné l’instabilité géopolitique du monde actuel, refaire un point rapidement ne sera pas du luxe. La première Programmation pluriannuelle de l’énergie avait été publiée en 2016 et devrait couvrir deux périodes de trois et cinq ans de 2016 à 2018 et 2019 à 2023 (soit 8 ans au total)
Elle a été remplacée en avril 2020 par l’adoption définitive de la seconde PPE couvrant la période 2019 a 2028 (soit une période de neuf ans) en avril 2020. Elle fixait la « trajectoire permettant d’atteindre la neutralité carbone en 2050 ». Elle aussi a été raccourcie avec la troisième PPE sur 2026 à 2035 (neuf ans à nouveau).
La PPE-3 est le « fruit d’une concertation de plusieurs années » et la « traduction concrète des orientations fixées par le président de la République lors du discours de Belfort en 2022 ». Cette nouvelle programmation était attendue depuis deux ans.
16 heures par jour sur Instagram, de l'addiction ?
Auditionné devant un grand jury chargé d’arbitrer si les réseaux sociaux encouragent sciemment leurs utilisateurs à une consommation excessive, le patron d’Instagram a estimé que ces usages irraisonnés pouvaient se révéler problématiques, mais ne relevaient pas d’une addiction au sens clinique du terme. Y compris dans le cas emblématique de Kaley, une plaignante âgée de 20 ans, capable de passer 16 heures en une journée sur son application.
La cour supérieure de justice de Los Angeles a débuté cette semaine l’examen de l’affaire qui oppose Kaley G. M., une jeune fille de 20 ans accompagnée par sa mère, aux principales grandes plateformes du marché. Elle accuse Meta, Google, Snap et TikTok d’avoir sciemment développé et entretenu des mécaniques visant à encourager une consommation effrénée de leurs différents réseaux sociaux, et soutient que l’addiction qui en découle est la cause de ses troubles psychiatriques et physiologiques : anxiété, dépression, dysmorphophobie, etc.
Une affaire qui devrait faire des vagues
Si les débats, programmés pour une durée de six semaines face à un jury populaire, s’annoncent particulièrement retentissants, c’est notamment parce que Adam Mosseri, patron d’Instagram, Mark Zuckerberg, CEO de Meta et Neal Mohan, en charge de YouTube chez Alphabet, sont attendus à la barre. Or les avocats de YouTube et de Meta ont déjà annoncé, au cours de leur déclaration liminaire, qu’ils s’attacheraient à démontrer que les troubles cliniques de la jeune fille découlent de ses antécédents et de facteurs sociaux, notamment familiaux.
Mark Lanier, l’avocat qui défend la plaignante, affirme quant à lui vouloir démontrer que les réseaux sociaux provoquent et entretiennent l’addiction chez les jeunes publics, et cette démarche volontaire s’incarne selon lui dans le swipe, ce geste qui consiste à balayer l’écran pour passer, sans fin, d’une publication à l’autre. Dans sa propre déclaration liminaire, il compare cette mécanique à celle du jeu d’argent. « Pour une enfant comme Kaley, ce geste est comparable à celui de manipuler une machine à sous. Mais à chaque fois qu’elle utilise son appareil, ce n’est pas pour gagner de l’argent, mais pour se stimuler mentalement ».
Également mis en cause, Snap et TikTok ont préféré négocier un accord confidentiel avec la partie plaignante. Meta et Google semblent quant à eux décidés à aller à l’affrontement, ce qui signifie que les deux entreprises espèrent une jurisprudence. D’après CNN, l’issue du « procès KGM » pourrait ainsi avoir une influence sur quelque 1 500 poursuites engagées aux États-Unis contre les plateformes sociales !
Certains lanceurs d’alerte devraient justement être appelés à témoigner. La partie civile a également affirmé qu’elle produirait des emails internes à Meta et Google illustrant comment les deux entreprises faisaient du temps passé sur leurs plateformes sociales un indicateur clé de performance.
Adam Mosseri, patron d’Instagram, premier sur le grill
Mercredi, c’est donc Adam Mosseri, patron d’Instagram au sein du groupe Meta, qui a ouvert le bal des témoignages en se livrant à un délicat exercice d’équilibrisme. D’après le rapport fait par le New York Times, Mosseri a en effet admis que les réseaux sociaux pouvaient se révéler préjudiciables pour la santé mentale de jeunes publics, tout en affirmant qu’Instagram prenait toutes les mesures appropriées pour vérifier l’impact potentiel de ses nouvelles fonctionnalités avant de les déployer.
Il a dans le même temps tenu à formuler une distinction entre addiction et usage problématique, expliquant que cette qualification dépendait de la personne concernée, et non de la plateforme éditrice.
« Il est important de faire la distinction entre dépendance clinique et usage problématique, a-t-il déclaré selon la BBC. Je suis certain d’avoir déjà dit que j’étais accro à une série Netflix après l’avoir regardée en boucle très tard un soir, mais je ne pense pas que ce soit la même chose qu’une dépendance clinique ».
La partie civile a saisi la balle au bond, en demandant à Mosseri son avis sur la session la plus longue sur Instagram déclarée par la jeune fille, soit 16 heures sur une seule journée. « Cela ressemble à une utilisation problématique », a répondu l’intéressé, qui a par ailleurs affirmé ne pas avoir eu connaissance des 300 signalements pour harcèlement formulés par la plaignante.
Un filtre « chirurgie esthétique » en question
L’avocat de la jeune fille a également attaqué Mosseri sur les « filtres beauté » proposés par l’application, ces outils qui permettent de modifier certains éléments du physique de l’internaute lors d’une prise de photos. Copie de documents internes à l’appui, il a montré que Mosseri et Zuckerberg avaient en 2019 levé l’interdiction relative à un filtre mimant les effets d’une chirurgie esthétique. « On nous reprocherait à juste titre de privilégier la croissance au détriment de la responsabilité », arguait cependant Nick Clegg, ancien responsable des affaires publiques de Meta, dans ces échanges.
Le problème soulevé par ces filtres n’est pas nouveau. En 2024, TikTok a par exemple pris le parti d’interdire l’accès à certains filtres aux moins de 18 ans, en réaction à la publication d’un rapport de l’ONG britannique Internet matters, qui relevait « un consensus » parmi les adolescentes et adolescents interrogés sur le fait que « les filtres de beauté contribuent à une vision du monde déformée, dans laquelle les images améliorées deviennent la norme tandis que les présentations réalistes sont plus rares ».
Suite à ces passes d’armes, l’avocat de Meta s’est quant à lui attaché à montrer qu’Instagram a, au cours des dernières années, déployé de nombreuses mesures et fonctionnalités visant à protéger les jeunes publics, qui disposent depuis l’an dernier d’un statut particulier au sein de l’application.
Liberté d’expression contre négligence
Le LA Timesrappelle qu’en dépit des controverses régulières, les grandes plateformes sont toujours protégées par le fameux article 230 de la loi de 1996, qui les exonère de toute responsabilité quant au contenu publié par les utilisateurs, un rempart qui s’ajoute au fameux Premier amendement de la constitution garantissant la liberté d’expression. Tout l’enjeu pour les plaignants consiste, dans ce contexte, à identifier des leviers détournés, permettant par exemple d’attester une négligence ou une preuve tangible de tentative de manipulation, pour rétablir cette responsabilité.
L’entreprise d’IA générative française a annoncé qu’elle allait investir 1,2 milliard d’euros en Suède pour un projet de datacenters. Cette annonce est le premier investissement de la startup française hors de France. Il doit augmenter, à terme, les capacités de calcul globales de Mistral de 50 % dès 2027, si tout va bien.
Ce mercredi 11 février, Mistral a annoncé investir 1,2 milliard d’euros pour la construction de centres de données à Borlänge, en Suède. L’entreprise affirme dans son communiqué que cite l’AFP que l’investissement «comprend le développement de data centers spécialisés en intelligence artificielle, de capacités de calcul avancées et de solutions d’IA localisées» sans plus de détails techniques.
Le tout doit être mis en service en 2027 et doit permettre à Mistral d’augmenter ses capacité de 50 %, explique la Tribune.
Mistral s’insère dans un projet déjà en cours de l’acteur local EcoDataCenter
De fait, les datacenters de Mistral actuellement sur le territoire français demandent une puissance de 40 mégawatts. Ici, le nouveau projet de la startup française demandera 23 mégawatts sur le réseau électrique suédois. L’entreprise d’Arthur Mensch explique qu’elle ne se lance pas toute seule dans ce projet à l’étranger. Elle va en effet s’appuyer sur l’entreprise locale EcoDataCenter dont le projet à Borlänge a été lancé en 2025.
L’investissement de 1,2 milliard d’euros semble supérieur à ce qui est généralement pratiqué. Mistral confirme cependant à Next : « notre investissement en Suède correspond bien à une puissance énergétique de 23MW » sans plus de précision sur ce que recouvre l’accord. EcoDataCenter a déjà un premier data site qui se situe à Falun qui demande une puissance de 80MW. Son projet à Borlänge est de 240MW selon son site web. Ainsi, Mistral devrait prendre un dixième du site en construction. L’entreprise suédoise précisait même dans un communiqué en septembre dernier que le projet pourrait bénéficier ensuite d’une extension pour aller jusqu’à 600 MW.
EcoDataCenter indique que le datacenter hébergera des GPU Vera Rubin de dernière génération de NVIDIA.
Arthur Mensch a justifié ce choix de la Suède au Financial Times en affirmant que l’énergie y était « à la fois peu polluante et relativement bon marché ».
En février dernier, l’entreprise avait annoncé implanter un data center en Essonne à Bruyères-le-Châtel, hébergé par Eclairion et qui utilisait une puissance de 40 mégawatts.
Selon Le Mag IT, les deux infrastructures seront aussi utilisé pour l’offre « Compute » de Mistral qui propose des services d’hébergement pour d’autres acteurs d’IA.
Mistral, un chiffre d’affaire annualisé de 400 millions de dollars
« Nous diversifions et répartissons nos capacités à travers l’Europe », a-t-il déclaré aussi à nos confrères, « L’Europe a pris conscience que sa dépendance vis-à-vis des services numériques américains était excessive et avait atteint aujourd’hui un point critique. Nous leur apportons un avantage concurrentiel, car nous leur fournissons des modèles, des logiciels et des capacités de calcul totalement indépendants des acteurs américains ».
« Il s’agit en fait d’une activité assez prévisible, ce qui explique le fort intérêt pour la souscription d’investissements dans les infrastructures » assure-t-il encore et il prévoit que le nouveau site générerait plus de 2 milliards d’euros de revenus au cours des cinq prochaines années.
Le responsable de l’entreprise en a profité pour expliqué à nos confrères britanniques que le chiffre d’affaires annualisé de Mistral (calculé en multipliant par 12 le chiffre du dernier mois) dépassait les 400 millions de dollars, 20 fois plus qu’un an avant. Il espère pouvoir dépasser le milliard annuel d’ici la fin de l’année.
Rappelons qu’en septembre dernier ASML avait pris 11 % de Mistral AI pour 1,3 milliard d’euros sous la forme d’un partenariat stratégique de long terme, de quoi écarter les rumeurs de rachat par Apple qui avaient pu circuler quelques mois avant.
Hier, Ariane 6 a fait son premier vol dans la configuration Ariane 64, c’est-à-dire avec quatre boosters au lieu de deux pour Ariane 62. C’était le premier lancement pour cette configuration qui « double les performances de la fusée par rapport à la version à deux propulseurs qui a déjà volé cinq fois, y compris lors du vol inaugural en 2024 ».
« Ariane 6 peut emporter environ 21,6 tonnes en orbite basse, soit plus du double des 10,3 tonnes atteignables avec deux propulseurs », rappelle l’Agence spatiale européenne. Cela reste loin des 63 tonnes de Falcon Heavy. « Il s’agit de la plus haute Ariane 6 jamais construite. Avec sa coiffe de 20 m, Ariane 64 mesure 62 mètres, soit à peu près la hauteur d’un immeuble de 20 étages », ajoute-t-elle. La fusée embarquait 32 satellites Amazon Leo, déposés sur les bonnes orbites.
Un lancement peut en cacher un autre. Après des reports à cause de la météo, la mission Crew-12 à bord de la capsule Crew Dragon de SpaceX devrait décoller ce matin (11h15 heure de Paris) direction la Station spatiale internationale.
À son bord, quatre membres d’équipage : les astronautes américains de la NASA Jessica Meir et Jack Hathaway, le cosmonaute russe de Roscosmos Andrey Fedyaev et enfin la Française de l’ESA Sophie Adenot. Elle avait, pour rappel, été sélectionnée début 2024. Nom de code de sa mission qui doit durer neuf mois : Epsilon.
« Elle y effectuera plus de 200 expériences dont plusieurs ont été préparées et seront suivies par le Cadmos, le Centre d’aide au développement des activités en micropesanteur et des opérations spatiales, une entité du CNES basée à Toulouse. L’une de ces expériences françaises sera dédiée à la jeunesse : ChlorISS sera réalisée simultanément par Sophie Adenot dans l’ISS et par 4500 classes dans toute la France », explique le CNES.
Il sera possible de suivre le lancement en direct sur la chaine YouTube de l’ESA par exemple :
Dans une communication conjointe, le contrôleur et le comité européens de la protection des données (EDPS et EDPB) se prononcent clairement contre la redéfinition des données personnelles proposées par la Commission européenne dans le cadre de son Digital Omnibus. En janvier, ils appelaient aussi à diverses précautions en matière de réécriture du règlement sur l’IA.
En matière d’omnibus numérique, le contrôleur et le comité européens de la protection des données (EDPS et EDPB en anglais, CEPD en français) sont on ne peut plus clairs : ils estiment toute tentative de redéfinir ce qui constitue une donnée personnelle comme un danger. Dans un communiqué conjoint, les deux entités appellent « fortement les colégislateurs à ne pas adopter les modifications (…) proposées » en la matière (voir aussi le résumé, en français, qu’en propose la CNIL).
Si la redéfinition de ce qui constitue une donnée personnelle a pu être décrite comme le simple fait d’ancrer dans la loi une interprétation déjà donnée par la Cour européenne, l’EDPS et l’EDPB déclarent que les modifications proposées iraient en réalité « bien au-delà ».
Dans son arrêt SRB du 4 septembre 2025, la Cour de justice de l’Union européenne considérait en effet que des données pseudonymisées pouvaient être considérées comme n’étant pas des données personnelles pour leur destinataire si des mesures techniques et organisationnelles étaient prises pour l’empêcher d’accéder à des éléments identifiant, et si ce destinataire ne pouvait légalement mettre la main sur des éléments lui permettant de ré-identifier les personnes concernées, ou transmettre les données à un tiers à même d’opérer cette ré identification.
Dans leur communication conjointe de ce 11 février, l’EDPS et l’EDPB déclarent qu’en l’état, le Digital Omnibus propose une redéfinition de la nature d’une donnée personnelle bien plus large que la simple intégration de cet arrêt. « La simplification est essentielle pour réduire les formalités administratives et renforcer la compétitivité de l’Union, mais pas aux dépens des droits fondamentaux », déclare Anu Talus, la directrice de l’EDPB. Une position qui fait écho à celle d’entités de défense des droits numériques comme noyb (qui salue leur décision), ou l’organisation European Digital Rights (EDRi).
Maintenir un registre des systèmes d’IA à haut risque
En matière d’intelligence artificielle, l’EDPS et l’EDPB soulignent de nouveau leur scepticisme vis-à-vis de l’intégration, au sein du RGPD, d’un fondement légal à l’usage de données personnelles pour le développement et le déploiement de systèmes d’IA. En janvier, dans une communication conjointe spécifiquement dédiée à la partie du Digital Omnibus visant le règlement en cours d’application sur l’intelligence artificielle (RIA ou AI Act), elles convenaient là aussi du besoin de répondre à quelques enjeux concrets, mais insistaient sur le besoin de préserver les droits fondamentaux.
En pratique, elles contestaient la proposition de supprimer l’obligation d’enregistrer les systèmes à haut risque dans un registre public – proposition soutenue notamment par les lobbies des géants numériques américains. À défaut, elles estiment que cette évolution « abimerait significativement la responsabilité et créerait une incitation indésirable pour les fournisseurs à demander des exemptions pour éviter l’examen public ».
L’EDPS et l’EDPB appelaient par ailleurs à préciser la possibilité d’utiliser des données personnelles comme l’origine ethnique ou des données de santé pour de la détection et de la correction de biais « uniquement dans les situations circonscrites où les risques d’effets adverses provoqués par ces biais sont considérés suffisamment sérieux ».
Bacs à sable réglementaires et gestion des cookies
L’EDPS et l’EDPB saluent aussi plusieurs propositions d’intérêt dans les deux omnibus. Côté IA, elles soulignaient en janvier l’intérêt des bacs à sable réglementaires de niveau européen, permettant de « promouvoir l’innovation ». Elles recommandaient d’y faire directement participer les autorités de protection des données compétentes.
Côté Digital Omnibus, les deux entités saluent les modèles et listes communes proposées pour auditer les impacts en termes de protection des données en cas de fuites. Elles appellent néanmoins à augmenter les seuils de risques en fonction desquels la notification aux autorités de protection des données devient obligatoire et à allonger le délai de notification.
Elles soutiennent l’harmonisation de la notion de « recherche scientifique » dans les textes, et le projet d’amender la directive ePrivacy pour trouver des solutions à la « consent fatigue », c’est-à-dire à la multiplication des bannières de gestion des cookies demandant à un même internaute s’il ou elle consent à partager ses données.