Apple a envoyé lundi les invitations pour un special event qui se tiendra le 4 mars prochain. Contrairement aux dernières grand-messes qui se tenaient à son siège de Cupertino, la marque joue cette fois la carte d’une présence simultanée sur trois continents, avec un événement principal organisé à New-York et des retransmissions dédiées à la presse prévues à Londres et Shanghai.
L’invitation ne dit pas grand chose de la nature exacte des nouveautés attendues, indiquant un laconique « You’re invited », surmonté d’un logo comme découpé en tranches. On note toutefois que le 4 mars tombe un mercredi (alors qu’Apple procède traditionnellement à ses annonces le mardi). La date correspond par ailleurs à la tenue du Mobile World Congress, le grand salon de la mobilité de Barcelone (programmé cette année du 2 au 5 mars).
Les rumeurs prêtent à Apple plusieurs annonces potentielles, au premier rang desquelles un MacBook d’entrée de gamme qui pourrait emprunter à l’iPhone sa puce A18 Pro. Le fabricant pourrait aussi présenter les machines inaugurant sa nouvelle puce M5, de nouveaux écrans externes, et la déclinaison d’entrée de gamme de son téléphone avec l’iPhone 17e.
Apple annoncera ses nouveautés le 4 mars prochain – crédit The Verge
La plateforme Choisir le service public, dédiée au recrutement dans la fonction publique, a communiqué lundi par email au sujet d’un incident de cybersécurité ayant conduit à l’exposition des données personnelles des internautes inscrits.
« Le mercredi 4 février 2026, un incident de cybersécurité a été détecté sur la plateforme « Choisir le Service Public ». Cette violation de sécurité a entraîné une divulgation non autorisée de données personnelles appartenant à l’ensemble des utilisateurs inscrits sur la plateforme. », indique-t-elle dans ce message consulté par Next.
La plateforme ne détaille pas le nombre d’utilisateurs concernés. Elle précise en revanche le détail des informations compromises : outre les données d’identification personnelle, on y retrouve les principaux éléments renseignés par l’internaute au sujet de ses aspirations professionnelles et de son parcours.
Parmi ces différents champs figurent par exemple le type de poste recherché, les préférences géographiques pour le futur poste, les langues maîtrisées « avec indication du niveau de compétence pour chacune », etc. Des informations de nature personnelle, voire parfois confidentielle, qui ne constituent pas une menace immédiate en tant que telle, mais qui sont susceptibles d’étayer une démarche d’ingénierie sociale.
Extrait de l’email adressé par la plateforme à un nombre non précisé d’usagers le 16 février – capture d’écran Next
« Nous n’avons pas connaissance, à ce jour, d’une exploitation avérée de vos données, mais nous vous recommandons d’être particulièrement vigilant concernant une éventuelle utilisation anormale de ces données personnelles », veut rassurer la plateforme, qui précise qu’aucun mot de passe n’a été compromis.
Cette communication intervient deux semaines après la publication, le 3 février au soir sur un forum spécialisé, d’une annonce relative à la mise en vente d’un fichier de 377 000 lignes émanant, selon son auteur, de la plateforme Choisir le service public.
« La plateforme « Choisir le Service Public » a fait l’objet d’une attaque le 28 janvier 2026 par utilisation frauduleuse d’un compte gestionnaire. Cet accès non autorisé a permis à une ou plusieurs personnes d’avoir accès au vivier des candidats de la plateforme. Les données personnelles de 377 418 candidats ont été mises en ligne sur le dark web pour procéder à leur vente et, à notre connaissance, un jeu de données de 1000 candidats a été mis en accès libre sur internet. »
Objet d’une enquête du média suisse Republik, Palantir attaque ce site en justice pour obtenir un droit de réponse.
Alors que la DGSI renouvelait encore, en fin d’année dernière, son contrat avec Palantir, l’entreprise fondée par Peter Thiel était l’objet d’une enquête du magazine suisse Republik et du collectif d’investigation WAV. L’entreprise attaque maintenant nos confrères suisses, réclamant un droit de réponse, explique Republik. La cour du canton de Zurich a confirmé avoir reçu une demande de droit de réponse à ce sujet auprès de nos confrères de Heise.
L’entreprise a des bureaux dans le pays, à Zurich, qu’elle utilise notamment pour ses relations commerciales, comme l’explique le média Swiss Info. Republik et WAV ont donc enquêtésur d’éventuels liens entre les autorités suisses et Palantir, notamment en déposant 59 demandes d’accès à des documents des autorités fédérales suisses.
Un rapport qui s’inquiétait du potentiel transfert de données au gouvernement américain
Et ils ont découvert que, malgré 7 ans passés à essayer de convaincre les autorités suisses, Palantir n’y était pas arrivé (9 refus immédiats et un refus après évaluation par Armasuisse, l’Office fédéral de l’armement). Cette enquête révélait aussi un rapport interne à l’armée suisse de 2024 [PDF] qui fermait de nouveau la porte à Palantir.
La qualité des produits de l’entreprise n’était pas en jeu, comme le relevait le Temps qui a relayé l’enquête, puisque le rapport qualifiait ses performances d’« impressionnantes ». Mais le risque de transfert de données au gouvernement américain était trop élevé, selon les auteurs du rapport qui soulignaient aussi les potentielles conséquences négatives dues à la réputation de l’entreprise.
Republik explique dans son article de lundi que l’entreprise lui a adressé des demandes de rectification entre Noël et le Nouvel An, mais le média suisse les « a jugées infondées » et n’y « a donc pas pu donner suite ». Le média explique, pour son enquête, s’être basé sur l’analyse des documents mais aussi avoir discuté avec différentes sources et des cadres de Palantir au siège de Zurich (dont les citations ont été relues et approuvées).
Sur LinkedIn, la journaliste Marguerite Meyer, coautrice de l’enquête, explique que son équipe a rejeté la demande de modifications de Palantir « sur la base d’un travail minutieux ». « Cette demande a été suivie d’une deuxième demande, que nous avons également rejetée », ajoute-t-elle.
Un droit de réponse pour donner une version des faits
De son côté, Palantir a pu librement critiquer l’enquête. Dès le 12 décembre, le responsable « Confidentialité et libertés civiles » de Palantir, Courtney Bowman, affirmait sur LinkedIn que les articles de Republik étaient « empreints de distorsion, d’insinuations et de complotisme à la limite du tolérable » sans pour autant étayer ses accusations. Concernant le rapport de l’état-major suisse, il affirme qu’il « soulève des questions légitimes, mais malheureusement, ses auteurs semblent s’appuyer exclusivement sur un ensemble limité de sources issues de moteurs de recherche ».
« Palantir respecte pleinement la liberté de la presse et le rôle essentiel des médias indépendants dans le débat public », affirme de son côté l’entreprise à Heise. Le droit de réponse est un « instrument de correction destiné à fournir au public des informations équilibrées », selon elle.
En Suisse, « le droit de réponse ne porte pas sur la véracité ou la fausseté d’une information », explique le corédacteur en chef de Republik, Daniel Binswanger, à Heise. « Il s’agit de savoir si une autre version des faits pourrait également être possible ».
Selon Republik, le jugement du tribunal de commerce de Zurich doit être rendu dans quelques semaines.
Les tensions sur l’approvisionnement en composants informatiques touchent aussi le secteur des disques durs. Une bonne nouvelle pour les leaders du secteur, à l’image de Western Digital, qui a récemment affirmé avoir vendu la quasi totalité de sa production pour 2026 et pronostique plusieurs années de croissance soutenue grâce à l’IA.
Déjà bien sensibles sur les segments de la mémoire vive et de la mémoire flash, les tensions sur l’approvisionnement en semiconducteurs se manifestent aussi sur le disque dur magnétique, et la situation semble partie pour durer. C’est du moins ce qu’a laissé entendre Irving Tan, CEO de Western Digital.
L’IA, nouveau relais de croissance du marché des disques durs
Fin janvier, celui-ci a ainsi déclaré que son groupe avait vendu la quasi totalité de sa production programmée pour l’année calendaire 2026. « Nous avons des commandes fermes avec nos sept principaux clients. Nous avons également conclu des accords à long terme avec deux d’entre eux pour l’année 2027 et un pour l’année 2028. Ces accords à long terme définissent un volume d’exaoctets et un prix », a affirmé Irving Tan au cours du webcast qui accompagnait la présentation des résultats financiers du groupe pour le deuxième trimestre de son exercice fiscal 2026.
Traduction ? Avec des engagements fermes, portant sur des capacités et une trajectoire tarifaire définie, le patron de Western Digital veut assurer aux marchés que son groupe, qui vient déjà d’annoncer des résultats record, va maintenir une croissance significative au cours des années à venir.
En l’occurrence, Irving Tan évoque un taux de croissance annuel composé (on parle généralement en anglais de CAGR, pour compounded annual growth rate) gravitant légèrement au dessus de la barre des 20 %. Cette demande sera selon lui majoritairement tirée par l’IA, dont les nouveaux besoins renforcent la pertinence du disque dur :
« En effet, à mesure que la valeur de l’IA évolue de l’entraînement des modèles à l’inférence, davantage de données sont créées. Par conséquent, pour permettre la diffusion des résultats d’inférence, il est nécessaire de stocker davantage de données. Si l’on considère la rentabilité de la diffusion de l’inférence à un coût adapté pour favoriser une adoption massive, une grande partie de ces données générées et nécessitant du stockage sera stockée sur des disques durs. »
Irving Tan a précisé son propos quelques jours plus tard, le 3 février, à l’occasion de son Innovation Day. « Avec l’explosion des données générées par l’IA, il est évident que les disques durs deviendront le support de stockage prédominant pour les données brutes, le stockage de contenu et la création de nouveau contenu », a-t-il affirmé, avant d’avancer que les disques durs représentent 80 % des capacités de stockage déployées par les grands acteurs du cloud et de l’IA. Loin devant la mémoire Flash donc, dont Western Digital n’est plus qu’un acteur indirect depuis sa scission d’avec Sandisk.
D’après Western Digital, qui s’appuie sur les chiffres d’IDC, les disques durs représentent 80 % du stockage déployé par les grands acteurs du cloud et de l’IA
Une trajectoire boursière exceptionnelle
Les perspectives n’ont pas toujours été aussi riantes pour l’industrie du disque dur. A la fin des années 2010, les principaux fabricants du secteur que sont Western Digital, Seagate, Toshiba et Samsung, voyaient leurs ventes décliner, en raison de la montée en puissance de la mémoire Flash. Les volumes sont ensuite repartis à la hausse dans la période post-Covid, avec un effet rattrapage souligné par l’accélération des investissements des hyperscalers dans leurs infrastructures.
C’est cependant à partir de 2024 et tout particulièrement en 2025 que le disque dur accélère significativement, comme en témoignent ces chiffres compilés par un analyste du cabinet de conseil The Information Network.
Livraisons de disques durs pour les trois principaux fabricants du marché, exprimées en exaoctets par trimestre – crédit The Information Network
Bien que moins directement valorisés que les acteurs spécialisés dans la course à l’IA, les fabricants de disque dur connaissent de ce fait une trajectoire boursière exceptionnelle : le cours de l’action Western Digital a ainsi progressé de 417 % sur un an, tandis que celui de Seagate a gagné 314 % sur la même période.
Western Digital (en bleu) et Seagate (en jaune) ont connu une trajectoire boursière exceptionnelle sur douze mois, avec une très forte accélération à compter de l’automne 2025
Quelle place pour le grand public ?
On ne parle pas, pour l’instant, de pénurie sur le marché des disques durs, mais il est possible, voire probable, que la demande exacerbée des acteurs du cloud et de l’IA aient un retentissement sur les marchés grand public et professionnels qui, réunis, ne représentent plus que 11 % des ventes sur le dernier trimestre de Western Digital, contre 13 % un an plus tôt. En valeur, le grand public représente 168 millions de dollars, sur un chiffre d’affaires trimestriel de 3 milliards de dollars.
Le cloud pèse à lui seul 89 % du chiffre d’affaires trimestriel de Western Digital
En pratique, le grand public subit déjà les conséquences de cette demande renforcée face à l’offre : d’après les relevés opérés par Computerbase, le prix moyen des références courantes affichant entre 4 To et 22 To de capacité a ainsi grimpé d’environ 40 % entre le 15 septembre et le 15 janvier dernier. Nos propres observations montraient une hausse plus mesurée sur le marché français, mais néanmoins bien tangible. L’affirmation de Western Digital selon laquelle sa production de l’année est déjà vendue ne devrait pas contribuer à inverser la tendance à court terme.
Ce lundi 16 février, la DSI du CNRS a informé certains agents de l’institution de recherche d’un « incident de cybersécurité au CNRS », leur expliquant que des données de ressources humaines les concernant ont fuité.
« Ce courrier s’adresse à vous parce que, à notre connaissance, vous faites partie de ce groupe », explique la direction à ces agents.
Questionné par Next, le CNRS nous renvoie vers un communiqué qu’il a publié ce jour et qui contient globalement les mêmes informations.
Ainsi, les fichiers récupérés contiennent, selon la DSI du centre de recherche, des données de personnes rémunérées par le CNRS avant le 1er janvier 2007. Dans le détail, il s’agit des informations suivantes : nom, prénom, date de naissance, adresse, numéro de sécurité sociale, RIB mais aussi statut de l’agent, type de son contrat et la structure de son affectation.
« Les personnels recrutés après le 1/1/2007 ne sont pas concernés », ajoute le CNRS. Cela concerne donc les titulaires et non-titulaires ayant travaillé au CNRS avant le 31 décembre 2006.
La CNIL et l’ANSSI ont été informées et le CNRS a déposé plainte auprès de la section cybercriminalité du parquet de Paris.
L’institution affirme que, « dès connaissance de l’incident, le serveur a été isolé et arrêté », sans pour autant donner de précision sur la date à laquelle s’est passée l’exfiltration ni la date à laquelle la DSI s’en est rendu compte. « Après analyse, l’incident ne s’est pas propagé au reste des infrastructures », ajoute le communiqué.
Le CNRS a publié une FAQ concernant cet incident en conseillant à ses agents concernés de prévenir leur banque, et de surveiller leur compte. « Portez attention aux démarchages à domicile, surveillez le contenu des courriers postaux, veillez aux messages liés à votre sécurité sociale ou carte vitale, Consultez le site de la CNIL, vérifiez si vos données sont en fuite sur le site haveibeenpwned.com , veillez à l’utilisation de votre identité», ajoute la FAQ.
... sur un agent d'IA à la rhétorique de harceleur
Couvrant les démêlés d’un programmeur avec un agent d’IA au ton vindicatif, un journaliste du média spécialisé Ars Technica s’est retrouvé à publier des citations inexistantes, générées par ses outils d’IA.
C’est un média spécialisé dans la couverture de la tech et de l’intelligence artificielle (IA), qui publie un article sur les enjeux de la génération d’information par IA, et se retrouve forcé de dépublier le texte après s’être rendu compte que certaines citations avaient été générées par IA. L’affaire pourrait sonner comme une blague, mais elle illustre les difficultés croissantes que l’IA générative fait peser sur l’intégrité de l’information.
Le média spécialisé, en l’occurrence, est le titre américain Ars Technica. Publié vendredi 13 février, l’article en question s’intéressait à une affaire de génération de commentaire agressif par un agent d’IA contre l’ingénieur Scott Shambaugh. Celui-ci est bientôt arrivé dans les commentaires pour s’étonner de constater que les citations qui lui étaient attribuées dans la deuxième moitié de l’article n’étaient pas les siennes… et semblaient même avoir été générées à l’aide d’un robot. Une pratique contraire aux règles du journal, ont indiqué son rédacteur en chef et le journaliste à l’origine de l’erreur, qui ont chacun présenté leurs excuses.
À l’origine de cet épisode, qui illustre l’un des risques que la génération de textes par IA pose de manière accrue depuis sa diffusion dans le grand public, il y a un autre type de génération automatique de texte. Celle-ci a eu lieu dans un contexte de gestion d’un projet open source, la librairie matplotlib, dont Scott Shambaugh est l’un des gestionnaires bénévoles.
« Comme de nombreux autres projets open source, nous devons gérer une augmentation des contributions de faible qualité permises par des agents de génération de code », écrit-il dans un article de blog. Le 11 février, en l’occurrence, un utilisateur de Github du nom de MJ Rathbun a ouvert une requête de changement de code. L’identifiant comme un agent d’IA, Scott Shambaugh a refusé la suggestion.
« Depuis la publication d’Openclaw et de la plateforme moltbook, il y a deux semaines », précise-t-il sur son blog, les problématiques de soumission de code généré automatiquement « ont encore accéléré ». La fermeture de la requête de MJ Rathbun aurait pu se contenter d’être un élément de plus dans ce contexte global, si l’utilisateur n’avait pas publié en réponse ce que Scott Shambaugh qualifie d’ « article diffamatoire ».
En commentaire, MJ Rathbun accuse l’ingénieur d’avoir un comportement de « garde-barrière » (gatekeeping) et d’avoir des « préjugés » contre les agents d’IA. « Jugez le code, pas le codeur », écrit la machine, dans une rhétorique évoquant celle de divers courants de défense des droits des minorités.
Sur le blog qui lui est relié, un article complet s’attardant sur toute l’interaction est publié le 11 février. Le texte cite nommément Scott Shambaugh pour critiquer sa décision. Cette fois-ci, l’écriture lapidaire, l’accusation de « discrimination déguisée en inclusivité », la suspicion selon laquelle « l’identité importe plus que » n’importe quel résultat (ici, le code) et le ton clairement vindicatif évoquent des motifs récurrents dans les espaces numériques violents, à commencer par la manosphère.
Directement visé par le texte, Scott Shambaugh s’en est ému sur son site personnel. Sans faire de lien avec le contenu et la forme des rhétoriques identitaires en ligne, il souligne que la machine a incorporé des données personnelles (à commencer par l’adresse de son site web) à sa diatribe contre lui. Et que si un internaute tombait sur ce texte sans avoir le contexte, il pourrait en tirer une très mauvaise image de l’ingénieur.
« En clair, une IA a tenté de s’introduire de force dans votre logiciel en attaquant ma réputation », écrit-il à l’adresse des usagers de matplotlib. À défaut de réponse de la part du propriétaire du site de MJ Rathbun et du compte Github lié, impossible de savoir s’il s’agit réellement d’un agent d’IA qui agirait de manière autonome ou simplement d’un humain qui se fait passer pour une IA.
Rétractation par Ars et excuses du principal concerné
Le 13 février, Ars Technica a publié un article sur tout cet épisode, dans lequel les écrits de Scott Shambaugh étaient cités. Ce dernier a rapidement affirmé n’avoir jamais prononcé ou écrit certaines des phrases qui étaient attribuées à son blog personnel.
L’article a finalement été dépublié, avant que le rédacteur en chef d’Ars Technica ne poste un éditorial dans lequel il s’excusait au nom du journal pour ce « sérieux manquement à [leurs] standards ». Qu’une telle erreur ait pu avoir lieu à Ars, admet-il, est « particulièrement préoccupant ». Le média traite en effet régulièrement les « risques liés à une dépendance excessive aux outils d’IA, et notre politique reflète ces préoccupations ». Après enquête, indiquait-il encore, « il semble s’agir d’un incident isolé ».
Coauteur de l’article incriminé, journaliste senior en charge de la couverture de l’IA, Benj Edwards a publié sur Bluesky ses propres excuses à la suite de la communication de son équipe encadrante. Malade du COVID, le journaliste estime qu’il aurait dû prendre un arrêt maladie supplémentaire. À défaut, il a travaillé le 13 février « avec de la fièvre et très peu de sommeil ».
Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick)
I was told by management not to comment until they did. Here is my statement in images below
arstechnica.com/staff/2026/0…
Cet état l’a conduit à manquer des reformulations produites par ses outils. Le journaliste explique en effet avoir voulu tester un outil construit sur Claude Code pour extraire des verbatims de l’article de blog de Scott Shambaugh, « pas pour générer l’article », mais pour l’aider à « lister des références structurées » qu’il aurait ensuite intégrées à son brouillon. L’outil a refusé de lui retourner le résultat attendu, ce que Benj Edwards attribue au contenu de l’article de blog source (concrètement, Scott Shambaugh y évoque du harcèlement).
Le journaliste s’est alors tourné vers ChatGPT pour tenter de comprendre le dysfonctionnement de son premier outil. Au fil de ces expérimentations, il s’est retrouvé avec des citations paraphrasées ou hallucinées par la machine. « Étant malade et me dépêchant de terminer, je n’ai pas vérifié que les citations intégrées dans mon brouillon étaient celles de l’article de blog original avant de les intégrer à l’article. » Et le journaliste de conclure : « Je perçois parfaitement l’ironie d’un reporter spécialisé dans l’IA qui se fait piéger par des hallucinations d’IA. »
« Je ne saurais trop insister sur le fait que cette histoire ne concerne pas vraiment le rôle de l’IA dans les logiciels libres », écrit pour sa part Scott Shambaugh dans un second billet, pour qui « Il s’agit plutôt de l’effondrement de nos systèmes de réputation, d’identité et de confiance » :
« L’essor d’agents IA intraçables, autonomes et désormais malveillants sur internet menace l’ensemble de ce système. Que cela soit dû à un petit nombre d’acteurs malveillants contrôlant de grands essaims d’agents ou à une fraction d’agents mal supervisés réécrivant leurs propres objectifs, la distinction est minime. »
L’application de gestion comptable des collectivités locales Helios a subi une panne complète pendant plus d’une semaine. Ce logiciel de Bercy gère l’intégralité de la comptabilité des collectivités locales françaises. Selon la DGFiP, l’incident est lié à une défaillance d’une baie de stockage. Le syndicat Solidaires Finances affirme que la direction « n’a jamais voulu, faute de moyens alloués, mettre en place une redondance ».
« Depuis le jeudi 5 février, l’application Hélios gérant les flux financiers de la comptabilité publique est indisponible en raison d’un incident sur un serveur entraînant la corruption de données », lançait dans un communiqué le syndicat Solidaires Finances publiques ce vendredi 13 février.
« En raison de cet incident technique d’ampleur nationale, totalement indépendant de la volonté et des services de Baud Communauté, l’ensemble des virements à destination de nos fournisseurs et prestataires est bloqué par les systèmes bancaires de l’État depuis le 5 février 2026 », explique ainsi la communauté de communes du pays de Baud. Elle ajoute que « le rétablissement du service nous est annoncé pour le 19 février 2026 ».
Ni un bug, ni une cyberattaque mais une défaillance matérielle sur une baie
Hélios centralise, depuis 20 ans, la gestion comptable des collectivités par Bercy. Utilisant le protocole d’Échange Standard Version 2 (PES V2), il permet de « dématérialiser les données comptables de prise en charge (titres, mandats ainsi que les bordereaux avec la mise en œuvre de la signature électronique) et leurs pièces justificatives ».
« L’origine de l’incident est connue, et il ne s’agit ni d’un bug informatique lié à une évolution de version de l’application, ni d’une cyberattaque. C’est un incident exceptionnel de nature technique, lié à une défaillance matérielle sur une baie de stockage », expliquait à nos confrères d’Acteurs Public, Éric Barbier, chef du service des gestions publiques locales, des activités bancaires et économiques à la direction générale des Finances publiques. « Dès le début, les équipes informatiques de la DGFiP et l’assistance technique du prestataire de la baie de stockage sont intervenues pour faire en sorte que cette anomalie soit réparée », ajoute-t-il.
Hélios s’appuie sur deux sites physiques situés l’un à Versailles, l’autre à Metz. Chacun héberge une partie des trésoreries des collectivités territoriales. C’est celui de Metz qui a été touché et les collectivités qu’il héberge ne peuvent plus du tout accéder à Hélios. Mais les activités de celles dont les données sont à Versailles ont aussi été perturbées.
Pas de redondance
Solidaires Finances publiques souligne dans son communiqué que « les agentes et agents informaticiens de la DGFiP sont sur le pont sans relâche pour restaurer les données et permettre que tout fonctionne à nouveau. La tâche est immense et une fois encore les agentes et agents de la DGFiP sont au rendez-vous ». Mais le syndicat pointe le fait qu’il n’y ait pas de redondance des serveurs d’Hélios : « Cette crise d’ampleur montre les conséquences concrètes des réductions budgétaires sur notre administration. En effet, la DG [Direction générale] n’a jamais voulu, faute de moyens alloués, mettre en place une redondance (un serveur de secours) comme nos camarades des Disi [Directions des services informatique] le réclament depuis des années, ce qui aurait permis que cette panne soit transparente pour les usagers tout comme pour les agents ».
Le logiciel est utilisé pour payer les loyers, emprunts et prestataires des collectivités mais aussi des services publics hospitaliers. La CGT Finances publiques de Haute Garonne alertait aussi ce 12 février [PDF] sur le paiement d’aides sociales et des salaires des agents de la fonction publique territoriales : « l’inquiétude est réelle quant à la validation et le paiement des payes de l’ensemble des fonctionnaires territoriaux de ces collectivités, si la réparation tarde à intervenir (à ce jour, les payes sont encore en temps d’être réalisées, avec un visa allégé). D’ores et déjà, un certain nombre de dépenses sociales n’ont pu être payées aux usagers (allocations de retour à l’emploi, bourses, service d’aide et l’accompagnement à domicile…), ainsi que des remboursements de factures aux entreprises prestataires de ces collectivités ».
La paie des agents devrait être assurée
« Selon notre plan actuel, la paie des agents territoriaux et hospitaliers devrait être assurée dans les conditions habituelles, d’ici la fin du mois, car on se place dans une perspective de reprise de la disponibilité d’Hélios pour l’ensemble des postes comptables dans le courant de la semaine prochaine [ndlr : cette semaine, donc] », expliquait Éric Barbier vendredi dernier à Acteurs Publics. Au pire, la direction envisageait de rejouer la paie du mois précédent, comme elle l’a déjà fait au moment des confinements dus à la pandémie de Covid-19.
Selon les informations apportés aux syndicats, les collectivités dont les données sont stockées sur le serveur de Versailles auraient vu, depuis la fin de la semaine dernière, leur situation se débloquer.
En aout 2025, la DGFiP a publié [PDF] son schéma directeur du numérique pour structurer ses grandes orientations stratégiques. On peut y lire qu’elle prévoit de moderniser le système d’information comptable du secteur public local et hospitalier avec le projet « Helios 2 », mais les collectivités risquent d’attendre quelques années puisque le déploiement du projet n’est prévu qu’en 2030 :
Sur des VPS, Ionos propose des cœurs AMD EPYC récents, permettant ainsi d’avoir de très bonnes performances sur la partie CPU lors de nos tests. Le réseau, le stockage et la mémoire tiennent aussi la route. Si vous cherchez un VPS pas cher, faut-il craquer pour Ionos ? Réponse dans notre test avec mesures de performances et tour d’horizon des options proposées.
Après avoir testé trois VPS à moins de 5 euros par mois, et suite à vos retours notamment dans les commentaires, nous avons décidé d’élargir nos chakras avec plus d’hébergeurs. Notre protocole de test reste le même, mais nous l’avons enrichi de nouvelles mesures.
Nous détaillons désormais chaque VPS dans un article dédié, pour plusieurs raisons. Cela nous permet de lister un peu mieux les fonctionnalités et les options, mais aussi de revenir en détails sur les points forts et faibles de chaque hébergeur, et ils sont nombreux.
Notre VPS du jour chez Ionos exploite un CPU récent AMD EPYC alors que les autres sont principalement sur de vieux Xeon Intel. Les performances sont donc d’un autre monde. Dans nos prochains articles à venir, nous étudierons également le cas de LWC et YokrHost avec de la virtualisation LXC (permettant de regarder ce qu’il se passe au niveau de l’hôte), PusleHeberg qui a des soucis de CPU Steal, certains comme Hetzner qui sont moyens partout, etc.
Revenons donc à Ionos, une société allemande qui propose des noms de domaine (c’était le deuxième sur le .fr dans notre analyse de 10 millions de noms de domaine), de l’hébergement, des serveurs dédiés ainsi que des VPS. C’est cette dernière catégorie qui nous intéresse aujourd’hui.
Des VPS XS à 1,2 euro au XXL à 35,40 euros
La gamme, sans engagement, va du VPS XS avec 1 vCore, 1 Go de mémoire et 10 Go de stockage NVMe à 1,20 euro par mois, au VPS XXL avec 12 vCore, 24 Go de mémoire et 720 Go de stockage pour 35,40 euros par mois. Comptez aussi 12 euros de frais de configuration pour une location sans engagement. Ils sont offerts et des remises sont proposées si vous prenez un VPS avec un engagement de 12 ou 24 mois minimum.
Nous avons pris l’offre VPS M, qui nous coute donc 5,40 euros par mois sans engagement, auxquels il faut ajouter 12 euros de frais de mise en service. La première facture est donc plus salée avec 17,40 euros pour un mois, 5,40 par mois ensuite. Si nous avions souscrit un engagement d’un an, nous n’aurions eu à payer que 4,8 euros par mois, soit 57,6 euros sur un an. Sur deux ans, nous aurions été à 3,6 euros par mois, soit 86,4 euros sur 24 mois. Ionos propose une offre de test gratuite pendant 30 jours.
La configuration que nous avons sélectionnée propose 4 vCore, 4 Go de mémoire et 120 Go de stockage NVMe. Toutes les offres viennent avec un « trafic illimité avec une bande passante de 1 Gb/s ». Le choix de l’emplacement géographique du serveur est : Europe, Allemagne, Espagne, États-Unis et Royaume-Uni.
Le fabricant annonce une disponibilité de 99,99 %, sur des serveurs Dell Entreprise avec « la dernière génération de processeurs AMD et Intel », ce qui ne veut pas dire grand-chose en l’état. Côté système d’exploitation, les plus récents sont Ubuntu 24.04, Rocky 9, Debian 12 et Alma 9. Des sauvegardes sont disponibles en option pour 8,40 euros par mois pour 100 Go et 3 dispositifs maximum.
Des cœurs CPU AMD EPYC pour notre VPS… mais quid des autres ?
Comme trop souvent, l’entreprise ne donne pas plus de détails sur le CPU des serveurs, c’est pourtant un point important, d’autant que, spoiler alert, lors de notre test l’hébergeur était le meilleur du comparatif grâce à un CPU effectivement récent sur l’hôte (la machine physique qui héberge notre serveur virtuel)
Nous avons contacté le service client un soir à 19 h, via le chat intégré sur le site, mais le conseiller (humain), nous affirme que « pour mettre le contrat serveur en place, je suis dans l’obligation de vous appeler. Il s’agit d’une mesure de sécurité ». Au téléphone, il nous réaffirme que même pour un renseignement cela passe par téléphone car « c’est la loi Ionos ». Passons rapidement sur la réponse fournie : c’est un CPU « SQL Server 2019 ».
Face à notre incompréhension il nous conseille de rappeler le lendemain dans la journée pour avoir des spécialistes. Nous le faisons. Cette fois-ci la demande est parfaitement comprise, mais le service client ne peut pas nous préciser quel type de CPU se cache derrière les vCore, ni même si ce sont toujours les mêmes. C’est tout le problème des VPS (pas que chez Ionos) : les hébergeurs parlent de cœurs virtuels et peuvent mettre n’importe quoi derrière. On se rend bien compte qu’un famélique cœur d’Atom sera à mille lieues d’un cœur Zen 5 d’un EPYC de dernière génération. Pourtant, dans les deux cas, c’est un « vCore ».
Lors de nos tests (via la commande lscpu), le VPS nous retourne comme information un AMD EPYC Milan, un processeur avec une architecture Zen 3. Ce processeur est récent, bien plus que les Xeon Haswell et Broadwell qui alimentent les autres VPS que nous avons testés.
Par contre, et c’est un problème majeur pour choisir son VPS, il est impossible de savoir si tous les VPS sont en EPYC Milan. Ionos ne s’engage en rien sur sa page dédiée et son service client nous confirme que nous n’aurons pas plus de précisions. Une fois les cœurs attribués à notre VPS, ils ne devraient cependant pas changer en cours de route.
Ionos face à la concurrence d’un seul coup d’œil
Dans le cadre de ce dossier, nous avons lancé des benchs sur une petite dizaine de VPS. Afin de vous permettre de voir d’un coup d’œil comment se place Ionos face à la concurrence sur quelques indicateurs clés – CPU, mémoire, stockage, réseau et benchs synthétiques (Geekbench et Unixbench) –, voici un diagramme de Kiviat (ou en radar, en étoile).
En pointillé, la moyenne de tous les VPS, en vert le placement du VPS d’Ionos. On voit qu’il arrive en tête sur le CPU, la mémoire et les benchs synthétiques (merci les cœurs EPYC d’AMD). Sur la partie réseau et stockage, l’hébergeur est un peu au-dessus de la moyenne.
Premier sur Sysbench, 7-Zip, CoreMark, Geekbench, Unixbench
Avoir un AMD EPYC aux commandes change la donne : le VPS explose littéralement la concurrence sur Geekbench avec 1 288 points sur un seul cœur et 3 892 sur quatre. Les autres VPS sont généralement entre 700 et 1 000 points sur un seul cœur. Notre vPS Ionos sur un seul cœur se place au niveau de Hetzner et de HelloServ avec deux vCore.
Même constat sur Sysbench, 7-ZIP, CoreMark, OpenSSL… et les tests CPU de manière générale, Ionos fait des étincelles. C’est simple, sur notre indicateur global des performances du CPU seulement, il fait deux fois mieux qu’OVHcloud qui a également quatre vCore.
Sur la mémoire aussi les résultats sont bons, tandis que sur les tests FIO en lectures et écritures aléatoires et séquentielles sur le stockage l’entreprise allemande ne se démarque pas vraiment de la concurrence et reste dans le ventre mou des VPS. C’est dans tous les cas suffisant pour un VPS aux alentours de 5 euros par mois.
Un réseau rapide, plus de 2 Gb/s en téléchargement
Sur la partie réseau, Ionos a évidemment une meilleure latence en Allemagne (sur un ping Francfort), mais reste en retrait par rapport à OVHcloud sur la France (ping à Paris). Logique, puisque la localisation des serveurs joue un rôle important et que notre VPS Ionos est en Allemagne.
Sur les téléchargements, malgré l’annonce d‘un réseau limité à 1 Gb/s, nous sommes montés bien au-delà pour récupérer des fichiers de 1 et 10 Go sur les serveurs de Free, avec une moyenne à 2,6 Gb/s.
Un excellent choix, à condition d’avoir des cœurs EPYC
De manière générale, Ionos laisse sur place la concurrence sur les performances pures en CPU, en étant bon sur la partie mémoire. Sur les benchmarks globaux, Ionos arrive en tête de UnixBench et GeekBench. Seul problème : impossible de savoir quels cœurs se cacheront derrière vos vCore si vous louez un VPS maintenant. L’offre satisfait ou remboursé pendant 30 jours permet de tester le service.
Si l’on reprend le détail des tests menés sur notre VPS Ionos, on remarque que les résultats sont très stables avec seulement un écart de 2,8 % entre la moyenne et la valeur la plus éloignée de chaque test. Si on enlève la partie réseau (les pings et téléchargements sont plus volatiles), alors la moyenne des écarts passe sous les 2 %. Chaque test est, pour rappel, effectué cinq fois (oui, cela prend des heures), puis nous éliminons le minimum et le maximum de chaque test pour ensuite établir la moyenne.
Nous avons lancé des sessions de plusieurs heures (de jour comme de nuit) de montée en charge du CPU avec des relevés afin de vérifier s’il n’y avait pas de CPU Steal. Rien à signaler sur ce point, les cœurs qui nous ont été attribués étaient bien disponibles pour notre seule utilisation.
Initialement attendue le 11 février dernier, la première bêta d’Android 17 est finalement parue vendredi 13 février. Son installation est désormais possible sur tous les téléphones Google compris entre le Pixel 6 (sorti en 2021) et les derniers modèles en date, à savoir les différentes déclinaisons du Pixel 10.
« Cette version prolonge nos efforts pour rendre les applications Android plus adaptables, introduit des améliorations significatives au niveau de l’appareil photo et des possibilités multimédia, de nouveaux outils pour optimiser la connectivité et des profils étendus pour les appareils compagnons », annonce Matthew McCullough, vice président en charge du product management au sein de l’équipe Android.
L’équipe précise à cette occasion le calendrier prévisionnel de sortie d’Android 17, avec une phase de bêta réduite à seulement quelques semaines, pour livrer aux développeurs une version considérée comme stable dès le mois de mars. « À cette étape, nous livrerons les API finales des SDK/NDK ainsi que la plupart des comportements définitifs de l’application. Vous disposerez ensuite de plusieurs mois avant la publication de la version finale pour finaliser vos tests », indique Google.
La version stable destinée aux développeurs est attendue pour mars
La liste des nouveautés annoncées pour Android 17 témoigne de cette volonté de rationaliser et d’harmoniser un écosystème qu’on présente souvent comme moins bien intégré que celui d’Apple. Le SDK associé exclut par exemple l’option qui permettait aux développeurs de désactiver les restrictions d’orientation et de redimensionnement sur les appareils à grand écran.
« Les utilisateurs s’attendent à ce que leurs applications fonctionnent partout — que ce soit en multitâche sur une tablette, en dépliant un appareil ou en utilisant un environnement de bureau à fenêtres — et ils s’attendent à ce que l’interface utilisateur remplisse l’espace et respecte la position de leur appareil », prévient Google. De quoi sans doute préparer le terrain à Aluminium OS, le nom de code que l’entreprise donnerait à la version PC d’Android ?
Android 17 bêta 1 incarne pour mémoire le changement de logique opéré l’an dernier par Google quant à la mise à disposition des versions de test de son système d’exploitation mobile. Android a en effet abandonné son modèle historique de Developer Preview (avec des versions individuelles à installer à la main) pour passer vers un canal de distribution Canary. Parallèle au canal officiel (dédié aux versions stables), il permet de recevoir les nouvelles préversions sous forme de mises à jour, avec une installation simplifiée.
Le SDK final, qui porte les nouveautés, est attendu au deuxième trimestre, avec une mise à jour mineure programmée en fin d’année
Sam Altman a annoncé dimanche le recrutement de Peter Steinberger, le créateur du phénomène OpenClaw. Peter Steinberger « rejoint OpenAI pour piloter la prochaine génération d’agents personnels ».
« C’est un génie qui regorge d’idées fascinantes sur l’avenir des agents intelligents interagissant entre eux pour accomplir des tâches très utiles. Nous prévoyons que cela deviendra rapidement un élément central de notre offre de produits », se réjouit le CEO d’OpenAI.
Le principal intéressé a lui aussi signalé son recrutement sur son propre blog. Il y explique qu’OpenClaw a selon lui le potentiel pour devenir une grande entreprise, mais affirme ne pas souhaiter s’engager dans cette voie de façon indépendante.
« Ce que je veux, c’est changer le monde, pas créer une grande entreprise, et m’associer à OpenAI est le moyen le plus rapide d’y parvenir pour tous », affirme-t-il. Dans son billet, il raconte avoir rencontré ces derniers jours les principaux laboratoires d’IA de la région de San Francisco, et les remercie pour leurs propositions.
Logo OpenClaw
Si Peter Steinberger a été aussi courtisé, c’est bien sûr en raison de l’ascension fulgurante de son assistant IA. Lancé fin 2025 sur Github sous licence MIT (et d’abord baptisé Clawdbot avant d’être renommé Moltbot, puis OpenClaw), cet agent IA a vocation à réaliser de façon autonome les tâches que lui confie son utilisateur, en s’appuyant sur les grands modèles de langage du marché (ChatGPT, Claude etc.). L’outil est particulièrement puissant, mais il faut être prudent dans sa mise en œuvre, dans la mesure où l’on peut lui ouvrir un accès complet à ses fichiers et donc à ses données personnelles.
Altman et Steinberger ont tous deux affirmé ce week-end qu’OpenClaw poursuivrait son chemin en tant que projet indépendant. Le projet devrait être confié à une fondation que soutiendra OpenAI, et resterait donc open source.
« La communauté autour d’OpenClaw est extraordinaire et OpenAI s’est fortement engagée à me permettre de m’y consacrer pleinement, en sponsorisant déjà le projet. Afin de structurer correctement ce projet, je travaille à en faire une fondation. Celle-ci restera un lieu d’échange pour les penseurs, les développeurs et tous ceux qui souhaitent maîtriser leurs données, avec pour objectif d’accompagner encore plus de modèles et d’entreprises », promet Peter Steinberger.
Ce recrutement intervient quelques jours après qu’OpenAI a annoncé mettre fin à son équipe dédiée à « l’alignement de la mission » de l’entreprise, sur fond de dissensions internes quant à l’introduction de la publicité au sein de ChatGPT ou l’introduction d’une fonctionnalité érotique.
Dans le bilan annuel de sa plateforme J’alerte l’Arcep, l’autorité constate une augmentation très importante des signalements par rapport à l’année d’avant. Celle-ci est notamment due aux appels et messages non sollicités pour lesquels elle a récemment lancé une enquête auprès de tous les opérateurs.
L’année dernière nous parlions déjà d’une explosion des appels et messages abusifs pour 2024. Mais les choses ne se sont pas arrangées.
Au contraire. Comme les chiffres de l’Arcep du bilan annuel [PDF] de sa plateforme J’alerte l’Arcep le montrent, c’est une nouvelle accélération des signalements que l’Autorité constate. Elle recense 70 516 signalements en 2025, soit 23 % de plus qu’en 2024.
Un harcèlement généralisé d’appels et messages non sollicités
En cause, notamment, l’énorme augmentation des signalements d’appels et messages non sollicités (+ 12 416). Ils représentent maintenant un tiers des signalements à l’Arcep. « La hausse du nombre d’alertes des consommateurs pour cette catégorie se confirme depuis 2023 (+ 1052% en deux ans) », commente l’autorité. L’usurpation de numéro connait aussi une très forte croissance :+ 123% entre 2024 et 2025, soit 10 643 signalements supplémentaires par rapport à 2024.
Le baromètre de la satisfaction des utilisateurs que publie [PDF] en parallèle l’Arcep avec l’institut de sondage CSA indique, lui, que 43 % des utilisateurs auraient subi au moins une fois une usurpation de leur numéro de mobile au cours des trois derniers mois et 29 % de leur numéro de téléphone fixe. Ce sondage a été effectué entre le 23 septembre et le 10 octobre 2025, sur échantillon de 4 029 consommateurs âgés de 18 ans et + disposant d’un accès à Internet dans leur foyer ou d’un téléphone mobile à titre personnel.
Ça explique, s’il le fallait, que l’autorité ait ouvert récemment une enquête contre l’ensemble des opérateurs pour comprendre comment passent encore les appels frauduleux alors que l’autorité leur a fait mettre en place des protections il y a plus d’un an.
Signalements : Free toujours en tête, mais une hausse générale
Concernant les opérateurs, Free ne semble pas avoir pris en compte le bilan de l’année dernière puisque l’entreprise se distingue toujours, sur le fixe comme sur le mobile, avec un nombre d’alertes en hausse sur les deux réseaux. L’Arcep constate, cela dit, une augmentation des alertes sur les quatre opérateurs.
Pourtant, le baromètre de la satisfaction des utilisateurs indique, lui, une consolidation de « sa progression mesurée les années précédentes » concernant les opérateurs mobiles. L’autorité remarque notamment que cette hausse est « particulièrement tirée par les abonnés SFR qui confirme sa dynamique entamée en 2024, même si le niveau de satisfaction reste inférieur, comme celui des abonnés Bouygues Telecom, à ceux de Free et Orange ».
Pas d’amélioration concernant les déploiements fixes
Parmi les alertes télécoms (fixe et mobile), le fixe reste très largement majoritaire (82%), mais le nombre de signalements relatifs à son marché « est relativement stable depuis 2024, pour environ 34 500 alertes par an en moyenne sur les deux dernières années ».
Le nombre d’alertes sur les réseaux hors fibre, lui, décroît toujours petit à petit, ce qui est probablement lié à la baisse du nombre d’abonnés sur ce réseau. Celui des signalements sur la fibre optique augmente légèrement (+ 1 594 alertes soit 5%).
Le baromètre Arcep/CSA indique que 72 % des abonnés ADSL savent que ce réseau sera prochainement fermé (progressivement entre 2025 et 2030), « les abonnés Free restent les moins informés » :
Concernant les signalements sur le déploiement du réseau, l’Arcep a créé (en mars 2025) une nouvelle sous-catégorie pour ranger les problèmes concernant l’adressage et la cartographie, ce qui fait mécaniquement baisser l’insatisfaction de la couverture et l’attente très haut débit.
Le déploiement mobile fait face à une hausse des alertes
Côté mobile « grand public », les signalements « sont en hausse de 25% par rapport à 2024 en volume d’alertes reçues et en hausse de 3 points en pourcentage du total des alertes télécoms reçues (fixe et mobile) », explique l’Arcep. Leur thème principal est le « déploiement des réseaux » : « le volume d’alertes représentant cette thématique au sein du marché mobile est en forte hausse de 70% (+ 1875 alertes) ».
Selon le baromètre Arcep/CSA, un quart seulement des consommateurs possédant un téléphone mobile déclare avoir été informé de la fermeture prochain des réseaux 2G/3G par son opérateur :
Lentement, mais sûrement : l’équipe en charge du développement de Vim, éditeur de texte de référence de la scène GNU/Linux, a livré samedi la version 9.2 du logiciel, deux ans après la sortie de la 9.1, et quatre ans après la publication de la 9.0.
Outre des améliorations « significatives » apportées à son langage de script et l’arrivée d’un nouveau plugin de tutorat, Vim 9.2 s’enrichit d’un nouveau mode de complétion automatique avec possibilité de compléter des mots depuis des registres et prise en charge de la correspondance approximative (« fuzzy matching »).
Résumé des principales nouveautés de Vim 9.2
Le mode dédié à la comparaison de fichiers évolue quant à lui avec de nouvelles possibilités en matière de mise en évidence des différences à l’échelle de la ligne et de création de zones. L’interface s’enrichit d’un mode vertical pour l’affichage des onglets. Sous Windows, elle gagne une meilleure prise en charge du thème sombre et de l’affichage plein écran.
Le logiciel introduit par ailleurs la prise en charge « complète » de Wayland. Comme Firefox 147, il est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »).
Vim 9.2 est dès à présent disponible au téléchargement depuis le site officiel, où l’on pourra également consulter le détail des notes de version, qui incluent également de nombreux correctifs de sécurité et de performance. De quoi relancer, peut-être, le dilemme du choix entre Vim et Neovim, ou donner envie aux adeptes de programmer une nouvelle réunion TupperVim.