La Cour des comptes vient de mettre en ligne un rapport sur la filière des semi-conducteurs en France, en Europe et dans le monde. L’enjeu est important dans un monde où les enjeux géopolitiques et numériques ne cessent de s’entrechoquer, de plus en plus violemment. Si on parle régulièrement de souveraineté sur les données, la question se pose aussi sur le matériel et la fabrication des puces.
La Cour des comptes commence par rappeler une réalité : les puces électroniques sont partout. Elle donne quelques indicateurs : en moyenne une vingtaine dans une machine à laver, un millier dans une voiture et plusieurs milliers dans un avion.
La microélectronique « joue aujourd’hui un rôle clé dans les transitions numérique et environnementale et conditionne toute innovation industrielle stratégique, notamment dans les domaines de la défense, de l’intelligence artificielle et du quantique ».
Des investissements records dans la microélectronique
Alors que le budget de la recherche du CNRS est en baisse en France avec un risque de rupture, qu’en est-il de la filière industrielle française et de sa place dans le monde ?
Sans être le seul nerf de la guerre, l’argent est une des principales artères du développement des puces et des usines de fabrication, les fameuses « fabs ». La microélectronique présente « le ratio d’investissement rapporté au chiffre d’affaires le plus élevé (ce ratio est en moyenne de 7 % pour l’industrie, il est de 20 % pour la microélectronique) », note le rapport.
La fabrication des puces repose « sur une chaîne de valeur mondialisée et très éclatée, à tel point qu’aucun pays au monde n’est à ce jour en mesure de fabriquer à lui seul la totalité d’une puce ». Ce secteur n’est plus depuis longtemps seulement un enjeu technique, mais très fortement géopolitique, avec deux blocs en opposition : les États-Unis et la Chine, sans oublier Taïwan et ses usines de fabrication.
L’Europe et la France entre le marteau américain et l’enclume asiatique
Il reste 83% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Microsoft prend son temps et le temporaire a vite fait de s’installer pour quelques années, voire décennies, dans le cas de la limitation FAT32 à 32 Go dans Windows. Après les Insiders sur le canal Canary, Microsoft fait sauter cette limite sur les canaux Dev et Beta.
Marty, va chercher la DeLorean et rendez-vous en 1996. C’est en effet il y a 30 ans que le système de fichiers FAT32 débarque officiellement pour remplacer FAT12 et FAT16. Ces deux derniers utilisent respectivement des adresses sur 12 et 16 bits, FAT32 est donc en… 32 bits 28 bits. exFAT est venu mettre tout le monde d’accord avec une limite de 128 Po.
FAT32 : 2 To selon les organisateurs, 32 Go pour Microsoft
Qu’importe, FAT32 est une « révolution » pour l’époque avec des fichiers jusqu’à 4 Go maximum et des volumes de 2 To. D’autres limitations sont de la partie : 268 435 456 fichiers au maximum et 65 534 fichiers par dossier (pourquoi pas 65 536 ? Car deux entrées sont réservées pour les dossiers courant et parent).
Windows 95 utilisait le FAT16 à son lancement, puis est arrivé le FAT32 avec la version OSR2 (OEM Service Release 2). Enfin, l’implémentation maison de Microsoft puisque les outils intégrés à Windows ne permettaient pas de dépasser… 32 Go en FAT32. Pourquoi 32 Go ?
« La carte mémoire que j’utilisais pour les tests était de 16 Mo. C’était la plus grande que j’avais pu trouver. Peut-être ai-je multiplié sa taille par mille et que je l’ai ensuite doublée pour faire bonne mesure ; et j’ai pensé que cela suffirait amplement pour la durée de vie de NT 4.0. J’ai choisi une capacité de 32 Go comme limite et j’ai continué ma journée. Je n’ai commencé à regretter mon choix que des années plus tard lorsque les cartes SD ont atteint 32 Go ».
Il pensait alors que cette limite de 32 Go serait temporaire… mais il se trompait.
2 To en FAT32 dans Windows depuis 2024… pour les Insiders Canary
Mais Microsoft a déjà aboli cette limite de 32 Go dans Windows, non ? Oui, Next en parlait d’ailleurs en aout 2024. Mais cela ne concernait alors que le canal Canary Insider de Windows 11 (27686). Presque deux ans plus tard, Microsoft revient à la charge avec de nouveau une annonce autour de FAT32 et l’augmentation des volumes de 32 Go à 2 To. La nouveauté ? Cela concerne Windows 11 sur le canal Dev (26300.8170) et le canal Beta (26220.8165) du programme Insider.
Il y a quelques jours, Microsoft a décidé de faire un peu de simplification dans ses canaux Insiders. Désormais, « Expérimental remplace les anciens canaux Dev et Canary […] La version Beta est une mise à jour de l’ancienne version Beta qui donne un aperçu de ce que nous prévoyons de déployer dans les semaines à venir. Le plus gros changement : nous mettons fin au déploiement progressif des fonctionnalités en version bêta ».
La fin de la limite temporaire de 32 Go en FAT32 dans Windows a donc pris 28 ans pour arriver sur la branche Canary, puis presque deux ans de plus pour descendre sur le canal Dev et Beta. Cela signifie que pour le moment le grand public sous Windows 11 « classique » ne peut toujours pas en profiter. Les paris sont ouverts sur l’attente…
Quatre ans et demi après la version 3.0, OpenSSL passe en version 4.0. Attention, ce n’est pas une version LTS, elle n’est donc supportée que jusqu’en mai 2027, contrairement aux moutures 3.0 et 3.5 qui sont respectivement prises en charge jusqu’en septembre 2026 et avril 2030.
La prochaine LTS est prévue pour avril 2027, le temps certainement de stabiliser les fonctionnalités et de s’assurer d’avoir une base solide.
La liste des changements et des nouveautés est disponible sur GitHub. OpenSSL 4.0 prend en charge Encrypted Client Hello (RFC 9849) qui « permet aux clients de chiffrer le Client Hello avec le serveur TLS », renforçant ainsi la confidentialité. Sur son blog, le spécialiste des réseaux Stéphane Bortzmeyer explique l’intérêt et le fonctionnement de cette fonctionnalité :
« Quand un client TLS se connecte, il envoie en clair au serveur le nom de domaine utilisé, le serveur ayant besoin de cette information pour choisir le bon certificat qui servira pour choisir les paramètres de chiffrement qui protégeront le reste de la session. Cet envoi en clair pose un problème de vie privée, et est parfois utilisé pour la censure, par exemple en Russie. Il faut donc chiffrer ce nom annoncé, ce SNI. Mais avec quelle clé, puisqu’on a besoin du nom pour avoir une clé ? Ce RFC fournit un mécanisme pour cela, ECH (Encrypted Client Hello), qu’on pourrait traduire par « salutation chiffrée » ».
Parmi les autres nouveautés, « la prise en charge de la RFC 8998, de l’algorithme de signature sm2sig_sm3, du groupe de clés curveSM2 et du groupe post-quantique curveSM2MLKEM768 ». Il est aussi question de la fin du support du Client Hello SSLv2 et de SSLv3 (qui était déprécié et désactivé par défaut depuis presque 10 ans).
WireGuard pour Windows passe enfin en version 1.0. Le développeur explique avoir trouvé une solution de contournement pour deux « épines » qu’il avait dans le pied… Il s’agit dans les faits de contourner deux problèmes rencontrés sur Windows (et non corrigés par Microsoft). L’un d’entre eux est qualifié de « bombe à retardement ».
Mars 2020 : WireGuard passe en 1.0 sous Linux et s’intègre dans le noyau
Six ans… c’est le décalage entre la version 1.0 de l’application VPN sous Linux et Windows. C’est en effet fin mars 2020 que WireGuard est passé en 1.0 sous Linux, en même temps que son intégration pour la première fois dans le noyau de Linux (5.6 à l’époque), comme l’expliquait alors le développeur de l’application, Jason A. Donenfeld.
Ce week-end, en avril 2026, autre annonce, toujours par Donenfeld : WireGuard pour Windows et WireGuardNT, Version 1.0. « Je suis heureux d’annoncer la sortie de la version 1.0 de WireGuardNT et WireGuard pour Windows. Les derniers obstacles à la version 1.0 ont enfin été surmontés, et je suis ravi d’avoir franchi cette étape », indique-t-il.
Deux « irréductibles » bugs résistaient encore et toujours
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La semaine dernière était chargée pour la Commission européenne dans sa lutte contre les géants américains du Net. Elle a tout d’abord renvoyé Meta dans ses cordes sur la question des assistants d’IA tiers de WhatsApp, puis elle a proposé des mesures à Google sur le partage des données de son moteur de recherche.
Fin 2025, la Commission européenne ouvrait une procédure formelle contre Meta en matière de pratiques anticoncurrentielles sur la question de l’accès des fournisseurs d’IA à WhatsApp. Début février, dans ses conclusions préliminaires, elle a estimé que « Meta a enfreint les règles de l’UE en matière de pratiques anticoncurrentielles en empêchant les assistants d’intelligence artificielle (IA) tiers d’accéder à WhatsApp et d’interagir avec ses utilisateurs ».
L’Europe retoque la proposition de Meta et prépare des mesures provisoires
Le 2 mars 2026, Meta répondait à la Commission européenne et, deux jours plus tard, l’entreprise publiait « une version révisée de sa politique, qui annule l’interdiction mais introduit un cadre tarifaire applicable aux assistants d’IA tiers à usage général ».
Insuffisant pour la Commission, qui estime que la « nouvelle politique semblait avoir le même effet d’exclusion des assistants d’IA tiers de WhatsApp ». Elle « semblait donc, à première vue, contraire aux règles de concurrence de l’UE ».
Selon l’analyse préliminaire de la Commission, les risques sont les mêmes : « bloquer l’entrée ou le développement de ses concurrents sur le marché en croissance rapide des assistants d’IA ». Elle envoie donc à Meta une nouvelle série de griefs.
Mais elle a également l’intention d’imposer à l’entreprise de Mark Zuckerberg des mesures provisoires afin d’empêcher « ces changements de politique de causer un préjudice grave et irréparable sur le marché ».
Meta peut maintenant répondre. Si les mesures provisoires devaient entrer en vigueur, elles resteraient en place jusqu’à la fin de l’enquête.
Search : la Commission veut que Google partage ses données…
Il reste 58% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Faire dire ce qu‘on fait. et essayer de faire ce qu’on a fait dire
« Moi aussi, moi aussi, moi aussi » ! C’est la première réaction que nous avons eue face aux récentes « fuites » des plans d’OpenAI pour contrer Mythos d’Anthropic. L’entreprise de Sam Altman veut marquer sa différence sur deux plans – la puissance de calcul et les performances – tout en copiant Anthropic avec un nouveau palier intermédiaire à 100 euros par mois.
Anthropic roi de la com’ sur Claude ?
Anthropic sait jouer avec les médias – certains diraient manipuler –, c’est une certitude. Nous l’avons d’ailleurs longuement expliqué dans une précédente actualité sur les annonces « sensationnelles » des derniers mois et la « fuite » de plusieurs milliers de documents sur Mythos.
La fuite de Claude Code était différente puisqu’elle ne fait pas seulement le jeu d’Anthropic mais aussi celui de ses concurrents qui peuvent étudier de près le fonctionnement de l’IA générative. Cette fois-ci, Anthropic avait tenté en vain de faire retirer le code source, alors qu’elle surfait gentiment sur la fuite de Mythos. Deux salles, deux ambiances.
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Google et Oracle proposent des VM gratuites, sans limite de durée. Elles sont chiches en caractéristiques techniques, mais c’est largement suffisant pour installer un gestionnaire de mots de passe comme Vaultwarden, et ainsi en profiter gratuitement. Next vous explique les conditions et détaille la procédure.
Nous avons déjà présenté plusieurs hébergeurs proposant des VPS (d’autres arrivent) pour une poignée d’euros par mois, de quoi disposer d’un petit serveur à moindre coût pour héberger quelques projets. Nous avons aussi mis en ligne un tuto pour renforcer la sécurité face aux milliers d’attaques que subissent les machines chaque jour.
Mais il existe aussi des offres gratuites. Oui, vraiment gratuites dans le sens où elles n’ont pas une durée ou un montant prédéfini. Attention, cela ne veut pas dire pour autant qu’elles seront éternellement gratuites, les conditions peuvent évoluer et changer.
Dans le domaine des VPS, Google et Oracle proposent tous les deux des machines virtuelles gratuites. Il y a quelques points communs, notamment l’absence de support technique (les forums communautaires restent accessibles), mais les caractéristiques techniques et conditions d’utilisation sont bien différentes entre les deux. Oracle est le plus strict et se réserve notamment le droit de récupérer des instances qu’il juge « inactives ». On vous explique.
Google Free Tier avec une instance de VM e2-micro gratuite
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Depuis quelques années, les fuites de données s’enchainent à vitesse grand V et les institutions officielles ne sont pas épargnées. Le gouvernement vient de mettre en ligne sa feuille de route des efforts prioritaires en matière de sécurité numérique de l’État. Elle comporte une quarantaine d’actions à mettre en place cette année.
Dès son introduction, le document – validé en concertation interministérielle – revient sur « les multiples intrusions et fuites de données qui ont affecté en 2025 les systèmes d’information des ministères et des établissements dont ils ont la tutelle ». Ces failles et fuites rappellent, s’il en est besoin, « la persistance de vulnérabilités graves dans l’ensemble de ces infrastructures ». Le document du jour vise à y apporter une réponse…
Conseiller numérique obligatoire et anticipation de NIS 2
Premier point du document : renforcer la gouvernance. Chaque ministère devra ainsi désigner un conseiller numérique en charge de la cybersécurité « dans le mois suivant la nomination du ministre »… de quoi éviter des blancs en cas de changements a répétition. Les ministères devront aussi s’assurer que la cybersécurité soit bien prise en compte à tous les niveaux. Avant le 30 juin 2026, ils devront ainsi avoir formalisé « une politique d’audit et de contrôle des systèmes d’information ». La mise en œuvre est programmée pour le 31 décembre 2026.
En vue de NIS 2, qui va bien finir par passer le cap de l’Assemblée nationale un jour ou l’autre, la politique de sécurité des systèmes d’information de l’État devra être mise à jour, au plus tard au premier trimestre 2027, pour « intégrer en anticipation le référentiel de règles ayant vocation à s’appliquer aux entités essentielles que créera NIS 2 ».
Sur l’homologation des systèmes d’information, la feuille de route précise que « tout système faisant l’objet d’une migration sur le cloud devra être considéré comme un nouveau système d’information et donc faire l’objet d’une homologation ». Avec le cloud dominé par des acteurs américains, cela soulève aussi des questions de souveraineté. La qualification SecNumCloud de l’ANSSI permet de s’assurer de l’étanchéité aux lois extraterritoriales (notamment étasuniennes et chinoises), pour rappel.
Supply chain, mise à jour, authentification… rappel des basiques
C’est dans l’air du temps avec les attaques qui se multiplient contre la « supply chain », le document demande aux ministères de mettre en place, d’ici au 30 juin 2026, « une politique de contrôle de la chaîne d’approvisionnement ».
Sur la question des mises à jour, ils devront définir des procédures d’installation des correctifs de sécurité d’ici au 30 juin 2026 et les mettre en œuvre avant la fin de l’année. Il est aussi question de « renforcer l’authentification et la gestion des accès ».
Autre mesure importante (et on pourrait presque dire qu’il est temps) : « Mettre en place d’ici le 31 décembre 2026 une authentification multi-facteur de l’ensemble des administrateurs de systèmes d’information ». Avec la gestion des mises à jour, ce sont des points basiques, qui devraient déjà être en place… mais force est de constater qu’il reste encore du travail. Le détail des manquements détaillé par la CNIL suite à la fuite et condamnation de France Travail par CNIL (5 millions d’euros d’amende) en est une preuve.
La feuille de route prévoit aussi de déployer « des dispositifs avancés de détection des attaques (EDR ou XDR) sur l’ensemble des postes de travail et sur l’ensemble des serveurs » avant la fin de l’année. Les ministères doivent aussi tester au moins une fois par an les plans de reprise d’activité.
Après un incident important (dont la définition reste à préciser), le ministère impacté « aura pour obligation de suivre les recommandations de l’ANSSI, puis 6 mois après l’incident d’adresser un point de suivi à l’ANSSI, au corps d’inspection et au Premier ministre ».
Vincent Strubel, patron de l’ANSSI, rappelait dans son bilan de la cybermenace en 2025 une autre réalité : le facteur humain et le « mode legacy » parfois laissé en place pour calmer la grogne des anciens utilisateurs. Nous avons « probablement devant nous un phénomène de coupure un peu brutale des systèmes un peu obsolescents », affirmait Vincent Strubel.
À surveiller de près : DNS, messageries et quantique
La feuille de route cible ensuite les DNS et messageries, utilisés par les pirates « pour introduire des codes malveillants dans les systèmes d’information » de l’État. Là encore, la feuille de route prévoit une action en deux temps : renforcer avant le 30 septembre 2026 la sécurité des DNS, « notamment par un recours accru au service interministériel DNS », et celle des systèmes de messagerie avant le 31 décembre 2026.
Dernier point, préparer la transition vers la cryptographie post-quantique. Pour rappel, la question n’est pas tant de savoir si un ordinateur quantique capable de casser des systèmes de chiffrement verra le jour, mais quand il sera opérationnel avec suffisamment de qubits.
Il est donc demandé aux ministères de faire cette année l’inventaire « de leurs données durablement sensibles pour lesquelles une mise en place de la cryptographie post-quantique sera prioritaire »… en espérant qu’elles n’aient pas déjà fuité, sinon c’est déjà trop tard.
Ils devront ensuite « déployer de la cryptographie post-quantique pour tous les systèmes d’information traitant d’information à diffusion restreinte avant fin 2030 ». Enfin, à partir de 2030, « ne déployer que des produits de chiffrement qui intègrent de la cryptographie post-quantique ».
L’ANSSI aussi a dévoilé sa feuille de route sur le post quantique, avec deux échéances. À partir de 2027 tout d’abord, l’Agence n’acceptera plus en entrée de qualification des produits de sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur quantique. Puis, à partir de 2030, « on recommandera et on imposera le cas échéant de ne plus acquérir de telles solutions ».
Quoi qu’il en soit, le « suivi opérationnel de la mise en œuvre de la feuille de route 2026 - 2027 sera assuré chaque mois en Comité interministériel de suivi de la sécurité numérique (CINUS), qui réunit les chaînes de sécurité des systèmes d’information des ministères sous l’égide de l’ANSSI ».
S3 Files : aux frontières du stockage, les données sont ailleurs
Amazon Web Services vient d’annoncer le lancement de S3 Files, « un nouveau système de fichiers qui connecte de manière transparente n’importe quelle ressource de calcul AWS à Amazon Simple Storage Service (S3) ». Cette solution utilise d’autres technologies Amazon (EFS par exemple) et ne fonctionne donc que sur le S3 d’Amazon, pas avec d’autres stockages « S3 compatibles ».
S3 est, pour rappel, du stockage objet lancé par Amazon il y a 20 ans et qui est depuis devenu un standard de fait largement utilisé à travers le monde. Next utilise du S3 par exemple pour le To de stockage offert avec votre abonnement (et plus en fonction de votre ancienneté). S3 a beau être lancé par Amazon, le stockage maison S3 déployé par les hébergeurs sur leur propre infrastructure ne dépend d’aucune manière d’Amazon, qui n’a donc aucun accès aux données.
Revenons au fonctionnement du stockage S3, qui utilise des objets et des buckets. Un objet représente n’importe quel type de donnée (texte, vidéo…) et les objets sont réunis dans des conteneurs appelés buckets. Pour aller plus loin, nous avons pour rappel publié un dossier complet sur l’histoire et le fonctionnement de S3.
Stockage S3 vs système de fichiers : des différences fondamentales
Le fonctionnement du stockage S3 est différent des systèmes de fichiers classiques sur plusieurs points, comme le rappelle Sébastien Stormacq d’AWS dans le billet d’annonce de S3 Files : « Mon analogie préférée était de comparer des objets S3 à des livres dans une bibliothèque (on ne peut pas modifier une page, il faut remplacer tout le livre) alors que des fichiers sur votre ordinateur peuvent être modifiés page par page ». Pour modifier quelques octets dans un objet de 5 Go, il faut réécrire la totalité des données.
Selon l’entreprise, son nouveau service est le premier à « offrir un accès complet et performant à vos données S3 par un système de fichiers ». Les modifications faites sur la version système de fichiers sont automatiquement répercutées dans le bucket S3 (et vice-versa), avec des contrôles sur la synchronisation. S3 Files peut être associé à plusieurs ressources, « permettant le partage de données entre les clusters sans duplication ».
Les buckets S3 sont ainsi accessibles depuis Elastic Compute Cloud (EC2), Container Service (ECS), Kubernetes Service (EKS) et des fonctions AWS Lambda. Dans sa foire aux questions, Amazon précise que seuls les « general purpose buckets » sont compatibles avec S3 Files, pas les Tables, Vectors ou « directory buckets ».
S3 Files surfe sur NFS 4.1 et utilise POSIX
Les objets S3 sont accessibles « sous forme de fichiers et de répertoires, prenant en charge toutes les opérations du Network File System (NFS) v4.1 + telles que la création, la lecture, la mise à jour et la suppression de fichiers ». Amazon ajoute que « S3 Files utilise les permissions POSIX pour les fichiers et les répertoires ».
Ce n’est pas juste une présentation sous la forme d’une arborescence comme peuvent déjà le faire des clients S3, mais un changement plus en profondeur pour avoir un « vrai » système de fichiers, avec la gestion qui va avec. L’accès simultané à des données est géré avec une cohérence NFS close-to-open.
Amazon revendique des performances élevées avec son S3 Files, qui est basé sur Amazon Elastic File System (EFS) avec une latence de l’ordre de la milliseconde pour les données actives, c’est-à-dire celles déjà présentes dans le cache de S3 Files.
La synchronisation peut prendre « quelques minutes »
Attention, par contre à la synchronisation des données avec S3 qui prend du temps, comme l’indique AWS dans son exemple : « Lorsque je fais des mises à jour de mes fichiers dans le système de fichiers, S3 gère et exporte automatiquement toutes les mises à jour sous forme de nouvel objet ou de nouvelle version d’un objet existant dans mon bucket S3 en quelques minutes. Les modifications apportées aux objets du bucket S3 sont visibles dans le système de fichiers en quelques secondes, mais peuvent parfois prendre une minute ou plus ».
S3 Files utilise AWS Identity and Access Management (IAM) pour la gestion des contrôles d’accès et du chiffrement, avec TLS 1.3 lors du transit et un chiffrement au repos via Amazon S3 managed keys (SSE-S3) ou une clé de l’utilisateur avec AWS Key Management Service (KMS). Le billet de blog donne des exemples et des détails techniques. De la documentation est disponible par là.
S3 Files est dès à présent disponible dans toutes les régions AWS. Le service n’est évidemment pas gratuit : « Vous payez pour la portion de données stockée dans votre système de fichiers S3, pour les opérations de lecture de petits fichiers et toutes les opérations d’écriture sur le système de fichiers, ainsi que pour les requêtes S3 lors de la synchronisation des données entre le système de fichiers et le bucket S3 ». Les tarifs sont détaillés sur cette page (en anglais seulement pour le moment).
Vous connaissez Mario Kart, la course de voitures version Nintendo. Mario Kart World, lancé en juin 2025, est le neuvième et actuellement dernier épisode de la franchise. « Une première dans l’histoire de la série, le jeu prend place dans un monde ouvert où tous les circuits sont interconnectés », rappelle Wikipédia.
Vous connaissez aussi certainement GeoGuessr, un jeu (lancé en 2013 et basé sur Google Maps) dans lequel il faut trouver l’endroit où l’on se trouve dans le monde à partir d’une image. Voici le mariage entre les deux avec Mario Kart World Guessr, de Mario Universalis.
Le principe est simple : une photo s’affiche et vous devez trouver son emplacement au plus près sur la carte, pour marquer jusqu’à 5 000 points par photo. Ce jeu est sorti durant l’été dernier avec une publication sur Reddit pour l’annoncer, mais il est remonté à la surface suite à un message publié par Nintendojo.
Trois ans après le rachat de Next par moji, le site et l’équipe continuent de se renforcer ! Une nouvelle plume rejoint la rédaction. Nous sommes désormais huit à vous proposer des contenus sur Next.
+ 1 dans la rédac’
Vous faisiez quoi le 23 mars à 19h17 ? Ferd, en toute détente, annonçait du nouveau à venir sur Next avec une « bonne surprise ». Ne feignez donc pas la surprise ce matin de voir une nouvelle plume – Mickaël Bazoge – signer des articles sur Next. Bonne nouvelle, il rejoint Next à temps plein à partir de cette semaine. Pour commencer, bienvenue !
Mickaël… ce prénom vous parle ? Rien d’étonnant, il a passé quelques années chez MacG puis chez 01Net (groupe Keleops) ; cela fait une vingtaine d’années qu’il parle de la tech, sous toutes ses formes. Sur Next, il couvrira une large variété de sujets dans la lignée de ce que nous faisons déjà… avec, selon l’humeur du chef, une pointe d’actualité autour du monde des jeux vidéo. Vous pouvez retrouver ses actus sur sa page profil.
Mickaël est basé à Montréal (au Canada, pas la petite commune dans l’Aude), il est donc en décalage de six heures par rapport à nous (son matin est notre après-midi) ; c’est pratique pour suivre les annonces aux États-Unis ! Comme l’ensemble de la rédac’, il est en télétravail.
+ 2 en deux ans avec l’arrivée d’Alex
L’équipe se renforce donc encore une fois. Depuis le rachat (et le sauvetage) de Next par moji, la rédaction a donc gagné deux journalistes : Alexandre Laurent arrivé durant l’été 2024 et maintenant Mickaël Bazoge. Tous les deux viennent en renfort de Jean-Marc Manach, Martin Clavey, Mathilde Saliou, Vincent Hermann et moi-même… sans oublier l’indécrottable Flock (en vacances cette semaine, pas de chronique samedi, mais celle de la semaine dernière compte double). Vincent est pour le moment en arrêt prolongé, et on lui souhaite de nous rejoindre dès que possible !
C’est un pari sur l’avenir car Next n’est pas (encore) à l’équilibre au niveau de ses comptes. Renforcer l’équipe et vous proposer toujours plus de contenus nous semble par contre indéniablement la bonne voie pour satisfaire nos abonnés et en recruter de nouveaux. Pour rappel, les abonnements – 8 euros par mois, ou 80 euros par an – sont notre seule source de revenus.
Next n’a aucune publication, aucun lien affilié ni aucun contenu sponsorisé depuis son rachat, pour l’ensemble de nos lecteurs. Pire, Next vous fait un cadeau avec votre abonnement : 1 To de stockage S3, en France, géré par moji, voire encore plus pour ceux qui disposent d’un compte depuis plusieurs années.
Jean-Marc nous en apprend tous les jours sur les fakes news alimentées par IA… saviez-vous par exemple qu’il était « interdit d’ouvrir ses fenêtres » ? Nous non plus… Reste que la liste des sites d’info générés par IA flaggués par notre extension vient aussi de franchir le cap des 12 300 sites GenAI !
Installer des grands modèles de langage sur un ordinateur, c’est facile. Les utiliser via un chatbot aussi, à condition d’avoir suffisamment de puissance et de mémoire disponibles. Voici un tuto pour en profiter chez vous en local, avec un rapide comparatif de performances entre un serveur avec 24 cœurs CPU et un autre avec un GPU. Les gains sont énormes.
Les intelligences artificielles génératives, on les connaît principalement via ChatGPT, Claude et autres Le Chat. C’est-à-dire via les chatbots proposés en ligne par les géants du secteur que sont OpenAI, Anthropic et le français Mistral.
Utiliser une IA générative en ligne, c’est accepter d’envoyer ses données…
Derrière, tournent de grands modèles de langage (LLM) avec, pêle-mêle, GPT, Claude Opus/Sonnet/Haiku, Mistral Large/Small, etc. Les requêtes sont envoyées en ligne, l’inférence se fait sur les serveurs des entreprises qui ont développé les LLMs et la réponse est ensuite retournée à votre machine.
Dans ce genre de cas, il faut accepter le fait que vos données sortent de votre ordinateur et se retrouvent en ligne, sur les serveurs d’autres sociétés. Ces données peuvent aussi servir à entrainer et/ou améliorer des modèles. En résumé, pour la confidentialité, on repassera. Il existe depuis longtemps une alternative : utiliser des IA génératives en local.
…mais c’est aussi possible en local, sans connexion Internet
Nous avons déjà détaillé dans un Nextquick pourquoi les cartes graphiques sont autrement plus performantes que les CPU dans ce genre de situation. La réponse tient en un mot : matrice. Pour rappel, une simple requête à ChatGPT et c’est déjà des centaines de milliards de calculs pour avoir une réponse.
Quand il s’agit de faire tourner des IA génératives en local, un autre paramètre à considérer est la quantité de mémoire disponible. En effet, il faut charger les poids et paramètres du modèle en mémoire vive… et cela commence rapidement à chiffrer quand on parle de milliards de paramètres, voire des dizaines ou des centaines de milliards de paramètres.
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Juste avant le week-end prolongé de Pâques, Google a lancé son nouveau modèle Gemma 4, en open source avec une licence relativement permissive : Apache 2.0. Il est proposé en quatre variantes, de 2,3 à 30,7 milliards de paramètres ; de quoi tourner sur une large gamme de terminaux.
C’est une annonce importante dans le monde des grands modèles de langage open source (y compris les poids) : Gemma 4 de Google (DeepMind). Ce n’est pas la première fois qu’un modèle open source sous licence Apache 2.0 est publié, mais c’est un mouvement intéressant de Google dans le secteur.
De 2,3 à 30,7 milliards de paramètres, avec une « mixture »
Quatre modèles Gemma 4 sont disponibles : E2B, E4B, 26B A4B et 31B. Ils proposent respectivement 2,3, 4,5 , 25,2 et 30,7 milliards de paramètres. A4B est un modèle Mixture of Experts (MoE) avec seulement 3,8 milliards de paramètres actifs pour chaque token.
Ils sont multimodaux, c’est-à-dire qu’ils « traitent les entrées de texte et d’image (l’audio est pris en charge sur les petits modèles) et génèrent des sorties de texte ».
Un MoE est un grand modèle dont seulement une partie est utilisée en inférence, réduisant les besoins en puissance de calcul. Afin de distinguer facilement les modèles, Google utilise une nomenclature spéciale au début du nom en fonction du nombre de paramètres : E pour effectifs, A pour actifs.
Les deux petits modèles de 2,3 et 4,5 milliards de paramètres ont une largeur de contexte de 128 000 jetons, contre 256 000 pour les deux autres. Gemma 4 dispose d‘un « mode de raisonnement intégré qui permet au modèle de réfléchir étape par étape avant de répondre ». La taille du dictionnaire est de 262 000 mots.
Il est capable d’analyser des images et des vidéos, propose une prise « en charge native de l’utilisation structurée des outils, permettant des workflows d’agent » et, c’est dans l’air du temps, la « génération, complétion et correction de code ». E2B et E4B disposent aussi d’une fonction de reconnaissance vocale.
Tous les détails se trouvent par ici. Google propose aussi des résultats de benchmarks maison et compare ses quatre modèles Gemma 4 à la version 27B (27 milliards de paramètres, sans raisonnement) de Gemma 3. Cette annonce intervient au moment même ou Anthropic a décidé de revoir sa gestion des comptes payants, avec le passage obligatoire via l’API pour les applications tierces.
Gemma 4 en open source passe sous licence Apache 2.0
Google propose ses modèles sous la licence Apache 2.0. Comme le rappelle Wikipédia, elle est « considérée comme permissive car elle accorde des droits étendus aux utilisateurs, tout en imposant relativement peu de restrictions […] D’autoriser la modification et la distribution du code sous toute forme (libre ou propriétaire, gratuit ou commercial) et, d’autre part, d’obliger le maintien du copyright lors de toute modification ».
Pour ses précédents modèles, Google utilisait une licence maison baptisée « Gemma Terms of Use ». Elle précise notamment « que Google se réserve le droit de restreindre l’utilisation de tout service Gemma que Google estime raisonnablement être en violation du présent accord ».
Google rejoint ainsi Mistral et son modèle 7B (septembre 2023), OpenAI avec gpt-oss-120b, ainsi que Qwen d’Alibaba, qui sont sous licence Apache 2.0. Avec ses modèles LLaM, Meta propose une « licence limitée », avec des restrictions.
Google met largement en avant le côté open source de Gemma 4 : « les modèles ouverts sont des systèmes d’IA dont les poids du modèle sont publiquement disponibles pour que n’importe qui puisse les télécharger, les étudier, les affiner et les utiliser sur son propre matériel (téléphones, ordinateurs, etc.) ». Un des avantages des modèles ouverts est en effet de pouvoir les faire tourner en local sur votre ordinateur, sans envoyer aucune donnée en ligne.
En fonction de la précision, la taille occupée en mémoire pour les modèles varie de 3,2 à près de 60 Go, laissant en effet entrevoir une large gamme d’appareils compatibles. Nous reviendrons prochainement avec quelques tutos pour installer des IA génératives en local.
Il y a trois ans, Apple s’était tourné vers la Cour suprême (la plus haute juridiction des États-Unis) dans son différend avec Epic sur la commission de 30 % de son App Store. Quelques mois plus tard, elle bottait en touche en refusant d’intervenir, sans donner plus d’explication.
Ce n’était pas la fin de la guerre entre les deux entreprises, loin de là. Dernier événement en date, Apple a perdu en grande partie son appel contre Epic fin 2025, mais gardait tout de même la possibilité de faire payer des commissions « raisonnables » sur les paiements externes. Apple avait demandé au tribunal de revoir sa décision, mais les juges ont refusé à l’unanimité (pdf).
Comme le rapporte Engadget, Apple se tourne désormais vers la Cour suprême (pdf) pour lui demander « d’examiner quand et comment elle peut percevoir des commissions sur les achats mobiles effectués via des systèmes de paiement tiers ». L’entreprise demande aussi à la cour d’appel de suspendre sa décision, le temps que la Cour suprême se prononce.
Illustration : Flock
La 9ᵉ cour d’appel a cette fois-ci accepté la demande d’Apple et Epic voit rouge. Le père de Fortnite demande au tribunal de « réexaminer la décision d’aujourd’hui accordant la requête d’Apple pour suspendre l’exécution de la décision ».
« L’effort d’Apple pour suspendre l’exécution de la décision de cette Cour ne vise rien d’autre que gagner du temps », affirme Epic. Pour l’entreprise, cela « permet à Apple de continuer d’engranger des profits ». Dans ce climat tendu, ajoute Epic, « la plupart des développeurs réagissent à l’incertitude en s’abstenant » de proposer des alternatives.
C’est en effet le 5 avril 2020 que la première version de Ventoy a été mise en ligne, rapidement suivie d’une 1.0.01 pour corriger un vilain bug. Nous en parlions la même année avec la mise en ligne de la version 1.0.22. C’est pour rappel un outil permettant de créer des clés USB multi-ISO bootable, concurrent de Rufus.
La version 1.1.11 a été mise en ligne le 5 avril 2026 et signe donc le sixième anniversaire de l’application. Dans les notes de version, pas grand chose d’autre que des correctifs et autres améliorations, en plus de la prise en charge de KylinSecOS.
Un point important tout de même pour Ventoy2Disk.sh dont l’installation échouait « sur les distributions Linux immuables » : c’est désormais corrigé. Il s’agit de systèmes « où les fichiers principaux du système d’exploitation sont en lecture seule, empêchant ainsi les modifications involontaires ou malveillantes », explique Neowin. C’est le cas de Fedora Silverblue et openSUSE MicroOS, ajoutent nos confrères.
Durant le week-end, Anthropic a annoncé et déployé quasiment dans la foulée un changement important de son modèle économique : les services tiers ne sont plus intégrés aux abonnements Claude, il faut passer par l’API. Cela a des conséquences importantes pour les clients, notamment ceux qui se sont lancés sur OpenClaw.
Anthropic propose une formule gratuite permettant d’accéder à son IA générative Claude, avec d’importantes restrictions d’usage. Pour débloquer les fonctionnalités supplémentaires et augmenter le temps d’utilisation, il faut passer à la caisse avec un abonnement Pro ou Max pour les particuliers, Team ou Enterprise pour les pros.
Une autre possibilité est d’utiliser l’API, avec une facturation à l’usage. Cela varie de 1 et 5 dollars par million de jetons en entrée et en production (les réponses) pour le modèle léger Haiku, à respectivement 5 et 25 dollars pour le modèle le plus performant, Opus.
Anthropic impose son API pour les applications tierces : OpenClaw en ligne de mire
Jusqu’à présent, les abonnements permettaient d’utiliser Claude dans les applications tierces, dans la limite des restrictions mises en place, évidemment. Désormais, ce n’est plus le cas.
Le changement a été annoncé samedi par Boris Cherny, responsable de Claude Code chez Anthropic, avec une mise en place prévue pour le lendemain : « Les abonnements Claude ne couvriront plus l’utilisation d’outils tiers comme OpenClaw […] La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API ».
Pour faire passer la pilule et « offrir » la première dose, le responsable ajoute que les « abonnés reçoivent un crédit équivalent au coût de leur abonnement mensuel ». Les clients ont reçu pendant le week-end un email pour réclamer leur « cadeau ».
Dans le message envoyé aux abonnés, une « remarque importante » confirme la déclaration précédente, avec une mise en place le jour même : « À compter du 4 avril, les outils tiers comme OpenClaw connectés à votre compte Claude seront facturés comme une consommation supplémentaire et non plus via votre abonnement ».
OpenClaw est directement cité dans la communication d’Anthropic. Il s’agit, pour rappel, d’un agent IA qui a défrayé la chronique au début de l’année. Son créateur, Peter Steinberger, a rejoint OpenAI mi-février, « pour piloter la prochaine génération d’agents personnels ».
Il s’est exprimé sur X suite à ce changement de politique qu’il trouve « triste pour l’écosystème ». Il annonce au passage que la dernière version d’OpenClaw inclut des « correctifs pour une meilleure utilisation du cache, afin de réduire les coûts pour les utilisateurs de l’API ».
« Demande croissante sur Claude » : Anthropic modifie ses conditions d’usage
Ce n’est pas le seul changement de ces dernières semaines : « Pour répondre à la demande croissante sur Claude, nous ajustons nos limites des sessions de 5 h pour les abonnements gratuits, Pro et Max pendant les heures de pointe. Vos limites hebdomadaires restent inchangées. En semaine entre 5 h et 11 h PT, ainsi qu’entre 13 h et 19 h GMT, vous épuisez vos limites de session de 5 heures plus rapidement qu’auparavant », explique un responsable de Claude Code sur X.
« Nous avons réalisé de nombreux gains d’efficacité pour compenser cela, mais environ 7 % des utilisateurs atteindront des limites de session qu’ils n’auraient pas atteintes auparavant, en particulier pour les niveaux pro. Si vous exécutez des tâches en arrière-plan gourmandes en tokens, les décaler aux heures creuses étendra davantage vos limites de session », explique-t-il. La grogne des clients s’est rapidement faite entendre dans les réponses à cette publication.
Comme le rapporte Le Figaro, une publication Reddit a mis le feu aux poudre le mois dernier. Un internaute affirme avoir trouvé des bugs dans la mémoire cache de l’IA qui « multiplient par 10 à 20 vos consommations ».
Anthropic a annoncé enquêter et, le 2 avril, Lydia Hallie (développeuse Claude Code) a pris la parole sur X : « Les limites en heure de pointe sont plus strictes […] c’est en grande partie ce que vous ressentez. Nous avons corrigé quelques bugs en cours de route, mais aucun ne vous facturait excessivement ».
Elle donne quelques conseils. Elle propose d’utiliser Sonnet 4.6, qui est « le choix par défaut le plus performant sur Pro. Opus consomme [les tokens] environ deux fois plus vite ». Elle recommande aussi de « commencer une nouvelle session plutôt que de reprendre de grandes sessions qui ont été inactives ~1 h », et enfin de limiter votre fenêtre de contexte. Là encore, les clients font part de leur mécontentement en guise de réponse.
C’est aussi un moyen pour Anthropic de pousser ses clients sur une offre plus chère s’ils veulent continuer d’utiliser Claude plus ou moins comme avant. Pour rappel, la formule Pro est à 15 euros par mois, mais le palier du dessus est à 90 euros minimum par mois pour Max. Il y a également l’API avec un paiement à l’usage.
Fuite de Claude Code et de Mythos
Ces derniers jours, Anthropic était au cœur des gros titres de la presse, pour deux raisons. La première concerne la fuite d’une partie du code de Claude Code justement. Si le modèle en lui-même n’est pas publié (le cerveau de Claude Code), le squelette, ses muscles et articulations sont désormais accessibles à tout le monde.
Peu de temps avant, plus de 3 000 documents avaient « fuité » avec un nouveau modèle baptisé Mythos. Il se place au-dessus d’Opus, le modèle actuellement le plus performant d’Anthropic… et donc plus couteux à faire tourner.
L’ADN peut générer de longues chaines de données aléatoires, ce qui est parfait pour créer de grands masques jetables pour chiffrer des données, avec une protection « inviolable ». Le CNRS présente ses travaux, qui mélangent ADN et chiffre de Vernam.
Dans un précédent article, nous étions revenus sur les méthodes de chiffrement en informatique des dernières décennies. Nous avons également analysé la menace quantique ainsi que le chiffrement hybride qui mélange les deux mondes. Au milieu de tout cela, il existe depuis plus de 100 ans un algorithme de chiffrement inviolable : le masque jetable ou chiffre de Vernam.
Le principe de base est simple : il s’agit ni plus ni moins d’une permutation de l’alphabet, mais avec une clé aussi longue que le message à chiffrer. Il faut par contre respecter une condition : la clé (ou masque) ne doit être utilisé qu’une seule fois et elle doit être totalement aléatoire (et ce n’est pas si facile de faire du 100 % aléatoire).
Avec une clé de la taille du message et une rotation aléatoire de l’alphabet à chaque lettre, un message de 10 caractères pourrait être transformé en n’importe quel mot (ou groupe de mots) de 10 caractères, sans savoir lequel est le bon.
Imaginez avec un message chiffré plus court, par exemple ABC, il pourrait aussi bien s’agir de OUI, que NON, DIX, TES, ZUT… sans pouvoir trouver le message en clair si vous n’avez pas la bonne clé. On parle de sécurité inconditionnelle, « c’est-à-dire indépendante de la puissance de calcul d’un adversaire », et on peut le prouver dans le cas présent.
Avec l’ADN, de très grandes clés aléatoires
Le problème du chiffre de Vernam est double : d’abord, générer des clés de très grandes tailles et aléatoires, puis échanger physiquement les clés. Dans le premier cas, le CNRS propose une solution : l’ADN : « Chaque molécule d’ADN est composée de quatre bases chimiques (A, T, C et G), et les chimistes sont capables de synthétiser commercialement de longues chaines dont l’ordre des bases est statistiquement aléatoire. Ces séquences d’ADN peuvent ensuite être copiées à l’identique, à l’aide de processus enzymatiques, et ainsi partagées entre un expéditeur et un destinataire ».
L’ADN coche toutes les cases avec une densité de stockage et une stabilité remarquables : « correctement conservé, le polymère peut rester intact pendant des milliers d’années et il suffit de quelques milligrammes pour stocker des exaoctets d‘information binaire, soit l’équivalent d’un million de disques durs ». Stocker autant de données dans aussi peu de place avec un autre système c’est actuellement… compliqué.
Des candidats parfaits pour les masques, mais il faut toujours les échanger sans la moindre interception, sinon toute la sécurité s’effondre si une tierce partie récupère une copie des clés. L’avantage de l’ADN c’est qu’il ne prend pas beaucoup de place et qu’il est facile à transporter.
Pour le CNRS, les principales perspectives se trouvent dans « la protection des communications les plus sensibles, qu’il s’agisse d’échanges diplomatiques, militaires ou scientifiques ». Dans un second temps, cette technique « pourrait également trouver des applications dans des contextes extrêmes, notamment les communications spatiales ou les infrastructures numériques critiques où la fiabilité et l’inviolabilité des échanges constituent des enjeux majeurs ».
J’ai beaucoup trop de vacances… et donc de films de vacances
Toshiba dévoile sa nouvelle série de disques durs M12, qui sera disponible aussi bien en SMR qu’en CMR, avec 28 à 34 To de stockage. Le fabricant se prépare à aller encore plus loin avec l’arrivée du HAMR et le passage à 12 plateaux.
Après Seagate et Western Digital, c’est au tour de Toshiba de dépasser les 30 To avec des disques durs de 3,5 pouces. Le fabricant annonce en effet qu’il a commencé à expédier les premiers échantillons de disques durs de 3,5 pouces de 30 à 34 To, exploitant la technologie SMR.
Des HDD de 30 à 34 To en SMR (Host Managed)
Il reste 92% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Quand Cloudflare explique à WP comment faire du WP
Avec EmDash, Cloudflare propose un CMS open source misant sur la modernité de ses composants (il est écrit en TypeScript) et la sécurité des plug-ins. Il se place en concurrent de WordPress et prétend même être son « successeur spirituel ». Des affirmations démontées par le co-créateur de WordPress Matt Mullenweg.
WordPress est « la » référence dans le domaine des CMS (content management system ou système de gestion de contenu en français). C’est un projet open source utilisé par des millions de sites web à travers le monde, aussi bien de petits blogs personnels jusqu’au site de la Maison-Blanche, en passant par des entreprises, des médias… Next est lui aussi sur WordPress depuis sa refonte.
Selon certaines estimations, WordPress serait utilisé par plus de 40 % des sites dans le monde. Les forces du CMS sont ses capacités de personnalisation, son nombre de plug-ins (plusieurs dizaines de milliers), sa multitude de thèmes (gratuits et payants), sans oublier sa très large communauté.
CMS open source en TypeScript, avec isolation des plug-ins…
Il reste 92% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Cette semaine, le fondeur a annoncé qu’il allait « racheter 49 % des parts de sa coentreprise irlandaise Fab34 ». Il s’agit de récupérer la part qui avait été vendue il y a deux ans à peine au fonds Apollo, pour 11,2 milliards de dollars. Coût de l’opération cette fois-ci : 14,2 milliards de dollars.
Cette transaction a apporté à Intel « une plus grande souplesse financière et a permis à l’entreprise de libérer et de redéployer des capitaux pour faire avancer ses priorités stratégiques, notamment l’accélération du développement d’Intel 4 et 3, les plus avancés en Europe, ainsi que le processus Intel 18A, le plus avancé, développé et fabriqué aux États-Unis aujourd’hui ».
Fin 2023, la production de masse avec un procédé de gravure Intel 4 débutait dans la Fab 34 irlandaise. Meteor Lake (Core Ultra Série 1) exploite pour rappel Intel 4. Les Panther Lake (Core Ultra Series 3) sont pour leur part en Intel 18A et les premiers gravés aux États-Unis. L’usine irlandaise produit aussi des puces avec le procédé Intel 3, utilisé par des Xeon de 6ᵉ génération.
David Zinsner, CFO d’Intel, affirme que l’accord de 2024 « s’est avéré être la bonne solution au bon moment et a offert à Intel une flexibilité considérable, nous permettant ainsi d’accélérer dans la mise en œuvre d’initiatives essentielles. Aujourd’hui, nous disposons d’un bilan plus solide, d’une discipline financière renforcée et d’une stratégie commerciale modernisée ».
Suite à cette annonce, l’action d’Intel a bondi de près de 10 % et, encore aujourd’hui, elle est à 13 % de plus que son niveau fin mars.