Google continue de dérouler sa stratégie de conquête par l’IA en profitant de son vaste parc d’applications et services. Après Search et Chrome (aux États-Unis), Gemini va désormais débouler dans Gmail, avec moult promesses.
On va ainsi retrouver les AI Overviews, rendues célèbres lors de leur arrivée dans Search, mais pas toujours pour les bonnes raisons. Google évoque une situation pénible : « Votre boîte de réception est remplie d’informations importantes, mais y accéder vous a obligé à devenir un puissant chercheur. Et même lorsque vous trouvez les bons e-mails, vous vous retrouvez souvent à fixer une liste de messages, obligé de fouiller dans le texte pour reconstituer la réponse ».
Que faire ? Confier le travail à Gemini. Dans des échanges contenant des dizaines de courriers par exemple, un résumé sera proposé avec les points saillants. On pourra bien sûr poser des questions en langage naturel, du type « Qui était le plombier qui m’a donné un devis pour la rénovation de la salle de bain l’année dernière ? ». La réponse se fera sous la forme d’un paragraphe avec un lien vers l’e-mail correspondant. Cette fonction est disponible pour tous les utilisateurs aux États-Unis.
Des outils d’écriture sont également déployés, selon le niveau d’abonnement. Pour tout le monde, Google fournit une aide à l’écriture, soit à partir d’un brouillon, soit depuis une page blanche, à partir d’un prompt. Gemini pourra également tenir compte du contexte pour préparer des réponses pré-écrites. Pour les abonnés Google AI Pro et Ultra, un assistant de relecture sera disponible, pour vérifier notamment le style et la grammaire, en plus de pouvoir modifier le ton et le style.
Enfin, Google introduit une « AI Inbox », qui se propose de « filtrer le désordre afin que vous puissiez vous concentrer sur ce qui est le plus important ». Google décrit cette fonction comme un « briefing personnalisé ». Elle doit se montrer suffisamment intelligente pour faire remonter les éléments jugés pertinents, comme l’échéance proche d’une facture. Elle n’est cependant pas encore disponible, car seuls quelques testeurs triés sur le volet y ont accès.
Sync-in est un projet libre et français de stockage et de gestion de fichiers. Son développeur principal, Johan Legrand, nous avait présenté son travail, pensé avant tout comme une plateforme de gestion des fichiers et de collaboration, le tout pour des solutions auto-hébergées.
Depuis notre article en octobre, plusieurs versions intermédiaires sont sorties. La version 1.8 a par exemple étendu le support linguistique et ajouté un chargement dynamique des traductions, la possibilité d’activer ou désactiver l’indexation, ou encore le support de FreeBSD. La version 1.9 a rafraichi l’identité visuelle, amélioré la gestion des images et ajouté diverses améliorations.
La nouvelle mouture 1.10, sortie ce 7 janvier, est une mouture importante. Comme Johan Legrand nous l’avait indiqué il y a quelques mois, elle intègre d’abord la suite Collabora, qui peut être utilisée aux côtés de OnlyOffice (déjà présente) ou en remplacement. Dans le cas où les deux suites sont présentes, on peut choisir quelle application doit être ouverte en fonction du format du fichier.
Parmi les autres nouveautés, on note une amélioration significative des liens publics. Ces derniers, en plus de permettre le téléchargement, peuvent être configurés pour autoriser l’accès, la consultation et l’édition des documents, selon le format et les droits d’accès. Dans les listes de documents, les actions Voir et Modifier ont été remplacés par un bouton unique Ouvrir, dont l’action change selon le contexte (et donc les droits).
Sous le capot, Sync-in 1.10 migre vers Node.js 24, tout en maintenant sa compatibilité avec Node.js 22. Selon Johan Legrand, ce changement améliore la stabilité et les performances du projet. Enfin, on note une série de corrections, notamment pour des conflits de traduction et des redirections « intempestives » lors du rafraichissement des liens publics.
Si vous avez une installation de Sync-in, vous devriez avoir reçu une notification via l’application, ou par e-mail si le serveur idoine a été activé sur l’instance. Pour rappel, il existe une version démo permettant de tester les fonctions du projet (demo/demo comme identifiants).
Google continue de dérouler sa stratégie de conquête par l’IA en profitant de son vaste parc d’applications et services. Après Search et Chrome (aux États-Unis), Gemini va désormais débouler dans Gmail, avec moult promesses.
On va ainsi retrouver les AI Overviews, rendues célèbres lors de leur arrivée dans Search, mais pas toujours pour les bonnes raisons. Google évoque une situation pénible : « Votre boîte de réception est remplie d’informations importantes, mais y accéder vous a obligé à devenir un puissant chercheur. Et même lorsque vous trouvez les bons e-mails, vous vous retrouvez souvent à fixer une liste de messages, obligé de fouiller dans le texte pour reconstituer la réponse ».
Que faire ? Confier le travail à Gemini. Dans des échanges contenant des dizaines de courriers par exemple, un résumé sera proposé avec les points saillants. On pourra bien sûr poser des questions en langage naturel, du type « Qui était le plombier qui m’a donné un devis pour la rénovation de la salle de bain l’année dernière ? ». La réponse se fera sous la forme d’un paragraphe avec un lien vers l’e-mail correspondant. Cette fonction est disponible pour tous les utilisateurs aux États-Unis.
Des outils d’écriture sont également déployés, selon le niveau d’abonnement. Pour tout le monde, Google fournit une aide à l’écriture, soit à partir d’un brouillon, soit depuis une page blanche, à partir d’un prompt. Gemini pourra également tenir compte du contexte pour préparer des réponses pré-écrites. Pour les abonnés Google AI Pro et Ultra, un assistant de relecture sera disponible, pour vérifier notamment le style et la grammaire, en plus de pouvoir modifier le ton et le style.
Enfin, Google introduit une « AI Inbox », qui se propose de « filtrer le désordre afin que vous puissiez vous concentrer sur ce qui est le plus important ». Google décrit cette fonction comme un « briefing personnalisé ». Elle doit se montrer suffisamment intelligente pour faire remonter les éléments jugés pertinents, comme l’échéance proche d’une facture. Elle n’est cependant pas encore disponible, car seuls quelques testeurs triés sur le volet y ont accès.
Sync-in est un projet libre et français de stockage et de gestion de fichiers. Son développeur principal, Johan Legrand, nous avait présenté son travail, pensé avant tout comme une plateforme de gestion des fichiers et de collaboration, le tout pour des solutions auto-hébergées.
Depuis notre article en octobre, plusieurs versions intermédiaires sont sorties. La version 1.8 a par exemple étendu le support linguistique et ajouté un chargement dynamique des traductions, la possibilité d’activer ou désactiver l’indexation, ou encore le support de FreeBSD. La version 1.9 a rafraichi l’identité visuelle, amélioré la gestion des images et ajouté diverses améliorations.
La nouvelle mouture 1.10, sortie ce 7 janvier, est une mouture importante. Comme Johan Legrand nous l’avait indiqué il y a quelques mois, elle intègre d’abord la suite Collabora, qui peut être utilisée aux côtés de OnlyOffice (déjà présente) ou en remplacement. Dans le cas où les deux suites sont présentes, on peut choisir quelle application doit être ouverte en fonction du format du fichier.
Parmi les autres nouveautés, on note une amélioration significative des liens publics. Ces derniers, en plus de permettre le téléchargement, peuvent être configurés pour autoriser l’accès, la consultation et l’édition des documents, selon le format et les droits d’accès. Dans les listes de documents, les actions Voir et Modifier ont été remplacés par un bouton unique Ouvrir, dont l’action change selon le contexte (et donc les droits).
Sous le capot, Sync-in 1.10 migre vers Node.js 24, tout en maintenant sa compatibilité avec Node.js 22. Selon Johan Legrand, ce changement améliore la stabilité et les performances du projet. Enfin, on note une série de corrections, notamment pour des conflits de traduction et des redirections « intempestives » lors du rafraichissement des liens publics.
Si vous avez une installation de Sync-in, vous devriez avoir reçu une notification via l’application, ou par e-mail si le serveur idoine a été activé sur l’instance. Pour rappel, il existe une version démo permettant de tester les fonctions du projet (demo/demo comme identifiants).
Ces derniers jours, des utilisateurs de périphériques Logitech sur Mac ont peut-être remarqué que leur application Options+ ou G Hub ne fonctionnait plus. C’est normal : Logitech a oublié de renouveler un certificat de sécurité servant à la bonne marche de ses applications, les rendant inopérantes.
Dans un fil Reddit, Joe Santucci, responsable du marketing mondial chez Logitech, expliquait ce 7 janvier : « Le certificat expiré sert à sécuriser les communications inter-processus et cette expiration fait que le logiciel ne peut pas démarrer correctement ». Dans un autre message, il faisait amende honorable : « On s’est vraiment plantés là. C’est une erreur impardonnable. Nous sommes vraiment désolés pour la gêne occasionnée ».
Quelques heures après, Logitech publiait des versions mises à jour de ses applications, avec un nouveau certificat en bonne et due forme. Malheureusement, c’est là que le problème prend de toutes autres proportions : le certificat expiré était également utilisé pour les mises à jour automatiques. Les versions concernées ne peuvent donc pas récupérer les nouvelles et les installer. La manipulation doit nécessairement être manuelle.
Dans la page mise en ligne pour pousser les applications à jour (pour macOS 26 Tahoe, macOS 15 Sequoia, macOS 14 Sonoma et macOS 13 Ventura), Logitech ajoute que l’installeur doit être utilisé sur des installations existantes pour que les paramètres soient préservés. La FAQ indique cependant que des utilisateurs peuvent avoir été tentés de désinstaller les anciennes versions pour les réinstaller. Un réflexe habituel, mais qui supprime les paramètres personnalisés.
Ces derniers jours, des utilisateurs de périphériques Logitech sur Mac ont peut-être remarqué que leur application Options+ ou G Hub ne fonctionnait plus. C’est normal : Logitech a oublié de renouveler un certificat de sécurité servant à la bonne marche de ses applications, les rendant inopérantes.
Dans un fil Reddit, Joe Santucci, responsable du marketing mondial chez Logitech, expliquait ce 7 janvier : « Le certificat expiré sert à sécuriser les communications inter-processus et cette expiration fait que le logiciel ne peut pas démarrer correctement ». Dans un autre message, il faisait amende honorable : « On s’est vraiment plantés là. C’est une erreur impardonnable. Nous sommes vraiment désolés pour la gêne occasionnée ».
Quelques heures après, Logitech publiait des versions mises à jour de ses applications, avec un nouveau certificat en bonne et due forme. Malheureusement, c’est là que le problème prend de toutes autres proportions : le certificat expiré était également utilisé pour les mises à jour automatiques. Les versions concernées ne peuvent donc pas récupérer les nouvelles et les installer. La manipulation doit nécessairement être manuelle.
Dans la page mise en ligne pour pousser les applications à jour (pour macOS 26 Tahoe, macOS 15 Sequoia, macOS 14 Sonoma et macOS 13 Ventura), Logitech ajoute que l’installeur doit être utilisé sur des installations existantes pour que les paramètres soient préservés. La FAQ indique cependant que des utilisateurs peuvent avoir été tentés de désinstaller les anciennes versions pour les réinstaller. Un réflexe habituel, mais qui supprime les paramètres personnalisés.
La plateforme d’automatisation open source n8n est victime de deux failles critiques affichant la note de sévérité maximale (10/10). Il est recommandé de mettre à jour au plus vite les installations.
n8n est une plateforme d’automatisation des workflows. Elle permet de connecter des services (API, bases de données, SaaS, scripts…) à des actions pour qu’elles se déclenchent quand les conditions sont réunies. La plateforme, open source, a largement gagné en popularité au point d’en faire l’un des produits les plus suivis, notamment parce qu’elle peut s’interfacer avec à peu près n’importe quoi, via des connecteurs, dont des systèmes IA.
Deux failles critiques de sévérité maximale
Elle est cependant touchée par deux failles de sécurité dont la criticité est maximale, avec un score CVSS de 10 sur 10, soit le maximum. La première, estampillée CVE-2026-21877, est de type RCE (Remote Code Execution) et peut donc permettre l’exécution d’un code arbitraire à distance. « Dans certaines conditions, un utilisateur authentifié peut être capable de faire exécuter un code non fiable par le service n8n. Cela pourrait entraîner une compromission complète de l’instance concernée. Les instances auto-hébergées et n8n Cloud sont toutes deux concernées », indique l’équipe de développement dans une note sur GitHub.
Dans ce contexte, un acteur malveillant peut, en exploitant la faille, introduire des instructions dans la logique d’exécution des workflows et de gestion des identifiants. Il peut ajouter ou supprimer des workflows, exfiltrer des données sensibles, déployer du code malveillant et aboutir à une compromission totale du serveur.
La deuxième faille, CVE-2026-21858, est « pire », bien que disposant de la même note. « Une vulnérabilité dans n8n permet à un attaquant d’accéder aux fichiers du serveur sous-jacent en exécutant certains flux de travail basés sur des formulaires. Un flux de travail vulnérable pourrait accorder l’accès à un attaquant distant non authentifié. Cela pourrait entraîner une exposition d’informations sensibles stockées sur le système et permettre de nouvelles compromissions selon la configuration du déploiement et l’utilisation du flux de travail », explique l’équipe dans une autre note. La faille est corrigée
Quatre fois en deux mois
La première faille a été corrigée dans la version 1.121.3 et la seconde dans la 1.121.0, toutes deux sorties en novembre. D’ailleurs, les failles aussi ont été découvertes en novembre. Elles n’ont été révélées que très récemment, le temps que les mises à jour se fassent sur un maximum de configurations. Dans les deux cas, la consigne est bien sûr d’installer la dernière version dès que possible, si ce n’est pas encore fait.
Problème supplémentaire pour n8n, c’est la quatrième fois en deux mois qu’une faille critique est découverte. Et pas des moindres : les vulnérabilités CVE-2025-68613 et CVE-2025-68668, découvertes respectivement fin décembre et début janvier, ont toutes deux un score CVSS de 9,9, soit pratiquement le maximum.
La plateforme d’automatisation open source n8n est victime de deux failles critiques affichant la note de sévérité maximale (10/10). Il est recommandé de mettre à jour au plus vite les installations.
n8n est une plateforme d’automatisation des workflows. Elle permet de connecter des services (API, bases de données, SaaS, scripts…) à des actions pour qu’elles se déclenchent quand les conditions sont réunies. La plateforme, open source, a largement gagné en popularité au point d’en faire l’un des produits les plus suivis, notamment parce qu’elle peut s’interfacer avec à peu près n’importe quoi, via des connecteurs, dont des systèmes IA.
Deux failles critiques de sévérité maximale
Elle est cependant touchée par deux failles de sécurité dont la criticité est maximale, avec un score CVSS de 10 sur 10, soit le maximum. La première, estampillée CVE-2026-21877, est de type RCE (Remote Code Execution) et peut donc permettre l’exécution d’un code arbitraire à distance. « Dans certaines conditions, un utilisateur authentifié peut être capable de faire exécuter un code non fiable par le service n8n. Cela pourrait entraîner une compromission complète de l’instance concernée. Les instances auto-hébergées et n8n Cloud sont toutes deux concernées », indique l’équipe de développement dans une note sur GitHub.
Dans ce contexte, un acteur malveillant peut, en exploitant la faille, introduire des instructions dans la logique d’exécution des workflows et de gestion des identifiants. Il peut ajouter ou supprimer des workflows, exfiltrer des données sensibles, déployer du code malveillant et aboutir à une compromission totale du serveur.
La deuxième faille, CVE-2026-21858, est « pire », bien que disposant de la même note. « Une vulnérabilité dans n8n permet à un attaquant d’accéder aux fichiers du serveur sous-jacent en exécutant certains flux de travail basés sur des formulaires. Un flux de travail vulnérable pourrait accorder l’accès à un attaquant distant non authentifié. Cela pourrait entraîner une exposition d’informations sensibles stockées sur le système et permettre de nouvelles compromissions selon la configuration du déploiement et l’utilisation du flux de travail », explique l’équipe dans une autre note. La faille est corrigée
Quatre fois en deux mois
La première faille a été corrigée dans la version 1.121.3 et la seconde dans la 1.121.0, toutes deux sorties en novembre. D’ailleurs, les failles aussi ont été découvertes en novembre. Elles n’ont été révélées que très récemment, le temps que les mises à jour se fassent sur un maximum de configurations. Dans les deux cas, la consigne est bien sûr d’installer la dernière version dès que possible, si ce n’est pas encore fait.
Problème supplémentaire pour n8n, c’est la quatrième fois en deux mois qu’une faille critique est découverte. Et pas des moindres : les vulnérabilités CVE-2025-68613 et CVE-2025-68668, découvertes respectivement fin décembre et début janvier, ont toutes deux un score CVSS de 9,9, soit pratiquement le maximum.
Microsoft prévoyait depuis avril 2024 d’imposer graduellement une limite de 2 000 e-mails par jour et par personne dans les entreprises clientes d’Exchange Online. Un changement radical de l’External Recipient Rate, puisque la limite était alors fixée à 10 000. Microsoft justifiait la mesure par des abus constatés, l’éditeur expliquant que son service n’était pas conçu pour les envois de masse.
Ce changement devait initialement prendre effet au 1er janvier 2026. Comme le rappelle notamment Neowin, il avait été repoussé à avril pour les nouveaux clients et les comptes d’essais, et à octobre pour les comptes existants. Il n’en sera finalement rien.
Dans un billet de blog publié le 6 janvier, Microsoft explique avoir renoncé à ce changement « indéfiniment pour le moment ». La raison ? Les retours négatifs de la clientèle : « Les clients ont indiqué que cette limite pose d’importants défis opérationnels, surtout compte tenu des capacités limitées des offres d’envoi en masse disponibles aujourd’hui. Vos retours comptent, et nous nous engageons à trouver des solutions qui équilibrent sécurité et ergonomie sans provoquer de perturbations inutiles ».
Microsoft ajoute vouloir toujours combattre les abus du service, « comme le spam et les e-mails malveillants ». Elle aimerait également limiter les mésusages d’Exchange Online, dont les applications line-of-business (LOB) qui se servent du service pour les envois de masse. « Cependant, nous prévoyons de traiter ces problèmes de manière à moins perturber les flux de travail de votre entreprise. Cela signifie des approches plus intelligentes et adaptatives qui protègent le service tout en respectant vos besoins opérationnels », ajoute l’entreprise.
La limite reste donc de 10 000 e-mails envoyés par jour et par personne, en tout cas pour l’instant.
NVIDIA ne veut pas rester enfermée dans le matériel. L’entreprise a profité du CES pour dévoiler une toute nouvelle plateforme et plusieurs modèles IA ouverts pour permettre aux constructeurs automobiles de progresser vers la conduite autonome.
Tesla aurait-elle tout à coup un très sérieux concurrent ? Pas sûr, mais la société d’Elon Musk doit surveiller de près le développement de NVIDIA, dont les activités sur la conduite autonome se renforcent depuis une décennie maintenant et viennent de passer un nouveau cap.
Si la présentation de la plateforme Vera Rubin a largement concentré les attentions, la firme au caméléon avait une autre annonce majeure en réserve. Elle a ainsi officialisé une plateforme désormais complète pour aider à développer des véhicules autonomes. Contrairement à Tesla qui développe sa propre technologie à des fins d’intégration verticale, NVIDIA a choisi de se présenter en fournisseur d’un « cadre » de développement, permettant de gérer toutes les étapes de l’automatisation.
Revenons d’abord un instant sur Cosmos, une plateforme déjà présentée et conçue pour accélérer le développement de ce que NVIDIA nomme « l’IA physique » (véhicules autonomes, robots, agents d’analyse vidéo…). Elle comprend des modèles de fondation ouverts, un lot de garde-fous et des bibliothèques pour traiter les informations. En clair, Cosmos est dédié à l’entrainement des modèles.
Lors d’une présentation au CES, NVIDIA a fait la démonstration d’opérations réalisées par Cosmos : génération de vidéos « réalistes » depuis une seule image, synthèse de scénarios de conduite multi-caméras, modélisation d’environnements spécifiques, raisonnement « physique » et prédiction de trajectoires, etc. Pendant la présentation, ces opérations étaient réalisées à partir de la version 2 des modèles Cosmos.
Sur ce socle amélioré, NVIDIA vient greffer Alpamayo. Ce portefeuille est constitué de modèles d’intelligence artificielle de type vision-langage-action (VLA) allant au-delà de la simple perception. Selon Jensen Huang, « Alpamayo permet aux véhicules autonomes de réfléchir dans des situations rares, de naviguer en toute sécurité dans des environnements complexes, et d’expliquer leurs décisions de conduite. Non seulement il prend l’entrée des capteurs et active le volant, les freins et l’accélération, mais il réfléchit aussi à l’action qu’il va entreprendre ».
Alpamayo 1, le modèle principal, compte 10 milliards de paramètres. Il peut traiter la vidéo des caméras pour générer des trajectoires de conduite. Les ambitions de NVIDIA passent également par l’open source : les modèles sont ouverts et sont accompagnés d’un simulateur (AlpaSim) et d’une base comptant les données de plus de 1 700 heures de conduite. Le tout s’intègre dans la plateforme DRIVE Hyperion dédiée au développement de véhicules autonomes, avec la volonté affichée de faire progresser les véhicules vers le niveau 4 d’automatisation.
Le premier modèle Alpamayo est disponible sur Hugging Face, NVIDIA souhaitant que les développeurs s’en emparent pour le spécialiser ou le distiller.
Des plans concrets
Contrairement aux précédentes annonces de NVIDIA dans ce domaine, l’arrivée d’Alpamayo a été suivie immédiatement par la confirmation d’un premier véhicule pour le premier trimestre de cette année : une Mercedes-Benz CLA de 2025, basée sur la plateforme DRIVE et utilisant donc Alpamayo. Comme l’indique le communiqué de presse, il s’agit pour l’instant d’une conduite de niveau 2 +, à destination du marché américain uniquement. L’Europe et l’Asie doivent suivre plus tard dans l’année, sans autre précision pour l’instant.
Cette voiture, qui s’inscrit dans le cadre d’un partenariat entre les deux entreprises depuis 2020, proposera des fonctions comme « la navigation urbaine point à point dans des environnements urbains complexes, une sécurité active avancée avec prévention proactive des collisions et un stationnement automatisé dans les espaces exigus ».
Rien de révolutionnaire dans l’absolu, mais il s’agira du premier véhicule à tirer réellement partie de toute la pile DRIVE : Cosmos pour l’entrainement, Omniverse pour les bibliothèques et microservices, Alpamayo pour la conduite elle-même et Halos pour la sécurité. La présentation était assortie d’une démonstration de 45 minutes où l’on pouvait notamment voir la Mercedes se glisser dans une circulation dense à San Francisco
Les ambitions de NVIDIA dans ce domaine sont très claires : « Notre vision est qu’un jour, chaque voiture, chaque camion sera autonome, et nous travaillons à cet avenir », a déclaré Jensen Huang, CEO de la société. L’expertise dont elle se dote à toute allure se répand également dans les usines de production et les robots, avec des partenaires comme Synopsys, Cadence, Boston Dynamics et Franka.
Chambardement dans l’industrie automobile ?
NVIDIA n’a donc clairement pas l’intention de se laisser enfermer dans le domaine du matériel, qui commence déjà à montrer des signes de tensions importantes avec les problèmes d’approvisionnement en mémoire. La société jouit déjà depuis longtemps d’une pile logicielle en expansion constante pour exploiter la puissance de ses GPU dans de multiples domaines. Elle avait commencé avec CUDA et a récupéré la première place dans la course folle à l’IA, voyant au passage sa capitalisation boursière exploser.
L’arrivée d’un tel acteur dans le domaine de la conduite autonome pourrait donc entrainer un bouleversement dans l’industrie automobile, d’autant que l’arrivée de la Mercedes-Benz CLA modifiée vient poser du concret sur la table. Plusieurs autres véhicules sont prévus, en provenance de Toyota, Volvo, Lotus ou encore Rivian, tous basés sur la plateforme DRIVE.
NVIDIA, dans ses communications, n’évoque jamais directement Tesla, mais il suffit d’avoir vu la vidéo consacrée à Cosmos pour comprendre la référence : « Collecter des données entrainées sur le monde réel est un processus lent et couteux, et ce n’est jamais assez. La réponse ? Les données synthétiques ». Jensen Huang a cependant été interrogé sur cette comparaison par Bloomberg. Le CEO estime que la pile logicielle de Tesla est actuellement « la plus avancée au monde » et que les approches des deux entreprises sont « assez similaires ». Ne voulant manifestement pas développer plus loin le sujet, Huang a simplement ajouté qu’il « encourageait » Tesla à continuer.
La comparaison avec Tesla est inévitable. Est-ce pour autant un concurrent direct ? Pas vraiment. Tesla est assise sur une base immense de données de conduite issues directement de l’utilisation de ses véhicules. Une base qui continue de grandir, permettant d’affiner sa fonction de conduite supervisée FSD (Full Self-Driving). Tesla ne licencie pas sa technologie, qui n’existe que sur ses propres véhicules. NVIDIA part au contraire d’une technologie plus ouverte et de données synthétiques, que les constructeurs sont libres d’intégrer.
Avec cette approche, NVIDIA veut se tailler une place de choix. Fournir gratuitement les modèles et le simulateur permet une adoption rapide, ainsi que le prototypage de nouvelles solutions. NVIDIA cherche tout simplement à reproduire le grand succès de CUDA, car une fois les solutions prêtes, c’est bien son matériel qui doit être utilisé pour les faire fonctionner. Et NVIDIA vend bien sûr des kits de développement Drive AGX (Thor et Orin), le même système qui peut ensuite être intégré aux véhicules pour s’occuper des calculs. Et pour entrainer les modèles ? Il faut des systèmes DGX, contenant les fameuses puces dédiées à l’IA et dont le couple Vera Rubin est la prochaine incarnation.
NVIDIA n’est cependant pas la seule entreprise à proposer ce type de vision intégrée. Qualcomm est également sur la rampe depuis des années avec son Digital Chassis, notamment renforcé en 2023 en direction des deux roues. La société s’intéresse également depuis longtemps aux communications entre les véhicules et l’infrastructure. Et le CES a également été l’occasion de plusieurs annonces autour de « l’IA physique ».
Microsoft prévoyait depuis avril 2024 d’imposer graduellement une limite de 2 000 e-mails par jour et par personne dans les entreprises clientes d’Exchange Online. Un changement radical de l’External Recipient Rate, puisque la limite était alors fixée à 10 000. Microsoft justifiait la mesure par des abus constatés, l’éditeur expliquant que son service n’était pas conçu pour les envois de masse.
Ce changement devait initialement prendre effet au 1er janvier 2026. Comme le rappelle notamment Neowin, il avait été repoussé à avril pour les nouveaux clients et les comptes d’essais, et à octobre pour les comptes existants. Il n’en sera finalement rien.
Dans un billet de blog publié le 6 janvier, Microsoft explique avoir renoncé à ce changement « indéfiniment pour le moment ». La raison ? Les retours négatifs de la clientèle : « Les clients ont indiqué que cette limite pose d’importants défis opérationnels, surtout compte tenu des capacités limitées des offres d’envoi en masse disponibles aujourd’hui. Vos retours comptent, et nous nous engageons à trouver des solutions qui équilibrent sécurité et ergonomie sans provoquer de perturbations inutiles ».
Microsoft ajoute vouloir toujours combattre les abus du service, « comme le spam et les e-mails malveillants ». Elle aimerait également limiter les mésusages d’Exchange Online, dont les applications line-of-business (LOB) qui se servent du service pour les envois de masse. « Cependant, nous prévoyons de traiter ces problèmes de manière à moins perturber les flux de travail de votre entreprise. Cela signifie des approches plus intelligentes et adaptatives qui protègent le service tout en respectant vos besoins opérationnels », ajoute l’entreprise.
La limite reste donc de 10 000 e-mails envoyés par jour et par personne, en tout cas pour l’instant.
NVIDIA ne veut pas rester enfermée dans le matériel. L’entreprise a profité du CES pour dévoiler une toute nouvelle plateforme et plusieurs modèles IA ouverts pour permettre aux constructeurs automobiles de progresser vers la conduite autonome.
Tesla aurait-elle tout à coup un très sérieux concurrent ? Pas sûr, mais la société d’Elon Musk doit surveiller de près le développement de NVIDIA, dont les activités sur la conduite autonome se renforcent depuis une décennie maintenant et viennent de passer un nouveau cap.
Si la présentation de la plateforme Vera Rubin a largement concentré les attentions, la firme au caméléon avait une autre annonce majeure en réserve. Elle a ainsi officialisé une plateforme désormais complète pour aider à développer des véhicules autonomes. Contrairement à Tesla qui développe sa propre technologie à des fins d’intégration verticale, NVIDIA a choisi de se présenter en fournisseur d’un « cadre » de développement, permettant de gérer toutes les étapes de l’automatisation.
Revenons d’abord un instant sur Cosmos, une plateforme déjà présentée et conçue pour accélérer le développement de ce que NVIDIA nomme « l’IA physique » (véhicules autonomes, robots, agents d’analyse vidéo…). Elle comprend des modèles de fondation ouverts, un lot de garde-fous et des bibliothèques pour traiter les informations. En clair, Cosmos est dédié à l’entrainement des modèles.
Lors d’une présentation au CES, NVIDIA a fait la démonstration d’opérations réalisées par Cosmos : génération de vidéos « réalistes » depuis une seule image, synthèse de scénarios de conduite multi-caméras, modélisation d’environnements spécifiques, raisonnement « physique » et prédiction de trajectoires, etc. Pendant la présentation, ces opérations étaient réalisées à partir de la version 2 des modèles Cosmos.
Sur ce socle amélioré, NVIDIA vient greffer Alpamayo. Ce portefeuille est constitué de modèles d’intelligence artificielle de type vision-langage-action (VLA) allant au-delà de la simple perception. Selon Jensen Huang, « Alpamayo permet aux véhicules autonomes de réfléchir dans des situations rares, de naviguer en toute sécurité dans des environnements complexes, et d’expliquer leurs décisions de conduite. Non seulement il prend l’entrée des capteurs et active le volant, les freins et l’accélération, mais il réfléchit aussi à l’action qu’il va entreprendre ».
Alpamayo 1, le modèle principal, compte 10 milliards de paramètres. Il peut traiter la vidéo des caméras pour générer des trajectoires de conduite. Les ambitions de NVIDIA passent également par l’open source : les modèles sont ouverts et sont accompagnés d’un simulateur (AlpaSim) et d’une base comptant les données de plus de 1 700 heures de conduite. Le tout s’intègre dans la plateforme DRIVE Hyperion dédiée au développement de véhicules autonomes, avec la volonté affichée de faire progresser les véhicules vers le niveau 4 d’automatisation.
Le premier modèle Alpamayo est disponible sur Hugging Face, NVIDIA souhaitant que les développeurs s’en emparent pour le spécialiser ou le distiller.
Des plans concrets
Contrairement aux précédentes annonces de NVIDIA dans ce domaine, l’arrivée d’Alpamayo a été suivie immédiatement par la confirmation d’un premier véhicule pour le premier trimestre de cette année : une Mercedes-Benz CLA de 2025, basée sur la plateforme DRIVE et utilisant donc Alpamayo. Comme l’indique le communiqué de presse, il s’agit pour l’instant d’une conduite de niveau 2 +, à destination du marché américain uniquement. L’Europe et l’Asie doivent suivre plus tard dans l’année, sans autre précision pour l’instant.
Cette voiture, qui s’inscrit dans le cadre d’un partenariat entre les deux entreprises depuis 2020, proposera des fonctions comme « la navigation urbaine point à point dans des environnements urbains complexes, une sécurité active avancée avec prévention proactive des collisions et un stationnement automatisé dans les espaces exigus ».
Rien de révolutionnaire dans l’absolu, mais il s’agira du premier véhicule à tirer réellement partie de toute la pile DRIVE : Cosmos pour l’entrainement, Omniverse pour les bibliothèques et microservices, Alpamayo pour la conduite elle-même et Halos pour la sécurité. La présentation était assortie d’une démonstration de 45 minutes où l’on pouvait notamment voir la Mercedes se glisser dans une circulation dense à San Francisco
Les ambitions de NVIDIA dans ce domaine sont très claires : « Notre vision est qu’un jour, chaque voiture, chaque camion sera autonome, et nous travaillons à cet avenir », a déclaré Jensen Huang, CEO de la société. L’expertise dont elle se dote à toute allure se répand également dans les usines de production et les robots, avec des partenaires comme Synopsys, Cadence, Boston Dynamics et Franka.
Chambardement dans l’industrie automobile ?
NVIDIA n’a donc clairement pas l’intention de se laisser enfermer dans le domaine du matériel, qui commence déjà à montrer des signes de tensions importantes avec les problèmes d’approvisionnement en mémoire. La société jouit déjà depuis longtemps d’une pile logicielle en expansion constante pour exploiter la puissance de ses GPU dans de multiples domaines. Elle avait commencé avec CUDA et a récupéré la première place dans la course folle à l’IA, voyant au passage sa capitalisation boursière exploser.
L’arrivée d’un tel acteur dans le domaine de la conduite autonome pourrait donc entrainer un bouleversement dans l’industrie automobile, d’autant que l’arrivée de la Mercedes-Benz CLA modifiée vient poser du concret sur la table. Plusieurs autres véhicules sont prévus, en provenance de Toyota, Volvo, Lotus ou encore Rivian, tous basés sur la plateforme DRIVE.
NVIDIA, dans ses communications, n’évoque jamais directement Tesla, mais il suffit d’avoir vu la vidéo consacrée à Cosmos pour comprendre la référence : « Collecter des données entrainées sur le monde réel est un processus lent et couteux, et ce n’est jamais assez. La réponse ? Les données synthétiques ». Jensen Huang a cependant été interrogé sur cette comparaison par Bloomberg. Le CEO estime que la pile logicielle de Tesla est actuellement « la plus avancée au monde » et que les approches des deux entreprises sont « assez similaires ». Ne voulant manifestement pas développer plus loin le sujet, Huang a simplement ajouté qu’il « encourageait » Tesla à continuer.
La comparaison avec Tesla est inévitable. Est-ce pour autant un concurrent direct ? Pas vraiment. Tesla est assise sur une base immense de données de conduite issues directement de l’utilisation de ses véhicules. Une base qui continue de grandir, permettant d’affiner sa fonction de conduite supervisée FSD (Full Self-Driving). Tesla ne licencie pas sa technologie, qui n’existe que sur ses propres véhicules. NVIDIA part au contraire d’une technologie plus ouverte et de données synthétiques, que les constructeurs sont libres d’intégrer.
Avec cette approche, NVIDIA veut se tailler une place de choix. Fournir gratuitement les modèles et le simulateur permet une adoption rapide, ainsi que le prototypage de nouvelles solutions. NVIDIA cherche tout simplement à reproduire le grand succès de CUDA, car une fois les solutions prêtes, c’est bien son matériel qui doit être utilisé pour les faire fonctionner. Et NVIDIA vend bien sûr des kits de développement Drive AGX (Thor et Orin), le même système qui peut ensuite être intégré aux véhicules pour s’occuper des calculs. Et pour entrainer les modèles ? Il faut des systèmes DGX, contenant les fameuses puces dédiées à l’IA et dont le couple Vera Rubin est la prochaine incarnation.
NVIDIA n’est cependant pas la seule entreprise à proposer ce type de vision intégrée. Qualcomm est également sur la rampe depuis des années avec son Digital Chassis, notamment renforcé en 2023 en direction des deux roues. La société s’intéresse également depuis longtemps aux communications entre les véhicules et l’infrastructure. Et le CES a également été l’occasion de plusieurs annonces autour de « l’IA physique ».
NVIDIA semble enfin prendre un peu plus au sérieux la plateforme Linux avec l’annonce de l’arrivée de son GeForce Now au pays des manchots.
L’entreprise en a fait l’annonce pendant le CES. « Les PC Linux et les clés USB Amazon Fire TV rejoignent la famille d’applications natives GeForce Now », déclare NVIDIA. L’application sera basée sur celles qui existent déjà pour Windows, macOS ou encore les Chromebooks. Les offres seront strictement identiques. À ce sujet, NVIDIA assortit désormais tous les abonnements d’une limite mensuelle de 100 heures (sauf anciennes formules antérieures à 2021 et dont l’abonnement a été payé depuis sans interruption).
Mais attention, car le support officiel de Linux n’est prévu que pour Ubuntu 24.04 et ses versions ultérieures. Cela ne signifie pas qu’on ne pourra pas l’installer sur d’autres distributions, mais que les problèmes rencontrés ailleurs ne seront pas une priorité pour NVIDIA. Côté Fire TV d’Amazon, le support initial ne concernera que deux modèles, les Stick 4K Plus (2ᵉ génération) et Stick 4K Max (2ᵉ génération).
Dans tous les cas, l’application devrait arriver en bêta en ce « début d’année », sans plus de précisions.
NVIDIA semble enfin prendre un peu plus au sérieux la plateforme Linux avec l’annonce de l’arrivée de son GeForce Now au pays des manchots.
L’entreprise en a fait l’annonce pendant le CES. « Les PC Linux et les clés USB Amazon Fire TV rejoignent la famille d’applications natives GeForce Now », déclare NVIDIA. L’application sera basée sur celles qui existent déjà pour Windows, macOS ou encore les Chromebooks. Les offres seront strictement identiques. À ce sujet, NVIDIA assortit désormais tous les abonnements d’une limite mensuelle de 100 heures (sauf anciennes formules antérieures à 2021 et dont l’abonnement a été payé depuis sans interruption).
Mais attention, car le support officiel de Linux n’est prévu que pour Ubuntu 24.04 et ses versions ultérieures. Cela ne signifie pas qu’on ne pourra pas l’installer sur d’autres distributions, mais que les problèmes rencontrés ailleurs ne seront pas une priorité pour NVIDIA. Côté Fire TV d’Amazon, le support initial ne concernera que deux modèles, les Stick 4K Plus (2ᵉ génération) et Stick 4K Max (2ᵉ génération).
Dans tous les cas, l’application devrait arriver en bêta en ce « début d’année », sans plus de précisions.
Alors que les débats autour de la souveraineté numérique sont particulièrement vifs cette année, la qualification SecNumCloud, délivrée par l’ANSSI, revient souvent sur la table. Le directeur de l’agence, Vincent Strubel, a tenu à rappeler les forces et limites du label.
Le directeur de l’Agence nationale de la sécurité des systèmes d’information a pris la plume ce 6 janvier sur LinkedIn. Objectif : refaire un tour d’horizon de ce qu’est et n’est pas la qualification SecNumCloud (SNC pour les intimes). Il estime en effet que des « incompréhensions persistantes » gravitent autour de SecNumCloud, remises en lumière par l’obtention récente du label par S3NS sur son offre hybride.
Il rappelle ainsi que la qualification SNC est un processus long et exigeant, avec de multiples facettes (1 200 points de contrôle) et qui s’applique de la même manière à tous les candidats. Les garanties apportées sont techniques, juridiques et organisationnelles. La qualification a en outre été pensée pour les usages sensibles du cloud, pas pour les solutions standards.
La protection contre la portée extraterritoriale des lois étrangères (les lois américaines Cloud Act et FISA sont citées) est l’aspect le plus souvent discuté. Plusieurs critères sont imposés : le siège social du prestataire et sa capitalisation doivent être européens, les sous-traitants et fournisseurs ne doivent jamais avoir accès aux données des clients, et il doit prouver une autonomie complète dans l’exploitation de sa solution.
SecNumCloud immunise également contre le « kill switch », « celui de voir des prestataires non européens contraints de couper le service qu’ils fournissent à certains de leurs clients, en fonction de sanctions ou de restrictions d’exportations imposées par le pays d’origine de ces prestataires », explique Vincent Strubel. Le directeur de l’ANSSI mentionne à ce sujet le cas emblématique des magistrats de la Cour Pénale Internationale. Ici, le prestataire européen n’est pas tenu de donner suite à une telle injonction.
Il y a quelques temps, Vincent Strubel rappelait à juste titre que la protection contre les lois extraterritoriales est « souvent ce que l’on retient, mais au final, ça ne représente qu’une page dans les 55 du référentiel, sans même parler de toutes les annexes et les documents auxquels ils renvoient ».
La qualification n’est pas une barrière absolue
En revanche, la qualification n’est pas une protection absolue pour tous les scénarios. Surtout, comme le rappelle le directeur, elle ne signifie pas une absence de dépendances : « Une qualification SecNumCloud ne signifie pas que le prestataire de cloud peut opérer à long terme en autarcie complète, sans s’appuyer sur des fournisseurs non européens ni disposer de mises à jour fournies par des tiers ».
S’il pointe que des offres hybrides comme Bleu et S3NS sont « sans doute » plus exposées à ce risque, le choix n’est pas binaire. Ainsi, toutes les offres de cloud dépendent d’une manière ou d’une autre de technologies non européennes. Il peut s’agir aussi bien de la partie logicielle (systèmes d’exploitation, bases de données, couches d’orchestration…) que de la partie matérielle (CPU, GPU…). L’open source peut jouer « indiscutablement » un rôle dans l’émancipation, sans être « pour autant la panacée » : « aucun acteur, État ou entreprise, ne maîtrise entièrement, et ne peut prétendre forker et maintenir en autarcie toute la stack technologique du cloud », indique Vincent Strubel.
Pour le directeur de l’ANSSI, il est « évident » que priver l’Europe de l’accès à la technologie américaine ou chinoise entrainera nécessairement un « problème global de dégradation du niveau de sécurité en l’absence de mises à jour, dans le cloud comme ailleurs ». Ce problème ne concerne pas que les offres hybrides, pas même uniquement le cloud. D’ailleurs, il estime que la montée en compétence dans la capacité européenne à exploiter des technologies américaines « est en soi un progrès dans la prise en compte des dépendances ».
Sans le dire explicitement, Vincent Strubel semble regretter cependant que la plupart des débats tournent autour de la partie juridique et de l’extraterritorialité des lois. Il rappelle que les cyberattaques restent « la menace la plus tangible » sur le cloud et que SecNumCloud impose de fortes contraintes, que ce soit sur l’architecture ou les caractéristiques techniques. On retrouve par exemple le cloisonnement fort entre clients, chaine d’administration et supervision, la gestion sécurisée des mises à jour ou encore le chiffrement systématique des données, aussi bien en transit qu’au repos.
Il ajoute à cela la dimension humaine, en rappelant que le référentiel SNC « consacre un chapitre entier aux ressources humaines du prestataire ». En plus d’exigences techniques pour garantir qu’aucun employé n’est en mesure de porter une atteinte grave sans être détecté, la qualification prend en compte l’éventuelle coopération d’employés dans un objectif malveillant, que ce soit « par corruption, contrainte ou infiltration ».
« Un outil de cybersécurité, pas de politique industrielle »
Enfin, dans une petite FAQ en fin de billet, le directeur de l’ANSSI aborde deux questions importantes. SecNumCloud est-il un label de souveraineté ? Pas de réponse définie, la « souveraineté » n’ayant pas de définition unique… et c’est peu de le dire. La qualification permet au moins de se pencher sur les aspects cybersécurité et extraterritorialité, et influe en partie sur le choix des technologies. « Les offres qualifiées SecNumCloud sont donc, sans le moindre doute, « souveraines », et cette qualification est un levier indispensable pour défendre notre souveraineté numérique », indique Strubel.
En revanche, SecNumCloud est « un outil de cybersécurité, pas de politique industrielle ». Il n’en naitra donc pas « des solutions alternatives ou des briques technologiques maîtrisées pour résoudre toutes les questions de dépendances », avertit le directeur.
Quant à savoir si les offres hybrides qualifiées offrent le même niveau de garantie que les autres, il répond clairement : « Oui ». Un fournisseur comme S3NS « n’est pas forcément en mesure d’assurer la maintenance dans la durée de sa solution s’il est privé de tout accès à la technologie non européenne, mais les offres « non hybrides » sont également soumises à ce risque fondamental, même si leurs dépendances peuvent être moindres, plus réparties ou plus complexes à identifier ».
Ce sujet de la « durée de vie » des systèmes en cas de coupure nette, nous en avions parlé avec Bleu et S3NS. Les deux pensent pouvoir tenir au moins plusieurs mois avec des plans de réversibilité. Si nous devions en arriver à une telle situation, cela signifierait qu’il y aurait des problèmes bien plus importants avec Microsoft, ainsi qu’entre la France et les États-Unis, nous expliquait Bleu récemment.
Alors que les débats autour de la souveraineté numérique sont particulièrement vifs cette année, la qualification SecNumCloud, délivrée par l’ANSSI, revient souvent sur la table. Le directeur de l’agence, Vincent Strubel, a tenu à rappeler les forces et limites du label.
Le directeur de l’Agence nationale de la sécurité des systèmes d’information a pris la plume ce 6 janvier sur LinkedIn. Objectif : refaire un tour d’horizon de ce qu’est et n’est pas la qualification SecNumCloud (SNC pour les intimes). Il estime en effet que des « incompréhensions persistantes » gravitent autour de SecNumCloud, remises en lumière par l’obtention récente du label par S3NS sur son offre hybride.
Il rappelle ainsi que la qualification SNC est un processus long et exigeant, avec de multiples facettes (1 200 points de contrôle) et qui s’applique de la même manière à tous les candidats. Les garanties apportées sont techniques, juridiques et organisationnelles. La qualification a en outre été pensée pour les usages sensibles du cloud, pas pour les solutions standards.
La protection contre la portée extraterritoriale des lois étrangères (les lois américaines Cloud Act et FISA sont citées) est l’aspect le plus souvent discuté. Plusieurs critères sont imposés : le siège social du prestataire et sa capitalisation doivent être européens, les sous-traitants et fournisseurs ne doivent jamais avoir accès aux données des clients, et il doit prouver une autonomie complète dans l’exploitation de sa solution.
SecNumCloud immunise également contre le « kill switch », « celui de voir des prestataires non européens contraints de couper le service qu’ils fournissent à certains de leurs clients, en fonction de sanctions ou de restrictions d’exportations imposées par le pays d’origine de ces prestataires », explique Vincent Strubel. Le directeur de l’ANSSI mentionne à ce sujet le cas emblématique des magistrats de la Cour Pénale Internationale. Ici, le prestataire européen n’est pas tenu de donner suite à une telle injonction.
Il y a quelques temps, Vincent Strubel rappelait à juste titre que la protection contre les lois extraterritoriales est « souvent ce que l’on retient, mais au final, ça ne représente qu’une page dans les 55 du référentiel, sans même parler de toutes les annexes et les documents auxquels ils renvoient ».
La qualification n’est pas une barrière absolue
En revanche, la qualification n’est pas une protection absolue pour tous les scénarios. Surtout, comme le rappelle le directeur, elle ne signifie pas une absence de dépendances : « Une qualification SecNumCloud ne signifie pas que le prestataire de cloud peut opérer à long terme en autarcie complète, sans s’appuyer sur des fournisseurs non européens ni disposer de mises à jour fournies par des tiers ».
S’il pointe que des offres hybrides comme Bleu et S3NS sont « sans doute » plus exposées à ce risque, le choix n’est pas binaire. Ainsi, toutes les offres de cloud dépendent d’une manière ou d’une autre de technologies non européennes. Il peut s’agir aussi bien de la partie logicielle (systèmes d’exploitation, bases de données, couches d’orchestration…) que de la partie matérielle (CPU, GPU…). L’open source peut jouer « indiscutablement » un rôle dans l’émancipation, sans être « pour autant la panacée » : « aucun acteur, État ou entreprise, ne maîtrise entièrement, et ne peut prétendre forker et maintenir en autarcie toute la stack technologique du cloud », indique Vincent Strubel.
Pour le directeur de l’ANSSI, il est « évident » que priver l’Europe de l’accès à la technologie américaine ou chinoise entrainera nécessairement un « problème global de dégradation du niveau de sécurité en l’absence de mises à jour, dans le cloud comme ailleurs ». Ce problème ne concerne pas que les offres hybrides, pas même uniquement le cloud. D’ailleurs, il estime que la montée en compétence dans la capacité européenne à exploiter des technologies américaines « est en soi un progrès dans la prise en compte des dépendances ».
Sans le dire explicitement, Vincent Strubel semble regretter cependant que la plupart des débats tournent autour de la partie juridique et de l’extraterritorialité des lois. Il rappelle que les cyberattaques restent « la menace la plus tangible » sur le cloud et que SecNumCloud impose de fortes contraintes, que ce soit sur l’architecture ou les caractéristiques techniques. On retrouve par exemple le cloisonnement fort entre clients, chaine d’administration et supervision, la gestion sécurisée des mises à jour ou encore le chiffrement systématique des données, aussi bien en transit qu’au repos.
Il ajoute à cela la dimension humaine, en rappelant que le référentiel SNC « consacre un chapitre entier aux ressources humaines du prestataire ». En plus d’exigences techniques pour garantir qu’aucun employé n’est en mesure de porter une atteinte grave sans être détecté, la qualification prend en compte l’éventuelle coopération d’employés dans un objectif malveillant, que ce soit « par corruption, contrainte ou infiltration ».
« Un outil de cybersécurité, pas de politique industrielle »
Enfin, dans une petite FAQ en fin de billet, le directeur de l’ANSSI aborde deux questions importantes. SecNumCloud est-il un label de souveraineté ? Pas de réponse définie, la « souveraineté » n’ayant pas de définition unique… et c’est peu de le dire. La qualification permet au moins de se pencher sur les aspects cybersécurité et extraterritorialité, et influe en partie sur le choix des technologies. « Les offres qualifiées SecNumCloud sont donc, sans le moindre doute, « souveraines », et cette qualification est un levier indispensable pour défendre notre souveraineté numérique », indique Strubel.
En revanche, SecNumCloud est « un outil de cybersécurité, pas de politique industrielle ». Il n’en naitra donc pas « des solutions alternatives ou des briques technologiques maîtrisées pour résoudre toutes les questions de dépendances », avertit le directeur.
Quant à savoir si les offres hybrides qualifiées offrent le même niveau de garantie que les autres, il répond clairement : « Oui ». Un fournisseur comme S3NS « n’est pas forcément en mesure d’assurer la maintenance dans la durée de sa solution s’il est privé de tout accès à la technologie non européenne, mais les offres « non hybrides » sont également soumises à ce risque fondamental, même si leurs dépendances peuvent être moindres, plus réparties ou plus complexes à identifier ».
Ce sujet de la « durée de vie » des systèmes en cas de coupure nette, nous en avions parlé avec Bleu et S3NS. Les deux pensent pouvoir tenir au moins plusieurs mois avec des plans de réversibilité. Si nous devions en arriver à une telle situation, cela signifierait qu’il y aurait des problèmes bien plus importants avec Microsoft, ainsi qu’entre la France et les États-Unis, nous expliquait Bleu récemment.
L’équipe a bien voulu se prêter à un petit exercice : quels types de claviers utilisent les membres de la rédaction ? Quel rapport entretient l’équipe avec ce périphérique si anodin mais sur lequel nous passons une aussi grande partie de notre temps ?
Je ne suis pas un fou des claviers, mais ils m’intéressent assez pour que l’entassement commence à se faire sentir dans un placard. J’ai toujours été sensible au confort de frappe. Avec l’explosion des claviers mécaniques ces dernières années, un autre phénomène s’est enclenché chez certaines personnes : la course au « feeling ». Comment obtenir le son parfait ? La frappe la plus satisfaisante ?
Dans la grande majorité des tests de claviers que l’on peut voir sur YouTube, une partie est ainsi réservée au test sonore : un exercice de dactylo, un micro plus ou moins bon, et vous obtenez des sons qui peuvent vous faire autant d’effet que l’ASMR (pour celles et ceux qui y sont sensibles), ou au contraire faire grimper l’exaspération, comme un bruit de mastication quand on est misophone (coucou).
Alors parlons claviers !
De la membrane au mécanique low profile
J’utilise au quotidien un clavier Magi96 Pro de la marque chinoise Iqunix. Elle est presque inconnue en France, mais mériterait de se faire une place dans le cœur des utilisateurs… qui n’ont pas peur d’abandonner l’ISO-FR (le fameux azerty).
Pourquoi cette marque, ce modèle ? Parce que j’avais vu passer plusieurs tests de leur Magi65 Pro, que celui-ci m’avait conquis et que je voulais une version plus complète, avec les touches de fonctions et le pavé numérique. J’apprécie son knob pour régler rapidement le son, ses contrôles médias sur cette croix si étrange, et son emplacement pour le dongle USB (Wi-Fi 2,4 GHz). Il est plutôt cher (180 dollars, sans les frais de port), mais la qualité se ressent partout, jusque dans le poids (près de 2 kg). Et malgré les apparences, la base n’est pas en plastique, mais en aluminium.
C’est actuellement le clavier qui me fournit le plus grand plaisir à l’écriture, pour le confort de frappe (touches en PBT, switchs lubrifiés…) et le son « crémeux » aujourd’hui recherché par une partie du public. Comment j’en suis arrivé là ? Après de nombreuses années sur des claviers à membrane, dont l’excellent Illuminated de Logitech et ses descendants (en quelque sorte) K800 et MX Keys. Mes premières vraies incursions dans le monde du mécanique en 2019 n’ont pas été très heureuses : des fautes de frappe, encore et encore. Je me suis rendu compte que le retour aux touches en hauteur pleine ne passait pas, malgré les semaines à insister. J’avais passé trop de temps sur les claviers « plats » de type ordinateur portable.
La solution ? Le low-profile ! Mais une fois que vous savez ce que vous aimez, vous entrez dans la spirale infernale, car vous allez devoir trouver LE clavier qui correspond à vos gouts. Vous vous rendez alors compte d’un facteur vraiment limitant : l’ISO-FR. Si vous cherchez un clavier mécanique, low-profile, avec un certain travail sur le son et dont le design vous plait à peu près, la liste de possibilités se réduit comme peau de chagrin !
J’ai la chance d’avoir développé suffisamment de mémoire musculaire sur le clavier pour ne pas le regarder quand j’écris, ce qui m’a ouvert le marché de la disposition américaine (ANSI). Mais quand on branche un tel clavier sur n’importe quel PC avec Windows ou Linux, c’est bien le layout français qui s’applique par défaut. J’avoue, parfois, c’est juste un peu galère quand je cherche un caractère spécifique et peu utilisé. Mais c’est aussi l’avantage d’un clavier choisi avec soin : on peut le paramétrer complètement avec l’outil VIA, qui autorise entre autres le changement de comportement de chaque touche, par exemple pour lui affecter une macro. Et au passage, j’évite d’installer un logiciel dédié, souvent gourmand en ressources, mal fichu et envahissant (coucou Logitech).
Vous vous dites peut-être que ce genre de petite passion grandissante est répandue dans une rédaction comme la nôtre ? Détrompez-vous ! Je suis (pratiquement) le seul.
Martin : bons baisers de Norvège
Interrogé sur son rapport aux claviers, Martin répond : « Je n’ai pas vraiment d’attentes particulières. Je veux juste que ce soit agréable à utiliser. Je ne vais pas chercher spécifiquement un bon clavier ou faire attention à ce point en achetant un portable. Par contre, si je n’aime pas l’expérience de frappe, je changerai ».
Dans son cas, il y a quand même une petite originalité. Il partage sa vie entre la France et la Norvège. C’est là-bas que son ancien PC l’a lâché. Il s’est donc choisi une nouvelle cible (Pavilion Plus Laptop 14) et comptait faire comme d’habitude : dégager Windows pour le remplacer par Debian. Mais avant même de commencer, il s’est aperçu d’un « oubli » dans son choix de machine : « Le clavier est en disposition norvégienne. C’était bizarre au début, et finalement je m’y suis fait ». Et le confort de frappe ? « Je l’ai trouvé sympa, je l’ai gardé ».
Mathilde couldn’t care less
Sur la question des claviers, Mathilde est claire : elle s’en fout. Ça ne l’a jamais intéressé, c’est un périphérique comme un autre, un simple outil sur lequel poser ses doigts pour écrire. Elle ne pense pas être réceptive à ce genre de critère.
« J’utilise un MacBook Pro 13 pouces que j’ai acheté en reconditionné en 2020. Le seul truc que je peux dire, c’est que certaines lettres s’effacent aujourd’hui à force d’écrire. C’est tout ce que ça m’évoque ! », m’indique ma collègue. Apple d’ailleurs, si tu nous lis : merci d’utiliser des matériaux un peu plus nobles pour tes claviers, l’ABS qui devient lisse en quelques années ne cadre pas des masses avec le positionnement premium de tes machines.
Jean-Marc se fournit chez Emmaüs
Jean-Marc s’en fout un peu lui aussi globalement : « J’achète tous mes claviers en seconde main au Emmaüs qui est à quelques minutes à pied de chez moi ». Des besoins particuliers ? « Aucun, je veux juste que ce soient des modèles filaires pour des questions de sécurité et qu’ils soient globalement en bon état. Je ne suis pas spécialement sensible au confort de frappe ou au son que font les touches ».
C’est en revanche le seul à s’être posé ouvertement la question de l’hygiène de ce périphérique : « Je me dis quand même, on pose nos doigts dessus toute la journée ». Et il a raison, car on devrait nettoyer régulièrement la surface des touches avec un chiffon doux et un produit nettoyant (non abrasif). Passer un petit coup d’aspirateur ou de soufflette entre les touches ne ferait pas de mal non plus, quand c’est possible.
Si Jean-Marc n’est pas sensible aux claviers, il l’est beaucoup plus en ce qui concerne les souris : « Je n’utilise que des souris verticales depuis dix ans, ça a sauvé mon poignet ». Intrigué, je m’en suis payé une à Noël, une Swift de Logitech. Et je dois bien avouer que pour l’instant, la sensation est (très) agréable.
Sébastien ne jure que par l’Azerty+
Changement radical chez notre rédac-chef. « Je passe mon temps à changer de clavier, surtout entre le portable, beaucoup dans le train, et le PC de bureau. Je suis obligé de changer, et qui dit changement dit ne pas s’habituer à un clavier précis. Et j’en ai encore un autre, celui qui est dans la cave avec la machine qui me sert de serveur », me dit Sébastien. « Je ne me suis jamais penché sur la question des claviers, parce que c’est avant tout un outil de travail, et j’en change régulièrement », ajoute-t-il, rejoignant Mathilde.
Mais le chef a quand même une particularité : « Mon clavier principal est en Azerty+. Je l’avais acheté chez LDLC, qui était un des rares à en faire au lancement. Je me suis forcé à passer un mois avec pour le tester et j’en suis tombé amoureux. Pas du clavier lui-même, qui est en plastique un peu pourri, mais de l’Azerty+ qui me simplifie vraiment la vie. Les guillemets français, les semi-cadratins, les puissances, le point accessible sans Shift, tout ça. Sur mon portable, j’ai basculé la disposition en Azerty+ aussi, je ne regarde pas les touches de toute façon ». C’est le même clavier dont il faisait le bilan de l’utilisation en 2023.
Un setup de chef !
Cette disposition le fait un peu râler de temps en temps… quand il ne peut pas l’avoir. Dans certains scénarios, elle n’est pas bien reconnue, notamment dans des sessions distantes (telnet par exemple) ou dans des machines virtuelles.
Et si d’autres claviers existaient en Azerty+ ? « Ah oui, là je me poserais la question de changer pour un modèle plus qualitatif. Mais il n’y a pas de choix ».
En bonus, Seb dispose dans sa cave d’une caverne aux merveilles, avec des ordinateurs et périphériques datant des 40 dernières années. Voilà par exemple un vieux clavier Keytronics datant de 1985 (on entend presque les synthés) : très lourd (2,8 kg), avec une base en métal, il avait l’originalité de disposer d’une zone tactile dans laquelle on pouvait placer des grilles équipées de fonctions macros. Par exemple, pour lancer un diskcopy, ou réaliser des actions spécifiques dans Lotus123 ou dans… DOS 2.0.
Alexandre : copain de clavier
Pour mon autre chef, tout est parfaitement clair : « Il y a trois éléments sur lesquels je ne me mets aucune limite de budget : la chaise de bureau, l’écran et le clavier. Ce sont vraiment les trois trucs primordiaux pour le confort de travail. Je ne considère pas que c’est de l’argent jeté par les fenêtres », m’explique Alexandre.
Copain de clavier ? « Dans mon parcours, je n’en ai rien eu à faire pendant longtemps. Mais quand je suis devenu journaliste, je me suis mis à écrire 10 heures par jour. Mon vrai premier amour, ça a été l’Illuminated Keyboard de Logitech ». Copain de clavier !
« C’était pas tellement lié au rétro-éclairage, même si c’était encore peu répandu à l’époque. J’adorais vraiment la frappe : j’écrivais vite, sans avoir l’impression de faire un effort. Je ne trouvais aucun équivalent à ce confort, même sur les claviers de portables. J’ai dû en acheter au moins cinq, parce que le clavier était malheureusement fragile, j’en ai cassé trois sur la touche Backspace, toujours la première à lâcher », explique Alexandre. Il a bien essayé le K800 quand les stocks d’Illuminated ont fini par s’épuiser, mais sans retrouver le même plaisir.
Il s’est donc penché sur les claviers mécaniques, persuadé qu’il pouvait obtenir un grand confort tout en partant dans la direction inverse. « Des claviers full size avec des touches classiques, le low-profile ne se faisait pas à l’époque ». Puis est venu l’engrenage : « J’y ai pris goût, alors j’ai commencé à me pencher sur les switchs : les red, les blue, les brown et compagnie. Je crois que j’ai commencé par des MX Clear, une version un peu plus sensible des brown tactiles ». Contaminé.
Il est resté ces dernières années sur un clavier nettement plus haut de gamme de chez Varmilo, en format 75 % (sans pavé numérique et quelques autres touches), avec switchs linéaires lubrifiés. Il s’est même acheté des touches « aveugles », c’est-à-dire non marquées, pour l’esthétique. Jusqu’à avoir des protestations du reste de la famille, l’ordinateur servant aussi parfois à d’autres personnes.
Et aujourd’hui ? Il est l’heureux détenteur d’un Nuphy Air75 V3, qui mérite manifestement son succès : « Vraiment agréable, 75 %, joli son, sobre, sans fil, et avec une disposition ISO-FR ! ». Il m’a promis de me le faire essayer.
Flock est proche de la contamination
Quant à notre dessinateur favori, il ne s’est jamais trop penché sur la question… jusqu’à récemment. Il possède un clavier MX Keys Mini de chez Logitech. Ce dernier présente deux avantages dans son cas : il peut se mettre facilement sur le côté pour laisser la place à la tablette de dessin, et il est sans fil.
Aujourd’hui, Flock se penche sur les claviers mécaniques, mais il veut pouvoir garder ces avantages. D’autres critères l’interpellent : « Je voudrais un bon son. Pour moi, plus le son est adouci, mieux c’est. J’ai rien contre les cliquetis, mais je veux pas que ce soient des cliquetis pourris de plastique contre plastique. Par exemple, j’ai testé chez LDLC un Ironclad V3, et ça c’est vraiment pas mal du tout ». Et je vous confirme, l’Ironclad est un très bon clavier, n’hésitez pas (mais ils sont uniquement filaires).
La discussion s’est orientée ensuite vers tous les paramètres qu’il pourrait ou non apprécier, notamment les types de switchs et les problématiques liées aux différents formats. D’ailleurs, si vous ne le savez pas, un pourcentage indiqué à côté d’une référence clavier fait directement référence au nombre de touches. Un 100 % est un clavier complet, quand un 60 %… n’a que 60 % des touches. Ce format, tout petit, est très en vogue chez les joueurs, car il laisse le plus de place à la souris. Dans les références, vous trouverez aussi parfois la mention TKL, qui signifie « Ten Keys Less », et désigne un clavier amputé de son pavé numérique.
Bref, dans le cas de Flock, c’est une réflexion en cours. Il n’est pas pressé : « Mon MX Mini fonctionne encore très bien. J’en suis moyennement content, mais je n’ai pas de vraie raison de changer ».
L’équipe a bien voulu se prêter à un petit exercice : quels types de claviers utilisent les membres de la rédaction ? Quel rapport entretient l’équipe avec ce périphérique si anodin mais sur lequel nous passons une aussi grande partie de notre temps ?
Je ne suis pas un fou des claviers, mais ils m’intéressent assez pour que l’entassement commence à se faire sentir dans un placard. J’ai toujours été sensible au confort de frappe. Avec l’explosion des claviers mécaniques ces dernières années, un autre phénomène s’est enclenché chez certaines personnes : la course au « feeling ». Comment obtenir le son parfait ? La frappe la plus satisfaisante ?
Dans la grande majorité des tests de claviers que l’on peut voir sur YouTube, une partie est ainsi réservée au test sonore : un exercice de dactylo, un micro plus ou moins bon, et vous obtenez des sons qui peuvent vous faire autant d’effet que l’ASMR (pour celles et ceux qui y sont sensibles), ou au contraire faire grimper l’exaspération, comme un bruit de mastication quand on est misophone (coucou).
Alors parlons claviers !
De la membrane au mécanique low profile
J’utilise au quotidien un clavier Magi96 Pro de la marque chinoise Iqunix. Elle est presque inconnue en France, mais mériterait de se faire une place dans le cœur des utilisateurs… qui n’ont pas peur d’abandonner l’ISO-FR (le fameux azerty).
Pourquoi cette marque, ce modèle ? Parce que j’avais vu passer plusieurs tests de leur Magi65 Pro, que celui-ci m’avait conquis et que je voulais une version plus complète, avec les touches de fonctions et le pavé numérique. J’apprécie son knob pour régler rapidement le son, ses contrôles médias sur cette croix si étrange, et son emplacement pour le dongle USB (Wi-Fi 2,4 GHz). Il est plutôt cher (180 dollars, sans les frais de port), mais la qualité se ressent partout, jusque dans le poids (près de 2 kg). Et malgré les apparences, la base n’est pas en plastique, mais en aluminium.
C’est actuellement le clavier qui me fournit le plus grand plaisir à l’écriture, pour le confort de frappe (touches en PBT, switchs lubrifiés…) et le son « crémeux » aujourd’hui recherché par une partie du public. Comment j’en suis arrivé là ? Après de nombreuses années sur des claviers à membrane, dont l’excellent Illuminated de Logitech et ses descendants (en quelque sorte) K800 et MX Keys. Mes premières vraies incursions dans le monde du mécanique en 2019 n’ont pas été très heureuses : des fautes de frappe, encore et encore. Je me suis rendu compte que le retour aux touches en hauteur pleine ne passait pas, malgré les semaines à insister. J’avais passé trop de temps sur les claviers « plats » de type ordinateur portable.
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans une même conférence, Dell a relancé sa gamme XPS et évoqué la « promesse non tenue de l’IA ». Le constructeur revient dans une position qui se veut à l’écoute des retours.
Il y a un an jour pour jour, Dell abandonnait ses gammes XPS (entre autres). Toutes les machines étaient réorientées selon trois gammes : Dell pour le grand public, Dell Pro pour la productivité et Dell Pro Max pour les performances maximales. Chaque gamme était découpée en trois segments : Base, Plus et Premium. Alienware restait une entité à part, toujours active et développée séparément, à destination surtout des joueurs.
Pour fêter l’anniversaire de cette disparition, Dell relance les XPS. La réponse du marché semble avoir été particulièrement négative et le constructeur s’est adapté. Deux machines ont été présentées, les nouveaux XPS 14 et 16, tous deux équipés des Core Ultra Series 3 d’Intel, tout juste présentés eux aussi au CES de Las Vegas.
Selon le constructeur, tout est nettement mieux : le processeur, l’écran (allant du LCD classique au Tandem OLED), la partie graphique intégrée, la webcam intégrée, etc. Même l’autonomie est à l’avenant, annoncée pour 27 heures en usage classique et jusqu’à 40 heures en lecture vidéo locale (batterie de 70 Wh, densité de 900ED).
Les machines sont disponibles aux États-Unis pour respectivement 2 049 et 2 199 dollars dans leur configuration de base. D’autres configurations et une disponibilité plus générale dans d’autres marchés sont attendues pour février. Des versions Ubuntu seront également proposées plus tard dans l’année, de même qu’un nouveau XPS 13.
Parler d’IA à tout bout de champ ne fait pas vendre
Relancer la gamme XPS peut être vu comme un aveu d’échec. Dell en a d’ailleurs fait un autre : parler d’IA à tout bout de champ ne fait pas vendre, comme le rapporte notamment PC Gamer. Jeff Clarke, vice-président et directeur des opérations, était ainsi sur une scène du CES pour évoquer le marché, notant une migration lente. Il a surtout mentionné la « promesse non tenue de l’IA », couplée à une « pénurie de mémoire assez importante ». Durant la présentation des nouveaux produits, ce fut la seule mention de l’IA.
Interrogé à ce sujet par nos confrères, Kevin Terwilliger, responsable produit chez Dell, confirme : « Une chose que vous remarquerez, c’est que le message que nous avons transmis autour de nos produits n’était pas axé sur l’IA. Donc, un petit changement par rapport à il y a un an, quand tout tournait autour des PC IA ».
Toutes les machines annoncées contiennent un NPU, mais « ce que nous avons appris au cours de cette année, surtout du point de vue des consommateurs, c’est qu’ils n’achètent pas en fonction de l’IA », a reconnu Kevin Terwilliger. Il a ajouté : « En fait, je pense que l’IA les embrouille probablement plus qu’elle ne les aide à comprendre un résultat précis ». Des réponses jugées rafraichissantes et bienvenues par nos confrères.
Dans une même conférence, Dell a relancé sa gamme XPS et évoqué la « promesse non tenue de l’IA ». Le constructeur revient dans une position qui se veut à l’écoute des retours.
Il y a un an jour pour jour, Dell abandonnait ses gammes XPS (entre autres). Toutes les machines étaient réorientées selon trois gammes : Dell pour le grand public, Dell Pro pour la productivité et Dell Pro Max pour les performances maximales. Chaque gamme était découpée en trois segments : Base, Plus et Premium. Alienware restait une entité à part, toujours active et développée séparément, à destination surtout des joueurs.
Pour fêter l’anniversaire de cette disparition, Dell relance les XPS. La réponse du marché semble avoir été particulièrement négative et le constructeur s’est adapté. Deux machines ont été présentées, les nouveaux XPS 14 et 16, tous deux équipés des Core Ultra Series 3 d’Intel, tout juste présentés eux aussi au CES de Las Vegas.
Selon le constructeur, tout est nettement mieux : le processeur, l’écran (allant du LCD classique au Tandem OLED), la partie graphique intégrée, la webcam intégrée, etc. Même l’autonomie est à l’avenant, annoncée pour 27 heures en usage classique et jusqu’à 40 heures en lecture vidéo locale (batterie de 70 Wh, densité de 900ED).
Les machines sont disponibles aux États-Unis pour respectivement 2 049 et 2 199 dollars dans leur configuration de base. D’autres configurations et une disponibilité plus générale dans d’autres marchés sont attendues pour février. Des versions Ubuntu seront également proposées plus tard dans l’année, de même qu’un nouveau XPS 13.
Parler d’IA à tout bout de champ ne fait pas vendre
Relancer la gamme XPS peut être vu comme un aveu d’échec. Dell en a d’ailleurs fait un autre : parler d’IA à tout bout de champ ne fait pas vendre, comme le rapporte notamment PC Gamer. Jeff Clarke, vice-président et directeur des opérations, était ainsi sur une scène du CES pour évoquer le marché, notant une migration lente. Il a surtout mentionné la « promesse non tenue de l’IA », couplée à une « pénurie de mémoire assez importante ». Durant la présentation des nouveaux produits, ce fut la seule mention de l’IA.
Interrogé à ce sujet par nos confrères, Kevin Terwilliger, responsable produit chez Dell, confirme : « Une chose que vous remarquerez, c’est que le message que nous avons transmis autour de nos produits n’était pas axé sur l’IA. Donc, un petit changement par rapport à il y a un an, quand tout tournait autour des PC IA ».
Toutes les machines annoncées contiennent un NPU, mais « ce que nous avons appris au cours de cette année, surtout du point de vue des consommateurs, c’est qu’ils n’achètent pas en fonction de l’IA », a reconnu Kevin Terwilliger. Il a ajouté : « En fait, je pense que l’IA les embrouille probablement plus qu’elle ne les aide à comprendre un résultat précis ». Des réponses jugées rafraichissantes et bienvenues par nos confrères.