Comme l’a repéré Neowin, la nouvelle version 7.34.0 de Signal est officiellement compatible avec les appareils sous Windows 11 utilisant des processeurs ARM.
« Cette mise à jour introduit la prise en charge de nouveaux processeurs sous Windows, tels que le Snapdragon X Elite », explique la note de version, ajoutant que l’application n’a désormais plus besoin d’émulation.
En effet, comme nous l’avions vu dans notre test d’un PC Copilot+ équipé d’un Snapdragon X, Signal était très lent et la différence était flagrante avec l’application utilisée sur un x86.
Selon des sources de l’agence de presse Reuters, la Commission européenne devrait lancer en 2025 une enquête sur d’éventuels abus de position dominante à l’encontre d’Amazon.
La plateforme de vente en ligne est suspectée de favoriser les produits de sa propre marque. Cette pratique est interdite pour les « contrôleurs d’accès » (gatekeepers) listés dans le cadre du DMA et dont fait partie Amazon.
L’entreprise de Jeff Bezos risque une amende d’un montant pouvant aller jusqu’à 10 % de son chiffre d’affaires mondial annuel.
L’entreprise affirme que ses algorithmes ne font pas de différence ne font pas de distinction selon qu’il s’agit d’un produit Amazon ou d’un produit tiers. Le traitement serait de la même façon équivalent entre les produits vendus par Amazon et ceux vendus par un tiers.
Il y a les adeptes du « vocal », et ceux que la pratique agacent : après tout, il est souvent plus rapide de lire un message que de l’écouter. Le sujet ne devrait bientôt plus être un motif de friction pour les utilisateurs de WhatsApp. Le réseau social, propriété de Meta, annonce avoir commencé à déployer une fonctionnalité de transcription des messages vocaux au sein de son application.
« La transcription des messages vocaux est générée sur votre appareil. Vos messages vocaux personnels restent protégés par le chiffrement de bout en bout. Personne, pas même WhatsApp, ne peut écouter vos messages vocaux ou voir le contenu de leurs transcriptions », promet la société.
WhatsApp indique que cette nouvelle fonctionnalité – déjà testée depuis plusieurs semaines en bêta – sera déployée dans le monde entier, « dans les semaines à venir », avec une prise en charge des langues qui dépend du système d’exploitation, dont les API sont utilisées pour la traduction en local. Sur Android, le réseau social indique ainsi gérer l’anglais, l’espagnol, le portugais et le russe. La liste est plus longue sur iOS (version 16 minimum), où s’ajoutent le français, l’arabe, le chinois, le coréen, le japonais.
Sur Android comme sur iOS, le réglage permettant d’activer ou de désactiver la transcription des messages audio est accessible via le menu Paramètres > Discussions > Transcrire les messages vocaux. « Il nous tarde de développer davantage cette expérience pour l’améliorer et la rendre plus transparente », promet WhatsApp.
C’est, en effet, le 18 novembre 2014 que le projet a été annoncé officiellement. Son ambition était de devenir une autorité de certification gratuite permettant à tout un chacun d’avoir un certificat SSL/TLS. Il était alors lancé par l’nternet Security Research Group (ISRG), qui regroupait notamment Mozilla, l’Electronic Frontier Foundation (EFF), l’Internet Society, Akamai, Cisco et Automatic.
L’attente aura été longue avant que la beta publique n’arrive, en décembre 2015. Un mois avant, Let’s Encrypt signait un accord avec l’autorité de certification IdenTrust, permettant à ses certificats d’être reconnus par pratiquement tous les navigateurs existants. Un rappel toujours salutaire : un cadenas ne signifie pas qu’un site est fiable, simplement que la liaison est sécurisée.
Début 2016, nous avions publié un long dossier sur l’arrivée de Let’s Encrypt et la tentative ratée CAcert, une « Autorité de Certification communautaire qui émet gratuitement des certificats pour tous » fondée en 2003. Problème, faute d’accord comme celui entre let’s Encrypt et IdenTrust, CAcert n’a jamais vraiment pu décoller.
On parle d’une époque lointaine ou Next INpact (c’était notre nom de l’époque) entamait sa transition vers HTTPS… Depuis, nous avons toujours eu à cœur de respecter la confidentialité et la vie privée. Notre site est pour rappel sans aucune publicité, ni trackeur, ni cookies tiers ; pour l’ensemble des visiteurs (abonnés ou non). C’est d’ailleurs pour cela que nous n’avons pas besoin de vous afficher de bandeau RGPD.
Il y a quelques semaines, Refuznik nous a proposé une vidéo de Nota Bonus (la chaine bonus de Nota Bene) dans laquelle il reçoit avec Anthony Galluzzo autour du sujet : « Le mythe de l’entrepreneur : on casse les clichés ».
Dans un précédent LIDD, Anthony Galluzzo était déjà revenu sur « le “mythe de l’entrepreneur”, une contre-histoire d’Apple » dans le cadre d’un podcast chez France Culture. Rien de surprenant sur le fond puisqu’il a écrit un livre sur le sujet.
« Quand on parle de Steve Jobs, plusieurs idées peuvent nous venir en tête, comme ses débuts dans un garage où il serait parti de rien, le fait qu’il serait un génie, un modèle à suivre… Et cette figure de l’entrepreneur, elle est loin de ne concerner que lui, et ne date d’ailleurs pas d’aujourd’hui, puisqu’elle remonte à la fin du 19e siècle, avec Thomas Edison par exemple ! Une figure, qui n’est d’ailleurs pas si réelle que ça… ».
Alors que l’Allemagne, la Finlande, la Suède et le Danemark ont évoqué la possibilité d’un sabotage sur les câbles C-Lion1 et BCS East-West situés en mer Baltique, on peut se poser la question de l’incidence de ce genre de problème sur le trafic Internet. Des données et analyses partagées par le registre Internet régional RIPE NCC ainsi que par Cloudflare donnent quelques pistes.
Dimanche et lundi, comme nous l’avons rapporté, deux incidents sur des câbles sous-marins ont été détectés en mer Baltique.
L’enquête sur les causes et responsabilités commence tout juste, mais un bateau chinois, le Yi Peng 3, a été arraisonné par la Marine danoise. Néanmoins, les responsables politiques de l’Allemagne, la Finlande, la Suède et le Danemark n’ont pas attendu pour faire desdéclarations évoquant un éventuel sabotage.
Mette Frederiksen, la Première ministre danoise, a par exemple affirmé à l’agence de presse Ritzau qu’ « il y a un risque d’attaques hybrides, de cyberattaques et d’attaques contre les infrastructures essentielles ».
De son côté, un porte-parole du ministère chinois des Affaires étrangères a affirmé que « la Chine a toujours rempli pleinement ses obligations en tant qu’État du pavillon et exige des navires chinois qu’ils respectent scrupuleusement les lois et les réglementations en vigueur ».
Si les raisons ne sont pas encore établies, on peut commencer à regarder les conséquences de ce double incident sur le trafic Internet dans la région.
RIPE Atlas, un réseau de sondes d’observation
Le registre Internet régional RIPE NCC a publié une première analyse basée sur son réseau de sondes RIPE Atlas, tout en précisant que les résultats sont encore préliminaires. Comme l’explique Stéphane Bortzmeyer dans un récent article de l’Afnic, ces sondes forment « le plus grand réseau d’observation de l’Internet » et « permettent à tous et toutes de regarder si ça marche ».
Pour les quatre pays concernés, on peut voir ci-dessous les différentes sondes cartographiées par le RIPE NCC :
Quelques latences, mais quasiment pas de pertes de paquets
Pour le câble BCS East-West, dans l’analyse des données de ses sondes dans l’intervalle de temps entre 12 heures avant et 12 heures après l’incident, le RIPE NCC a pu observer des décalages de latence coïncidant avec l’heure de l’incident signalée par certains. Il a donc cherché à savoir quels taux de trajets étaient affectés.
« Nous constatons que 80 % des trajets […] ne présentent pas de différence de latence significative, tandis que les 20 % restants ont subi une augmentation de la latence », explique le registre Internet régional. Il ajoute que « les 10 % de chemins présentant la plus grande différence de latence enregistrent une augmentation comprise entre 10 et 20 ms ».
En analysant la perte de paquets, toujours avec ses sondes, RIPE NCC observe qu’il n’y en a globalement pas, même si des pics occasionnels sont relevés. « Mais l’observation la plus frappante est qu’il n’y a pas d’augmentation de la perte de paquets coïncidant avec l’heure de la coupure du câble », s’étonne-t-il.
Concernant C-Lion1, le RIPE NCC a aussi pu observer des décalages de latence qui correspondent à l’heure d’incident envisagée. Pour ce câble, il constate « qu’environ 70 % des chemins n’ont pas de différence de latence […], ce qui signifie qu’environ 30 % en ont ». Il précise que « 20 % des chemins présentent des augmentations de latence de 5 ms ou plus ».
Ici, s’agissant de la perte d’informations transmises, le RIPE NCC constate « une perte de paquets de 0,5 % à 1,0 % pendant la majeure partie de cette période ». Par contre, « l’heure de l’événement (02:00 UTC) n’est pas particulièrement visible » dans ces données, s’étonne-t-il, « cela indique que l’événement n’a pas provoqué de perte de paquets supplémentaire, du moins pas pour cette mesure que nous pouvons extraire ».
Le registre Internet régional conclue que ce résultat « indique la résilience de l’internet dans la mesure où nous la mesurons avec les ancres RIPE Atlas […]. Cela suggère que, dans la région de la Baltique, l’internet a réussi à contourner les dommages survenus ».
CloudFlare rassurant aussi
De son côté, CloudFlare a publié un billet de blog qui s’appuie sur les données échangées entre ses clients et les internautes. Pour l’entreprise de sécurisation de trafic internet, les « deux récentes coupures de câbles survenues dans la mer Baltique n’ont eu que peu ou pas d’impact observable sur les pays concernés, comme nous l’expliquons ci-dessous, en grande partie en raison de la redondance et de la résilience significatives de l’infrastructure Internet en Europe ».
Sur le câble BCS East-West, CloudFlare explique ne pas avoir observé « d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés » entre ses clients et les utilisateurs. Il en est de même à propos du lien C-Lion1 : « il n’y a pas eu d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés ».
Poussée mercredi sur le canal Canary dédié aux membres du programme Windows Insider, la version 27754 de Windows 11 introduit quelques améliorations, principalement cosmétiques, au niveau de Windows Hello et de la barre des tâches.
Le principal changement concerne Windows Hello, avec une mise à jour qualifiée de « significative » de l’interface, censée passer aux standards de design en vigueur sur le reste de l’environnement Windows 11.
« Nous avons repensé l’expérience utilisateur liée aux identifiants de sécurité Windows pour les clés d’accès, créant ainsi une expérience plus claire qui prend en charge une authentification sécurisée et rapide », affirme notamment l’éditeur, qui accentue depuis plusieurs semaines ses efforts autour de l’intégration de clés d’accès fournies par des éditeurs tiers.
La nouvelle iconographie dédiée à Windows Hello apparaît désormais au même niveau que les autres options d’authentification sur l’écran d’accueil du système d’exploitation. Microsoft précise également que cette mise à jour s’appliquera aux futures mécaniques de protection associées au compte administrateur.
Annoncées cette semaine dans le cadre de la conférence Ignite, celles-ci reposent pour mémoire sur la création, via Windows Hello, d’un jeton temporaire d’authentification lors de l’exécution de tâches exigeant des droits élevés.
Windows 11 Insider Preview Build 27754 est par ailleurs l’occasion de tester de légères modifications cosmétiques au niveau de la barre des tâches, qui profite d’un rendu et d’une animation rafraîchis au niveau de la prévisualisation des fenêtres ouvertes.
Microsoft indique par ailleurs soumettre aux utilisateurs une version simplifiée de la zone dédiée aux notifications. La date y apparaît sous une forme abrégée et la cloche dédiée aux notifications disparait quand le mode concentration est activé. Les changements restent réversibles via les paramètres, rassure l’éditeur, qui rappelle par ailleurs la finalité de la branche Canary : tester des changements, pour éventuellement valider leur intégration dans de futures mises à jour.
Bluesky et son protocole AT sont souvent décrits comme décentralisés, à la manière de Mastodon. Mais est-ce bien le cas ? La question fait débat.
Bluesky est actuellement sous les feux des projecteurs. L’effet boule de neige semble enclenché et on peut voir un nombre croissant de comptes importants partir de X pour des cieux plus cléments. Chez Science, on lit la même chose au sujet de la communauté scientifique.
Bluesky attire pour plusieurs raisons, en plus du critère classique de nouvel horizon. D’une part, des fonctions de blocage et de modération nettes et précises. D’autre part, l’affichage chronologique par défaut des publications, loin des algorithmes poussant à l’engagement. Et que cet engagement se fasse sur les impressions de publicités ou sur les réactions de comptes Premium n’y change rien.
Que sait-on de Bluesky ? C’était initialement un projet incubé chez Twitter par Jack Dorsey en personne. Le fondateur de Twitter souhaitait tester l’idée d’un protocole open source pour un réseau de micro-blogging. Cette idée a accouché du protocole AT, qui est effectivement open source, sous double licence Apache 2.0 et MIT. Jack Dorsey, lui, a quitté l’entreprise en mai.
Ce protocole a été pensé initialement pour permettre un fonctionnement décentralisé et fédéré, comme le propose Mastodon. Mais peut-on dire que Bluesky est réellement décentralisé ? La réponse n’est pas si simple.
Un serveur, un relai et une vue entrent dans un bar
Lorsque l’on parle de Bluesky, on évoque le réseau dans son intégralité. Mais ce réseau se compose en fait de trois parties, comme l’entreprise l’explique dans sa documentation : les serveurs, les relais et les vues d’applications.
Les serveurs constituent les réservoirs de données personnelles. Un utilisateur peut y stocker toutes ses informations, dont ses publications et tout ce qui sert à l’identifier (nom de connexion, mots de passe, clés cryptographiques) ou encore la liste des personnes suivies. Les PDS (Personal Data Server) gèrent également la mise en relation avec les services en fonction des requêtes. Il peut y avoir autant de PDS que l’on souhaite et tout le monde peut en créer un. En théorie.
Sur les relais en revanche, tout change. Leur mission est de parcourir tous les PDS, d’agréger et indexer le contenu pour en produire un énorme flux unique de données en streaming, souvent appelé firehose dans le jargon. Ce flux est ensuite mis à disposition de tout l’écosystème atproto (protocole AT). Les relais agissent comme un moteur de recherche.
Quant aux vues d’application (App View), elles constituent la face visible de l’iceberg. Une App View est ce qui permet d’afficher des informations exploitables à partir du flux agrégé. Elle réalise un assemblage à partir des critères définis aussi bien par la requête que les différents paramètres. Par exemple, afficher le flux personnel ou les résultats d’une recherche, tout en masquant certains résultats, par exemple provenant des personnes bloquées.
Que peut-on faire soi-même ?
Certaines actions peuvent être entreprises par les utilisateurs, du moins sur le papier. Monter un serveur personnel est le plus simple, Bluesky fournissant de nombreuses informations sur GitHub et jusqu’à un conteneur pour simplifier l’installation. Mais, comme son nom l’indique, un serveur de données personnelles ne peut héberger que ses propres informations. Il n’est pas question de créer une instance comme le fait Mastodon. On ne peut y inviter personne.
Sur les relais, c’est nettement plus compliqué. Dans sa documentation, Bluesky explique que tout le monde peut en héberger un, mais que c’est « un service assez gourmand en ressources ». Gourmand comment ? Très vorace en fait, car les relais arpentent l’intégralité des PDS pour en indexer le contenu. Certaines estimations tablent sur un minimum de 4,5 To à l’installation et d’une croissance minimale de 18 Go par jour pour les seules données JSON, sans parler des données brutes, beaucoup plus volumineuses, d’un facteur 10 selon Gavin Anderegg. Ce dernier rappelle d’ailleurs que ces chiffres ne tiennent pas compte du récent emballement dans les inscriptions sur Bluesky.
Concernant les vues d’applications, techniquement tout le monde peut en développer. Dans l’idée d’ailleurs, Bluesky parle de vue pour évoquer un prisme permettant de représenter des données depuis un flux brut. Si la seule utilisation actuelle est faite dans le cadre d’un service de micro-blogging, le protocole AT peut a priori être utilisé pour tout et n’importe quoi.
Pour le reste, tout est du ressort strict de l’entreprise. Bluesky contrôle notamment deux éléments importants : les DID:PLC et les DM. Les premiers représentent, dans les grandes lignes, les identifiants des utilisateurs. Les seconds sont les messages privés, qui ne sont pas pris en charge par le protocole AT. Les données correspondantes ne sont donc pas présentes dans les PDS, mais gérées directement par Bluesky de manière séparée.
Bluesky n’est ni fédéré, ni décentralisé… pour l’instant
Le protocole AT a été pensé pour être décentralisé. Dans la pratique, Bluesky ne l’est pas. La possibilité de créer facilement un PDS n’est qu’un petit élément parmi d’autres. Même si l’on peut créer des relais, leur mise en œuvre est complexe et sans doute bien trop onéreuse en stockage et bande passante pour être intéressante.
On ne peut pas dire que Bluesky soit actuellement décentralisé, et encore moins fédéré. Il y a bien un centre, et il est géré par l’entreprise Bluesky. Sans son relai, rien ne fonctionne. Chaque serveur de données personnelles ne sert ainsi que comme petit réservoir pour les informations d’une personne, incapable de fonctionner par lui-même.
Pour Gavin Anderegg, ce n’est ni bien ni mauvais : ce n’est que le fonctionnement actuel, qui pourrait changer. Il estime en effet que l’équipe en charge du réseau se dirige petit à petit vers la décentralisation, mais que la tâche reste immense au vu des choix techniques. En outre, il souligne la grande ouverture du protocole, qui permet de voir l’intégralité du flux, puisque toutes les informations y sont publiques.
Cet aspect du réseau est d’ailleurs moins connu et peut avoir toute son importance : rien de ce que vous publiez sur Bluesky n’est privé. On peut s’en rendre compte facilement en allant dans les options de vie privée et sécurité. Là, un réglage propose de masquer le compte aux personnes non connectées à Bluesky. Cependant, on est averti : « Bluesky est un réseau ouvert et public. Ce paramètre limite uniquement la visibilité de votre contenu sur l’application et le site Web de Bluesky, et d’autres applications peuvent ne pas respecter ce paramètre. Votre contenu peut toujours être montré aux personnes non connectées par d’autres applications et sites Web ». Les profils privés n’existent pas sur le réseau. Une page résume la situation sur les données publiques et privées.
Comme elle l’avait fait lors de précédentes fins de support, l’entreprise commence à afficher des messages en plein écran pour avertir de la fin prochaine de Windows 10. Le support technique de ce dernier se terminera le 14 octobre 2025. L’éditeur s’y prend à l’avance, mais l’ampleur de la tâche est immense, le système comptant pour environ 60 % du parc Windows aujourd’hui.
Comme on peut le voir chez plusieurs médias anglo-saxons, dont Ars Technica et Neowin, les messages ne sont pas toujours les mêmes. Dans certains cas, les qualités de Windows 11 pour les jeux vidéo sont mises en avant. Pourtant, les deux systèmes sont au coude à coude sur ce terrain. Windows 10 a même l’avantage sur une partie des jeux, comme l’a montré TechSpot dans ses tests en août dernier.
Dans d’autres cas, Microsoft insiste sur les gains de sécurité. Il est vrai qu’en exigeant du matériel beaucoup plus récent, dont une puce TPM 2.0, Windows 11 part sur de meilleures bases. L’éditeur travaille également sur des améliorations importantes, comme nous l’avons signalé dans notre actualité sur la conférence Ignite 2024.
Mais parfois, le panneau plein écran insiste sur la facilité à transiter vers Windows 11, voire fait la promotion des PC Copilot+. Il s’agit donc d’une publicité. On trouve en conséquence de nombreux messages agacés sur X, voire de franche colère.
Ces panneaux, en plus d’être en plein écran, flirtent avec le dark pattern. Ils mettent en avant un bouton bleu « En apprendre plus », tandis que « Me rappeler plus tard » est dans un bouton blanc sur fond blanc. En outre, ils ne font pas mention de l’option payante pour prolonger le support de Windows 10. Microsoft a en effet annoncé récemment que l’on pourrait payer 30 dollars pour une année supplémentaire de correctifs de sécurité.
En tant que régulateur des données personnelles, la CNIL a observé l’augmentation des projets d’entrepôts de données de santé. Son laboratoire de recherche, le LINC, a entrepris de lister tous les entrepôts de données de santé situés en France pour les étudier et comprendre les dynamiques en cours. Il partage ses travaux via une carte permettant de les « matérialiser ».
Le laboratoire de la CNIL, le LINC vient de publier sa carte des entrepôts de données de santé (EDS) français. Celle-ci permet de voir la distribution géographique de ses entrepôts, mais aussi d’accéder à certains détails qui les caractérisent.
La CNIL rappelle, dans son communiqué à propos de cette carte, son rôle de régulateur des données personnelles en général. Mais, parmi ces données, celles concernant la santé sont reconnues particulièrement sensibles par le législateur via différentes lois.
On peut citer la loi sur le secret médical, la loi Informatique et Libertés, celle sur l’hébergement des données de santé, la mise à disposition des données de santé ou encore les interdictions de constitution et d’utilisation ou de cessions à des fins de prospection ou de promotion commerciales de certaines informations médicales.
L’autorité de contrôle doit donc particulièrement faire attention à l’utilisation de ces données de santé. Mais, si cette utilisation est très encadrée, elle est indispensable, notamment pour suivre les patients, faire de la recherche, administrer des institutions de soin, par exemple. Les « entrepôts de données de santé » permettent de stocker et de gérer ces données. « Ils peuvent être constitués tant par des acteurs publics (comme un établissement public de soin) que privés (comme un courtier de données ou une startup), sous réserve de respecter le cadre juridique applicable », explique la CNIL.
Une augmentation des projets
Elle explique avoir observé leur multiplication ces derniers temps ainsi que des organismes souhaitant en constituer (voir les deux graphiques ci-dessous). Son laboratoire, le LINC, a donc pris l’initiative de créer un outil « permettant à la fois de comprendre les dynamiques à l’œuvre et d’améliorer la transparence de l’usage des données de santé dans le cadre de la recherche ».
Dans une note plus détaillée, le LINC analyse un peu plus ce développement dont le début a été « assez lent, avec peu de projets sur les deux premières années (2017 – 2018) » mais qui a ensuite connu une « accélération à partir de 2020 avec une prépondérance des acteurs publics et un fort développement des entrepôts « généralistes » ». Le laboratoire de la CNIL explique aussi qu’à partir de 2022, il constate une « diversification des acteurs et des projets ».
Le LINC explique que cette diversification a été « facilitée notamment par la publication du référentiel entrepôt de données de santé l’année précédente (et donc la possibilité de se déclarer conforme), le secteur public se renforçant via des appels à projets et des mises en réseau ».
Il souligne aussi le cas de la plateforme AgorIA d’accès simplifié et sécurisé à de multiples Données de Santé en Vie Réelle (DSVR), qualifié de « notable puisque les co-responsables sont deux entreprises pharmaceutiques, une entreprise de conseil et d’innovation dans le secteur de la santé et une entreprise du secteur numérique, soit une co-responsabilité de quatre acteurs distincts pour un même entrepôt ».
Le laboratoire tient aussi à souligner un changement du côté des entrepôts de données de santé hospitaliers (EDSH) en citant le rapport de la HAS [PDF] sur le sujet : « Les premiers EDSH ont été conçus pour faciliter la construction de l’information hospitalière pour le financement ou le pilotage des établissements et pour des usages proches du soin. C’est aujourd’hui la finalité de recherche qui motive la construction et le développement des EDSH ».
Une concentration sur Paris peu étonnante
Le LINC souligne qu’à la mi-2024, « les acteurs responsables d’EDS en France sont localisés à 48,5% dans la région Ile-de-France, portée notamment par une présence plus grande d’acteurs privés (les sièges sociaux d’entreprises) et d’acteurs privés à but non lucratif (les sièges sociaux d’associations, de Centres de lutte contre le cancer – CLCC, etc.). Le secteur public y représente par ailleurs moins d’un tiers (27%), quand il représente pourtant 48% à l’échelle nationale ».
L’Auvergne-Rhône-Alpes vient en deuxième position, mais loin derrière, avec 9,5 %, « porté par des organisations privées à but non lucratif, composé de réseaux de recherche (Groupe Français de Pneumo-Cancérologie, Lymphoma Academic Research Organisation, Réseau des urgences de la vallée du Rhône) et du secteur public (CHU de Grenoble, Lyon et le CH d’Annecy Genevois) ». Il remarque que les tendances et répartitions sur le territoire « changent finalement assez peu au fil du temps, l’importance de la région parisienne se renforçant au fil du temps » et note l’absence du sud de la France.
Sur la carte de la CNIL, sont donnés, en plus de la localisation géographique du dépôt :
le nom et une description de l’acteur gérant l’entrepôt ;
le statut de l’acteur (public, privé ou privé à but non lucratif) ;
le nom et une description de ou des entrepôts géré(s) par cet acteur ;
la date de l’autorisation ou de déclaration de conformité de l’entrepôt (si applicable).
Un « rappel méthodologique et de lecture de la cartographie » est aussi fourni par le laboratoire.
Les responsables de la sécurité informatique de l’Assemblée ont adressé aux députés un e-mail, consulté par POLITICO, les alertant de plusieurs « compromissions de compte » Telegram.
Plusieurs députés auraient, en effet, cliqué sur un lien frauduleux leur proposant notamment de visionner des photos « de votre professeur d’école primaire ». La compromission toucherait « tous les groupes politiques », explique à POLITICO un député, qui précise avoir vu plusieurs de ses collègues « faire la queue au comptoir du numérique de l’Assemblée », en charge d’aiguiller les élus sur leurs pratiques numériques.
Il leur a été recommandé de changer leur mot de passe et d’activer la double authentification pour accéder à leur compte.
La semaine passée, La Lettre avait par ailleurs révélé que Matignon avait donné pour consigne aux membres du gouvernement et à leurs cabinets de privilégier la messagerie chiffrée Signal. Les services du ministère de l’Intérieur ont en outre invité les conseillers ministériels à désinstaller Telegram de leurs téléphones.
Ces voltefaces interviennent alors qu’il y a un an, une circulaire avait obligé les cabinets ministériels à migrer sur Olvid en une semaine seulement. La circulaire, signée par Élisabeth Borne, avait depuis été balayée lorsque Gabriel Attal l’avait remplacée. La Lettre ne précise pas si les services de Michel Barnier ont émis des recommandations pour ce qui est de l’utilisation de la messagerie sécurisée française Olvid.
Dans un document déposé [PDF] auprès de la Cour américaine du district de Columbia, le ministère de la Justice américain a demandé officiellement mercredi 20 novembre que Google soit obligé de vendre son navigateur Chrome. Celui-ci avantagerait trop la position de son moteur de recherche, alors que l’entreprise a été reconnue coupable d’abus de position dominante, comme nous l’expliquions en début de semaine.
« La propriété et le contrôle par Google de Chrome et d’Android – des méthodes clés pour la distribution des moteurs de recherche aux consommateurs – posent un défi important pour mettre en œuvre une mesure corrective », affirme le ministère. Il ajoute que, « pour relever ces défis, Google doit se défaire de Chrome ».
Google a répondu rapidement via un billet de blog, qualifiant cette position de « programme interventionniste radical qui nuirait aux Américains et au leadership technologique mondial de l’Amérique ». L’entreprise estime que « la proposition largement excessive du ministère de la Justice va bien au-delà de la décision de la Cour ».
Rappelons que c’est le juge Amit P. Mehta, chargé du dossier, qui prendra la décision finale. Il a prévu une audience en avril sur les différents changements à apporter et devrait rendre son avis final en aout 2025. L’entreprise a d’ores et déjà affirmé vouloir faire appel de la décision du juge.
Avec ses nouvelles puces Snapdragon X Plus et Elite, Qualcomm est revenu en force sur le marché des ordinateurs portables. Ce n’est pas sa première tentative, mais elle porte cette fois ses fruits. Ces puces utilisent des cœurs CPU maison Oryon (architecture Arm).
Il y a tout juste un mois, Qualcomm annonçait son SoC Snapdragon 8 Elite pour les smartphones, avec là encore des cœurs Oryon. Le fabricant précisait qu’il s’agissait de cœurs de seconde génération, sans plus de détails.
Lors de sa journée Investor Day, Qualcomm a parlé de sa troisième génération de cœur Oryon, de nouveau pensé pour les ordinateurs portables… Ce qui n’est pas des plus simples à suivre et promet quelques mélanges entre les cœurs « Oryon » pour smartphones et ceux pour ordinateurs.
Quoi qu’il en soit, cette troisième génération (mais qui serait la seconde itération pour les ordinateurs portables) devrait être présentée en fin d’année prochaine lors du Snapdragon Summit. Elle pourrait s’appeler Snapdragon X Elite Gen 2, sauf si Qualcomm décide encore une fois de chambouler ses gammes…
Selon cette capture partagée par ComputerBase, les performances de la 2e génération des cœurs Oryon seraient 30 % supérieures à consommation égale et la consommation en baisse de 57 % à performances égales, le tout sur Geekbench avec un seul cœur actif. Mais ce n’est pas ce cœur qu’on devrait retrouver dans les Snapdragon X Elite Gen 2, mais bien la troisième génération qui devrait encore améliorer les choses.
Qualcomm devrait aussi continuer de décliner ses puces vers l’entrée de gamme, et prévoit des machines à partir de 600 dollars. Cet été, le fabricant a pour rappel lancé son premier SoC Snapdragon X Plus avec 8 cœurs seulement, au lieu de 10 auparavant.
Il y a quelques semaines, nous vous avons proposé un dossier en deux parties sur les forfaits d’électricité avec tout d’abord les choses à savoir et ensuite un comparateur maison en fonction de votre consommation précise. Vous avez envie de jouer les apprentis sorciers avec les électrons ? Alors Wireworld est fait pour vous.
Le principe est on ne peut plus simple. Cliquez sur des cases pour ajouter ou enlever des fils (jaune). Utilisez ensuite un clic droit pour injecter du courant et suivez son déplacement dans votre circuit. Rien de compliqué, mais vous pouvez construire des diodes, des portes logiques… Wireworld a une (courte) page Wikipédia.
Le fonctionnement est le suivant : une cellule reste vide. Une cellule avec un électron de tête (violet) devient une cellule avec un électron de queue (rouge), une cellule avec un électron de queue (rouge) devient un connecteur (jaune). Un connecteur devient un électron de tête si et seulement s’il a une ou deux cellules voisines (pas plus) qui sont des électrons de tête. Par voisines on entend aussi dans les diagonales.
Microsoft a lancé hier son dernier Flight Simulator, logiquement estampillé 2024. Après une version 2020 particulièrement riche en mises à jour, la nouvelle se distingue par son usage intensif de l’intelligence artificielle. Pour autant, le lancement s’est révélé calamiteux, avec des serveurs sous-dimensionnés pour gérer l’afflux de connexions.
Flight Simulator fait partie de ces licences un peu « légendaires » où chaque version constitue un petit évènement. Le jeu ne s’adresse pourtant pas à tout le monde. Il s’agit d’une simulation de pilotage d’avions (et autres appareils aériens) mettant largement l’accent sur le réalisme et l’authenticité. Il n’est pas simple à prendre en main et, comme dans « la vraie vie », il faut mieux savoir où l’on met les pieds.
L’édition 2020 a marqué les esprits, avec une modélisation qui a fini par pratiquement couvrir l’intégralité de la planète. Mais comme toujours dans ce genre de simulation, le niveau de détail dépendait de la zone visitée. Avec les années, le studio Asobo, qui en gère le développement, a ajouté de nombreuses (et volumineuses) mises à jour, chargées d’apporter la modélisation d’un nombre toujours plus important de villes et de lieux. En outre, Flight Simulator 2020 a instauré des modes plus simples, pour les « touristes numériques ». La question était donc posée : que pouvait-on attendre d’une nouvelle version ?
Un niveau de détail multiplié par 4 000
L’édition 2024 se veut beaucoup plus réaliste que la 2020, qui représentait déjà un saut important dans ce domaine. Ce réalisme réside aussi bien dans le rendu des décors que dans la physique appliquée à l’appareil piloté. Dans une interview accordée à BFM en septembre, le responsable Jörg Neumann évoquait 10 000 points répartis sur le fuselage de l’avion pour appliquer les mouvements de l’air.
Le nouveau jeu cherche surtout à rendre le monde virtuel plus vivant. Dans une autre interview, donnée cette fois à VentureBeat, on apprend ainsi que cette édition 2024 multiplie par 4 000 le niveau de détail de l’environnement, grâce à l’intelligence artificielle. L’équipe affirme avoir créé un « jumeau numérique complet » de la planète.
À RockPaperShotgun, Neumann expliquait hier que l’IA avait été utilisée pour créer les textures. Les données récupérées par les développeurs ont été découpées en 28 000 « tuiles », étiquetées selon ce qu’elles représentaient, dont le « biome » (forêt, désert, etc.) et le type de surface (gravier, herbe rase, brousse…).
Asobo et Microsoft ont également profité de l’importante communauté existant autour du jeu. Jörg Neumann indique ainsi que l’équipe (800 développeurs à temps plein pendant quatre ans) s’est largement appuyée sur les suggestions de la communauté.
« L’ensemble du processus est plus sain, je pense. Vous pouvez facilement répondre aux gens, car vous avez déjà un terrain d’entente. Ils vous ont fait part de leurs problèmes. Nous pouvons proposer des solutions. Ils nous donnent leur avis sur ces solutions. Lors de la mise en œuvre, nous allons jusqu’au bout de ce dont ils ont réellement besoin. Je crée des jeux depuis 30 ans. Je ne l’ai jamais fait de cette manière, et c’est mieux. Je ne reviendrai jamais en arrière », a ainsi déclaré le responsable.
L’interview revient sur plusieurs points intéressants, comme les données satellitaires constituant une mauvaise base pour la 3D, le rôle dévolu à quatre personnes à temps plein pour s’entretenir avec les gouvernements, les instituts géographiques et les sociétés de forage, ou encore le dosage entre simulation réaliste et gamification.
Mais ce qui nous intéresse aujourd’hui, c’est surtout le choix technique du studio sur le fonctionnement du jeu.
30 Go à l’installation… seulement ?
L’un des aspects frappants de Flight Simulator 2024 est son empreinte relativement faible sur le stockage : 30 Go. On est loin de jeux assez récents comme Baldur’s Gate 3 et Starfield avec leurs 120 Go, ou même… Flight Simulator 2020 et ses 130 Go dans sa version d’origine, avant le déluge de mises à jour et leurs centaines de Go. Mais ces 30 Go sont en trompe-l’œil.
Si vous volez haut, ils suffiront la plupart du temps. Mais si vous vous approchez du sol, votre ordinateur va commencer à télécharger un lot de plus en plus important de données. Avantage pour les joueurs : un nombre croissant de détails, les régions ayant été envisagées comme des biomes, avec texture du sol, la faune, la flore, etc. Si on s’approche de la savane, par exemple, les animaux vont apparaître et on pourra survoler des rhinocéros et des girafes. Il est même possible de se poser et de descendre à pied pour explorer le coin.
C’est ici que l’on revient sur le fonctionnement par IA. Le modèle créé par Asobo pour Flight Simulator 2024 n’a pas généré la totalité des textures et des détails pour l’ensemble de la planète. Quand un joueur s’approche d’un environnement, des requêtes sont envoyées aux serveurs. En réponse, les détails et textures sont envoyés au joueur. Quand une zone a été calculée, elle est partagée automatiquement aux autres personnes qui s’en approcheraient, afin que les calculs ne soient pas refaits.
L’inconvénient, on s’en doute, réside dans le flux. Même si les données ne sont pas sauvegardées sur le disque, le flux représente en moyenne 5 Go par heure. Il s’agit d’un chiffre donné par Jörg Neumann dans plusieurs interviews, mais la consommation réelle dépend de l’usage et reste à mesurer par un grand nombre de joueurs. Un fonctionnement qui risque non seulement de représenter un gros problème dans les pays où il existe un palier mensuel de données consommées, mais qui a mis les serveurs de Microsoft à mal dès le lancement.
Crash au décollage
Les premières heures du jeu ont en effet été compliquées. Lancé hier soir, de très nombreux joueurs n’ont pas pu mettre la main sur leur avion pour un premier tour. L’écran de chargement concentre les reproches, puisque dans la plupart des cas, il reste bloqué sur un certain pourcentage, sans plus progresser.
Hier soir, vers 19 h, Microsoft a reconnu le problème. « Nous avons pris connaissance de rapports d’utilisateurs faisant état de longs temps de chargement initial dans Microsoft Flight Simulator 2024. En raison du grand nombre d’utilisateurs qui initialisent la simulation simultanément, nous avons un grand nombre de demandes de serveur. Nous nous efforçons de résoudre les problèmes dès que possible. Pour les utilisateurs dont le chargement initial a dépassé 90 % et ne progresse plus, nous recommandons un redémarrage. Sinon, nous conseillons d’attendre que le chargement se déroule normalement », a indiqué l’entreprise sur X.
Sous le tweet, on peut lire de nombreuses réactions en colère. Si certains abordent ces problèmes avec humour (« ça arrive les retards sur les vols »), beaucoup soulignent que Flight Simulator 2020 avait eu de gros soucis à son lancement, quand d’autres disent leur incompréhension face à l’attente de millions de joueurs.
Le torrent de connexions est probablement dû en partie à un lancement simultané sur PC et consoles Xbox, d’autant qu’il est présent dans le Game Pass. Quand bien même, le chargement initial n’était pas la seule difficulté. « Nous avons pris connaissance de rapports faisant état d’avions manquants dans les écrans Ma bibliothèque et Sélection d’avions dans Microsoft Flight Simulator 2024. Ce problème est lié aux problèmes de serveur que nous travaillons actuellement à résoudre », a ainsi ajouté le compte officiel une heure plus tard.
Un peu après minuit, les équipes indiquaient travailler encore sur le problème et pointaient vers une page du support Xbox pour vérifier le statut du service. À l’heure actuelle, tout serait rentré dans l’ordre. Si l’on regarde les derniers commentaires sur X, on peut voir que beaucoup signalent encore divers problèmes, même si celui de l’écran de chargement semble avoir été réglé.
L’Agence nationale de la sécurité des systèmes d’information vient d’annoncer le lancement officiel de son site MonAideCyber. Comme son nom l’indique, il s’agit d’un « service numérique gratuit de l’ANSSI qui permet d’accompagner et de fédérer une communauté » autour de la cybersécurité. L’Agence précise que le ministère de l’Intérieur, Cybermalveillance.gouv.fr et la CNIL sont partenaires de ce projet.
Il y a d’un côté les « aidants cyber » dont la mission est d’« aider à mieux aider » les bénéficiaires de ce dispositif afin qu’ils puissent « mettre en œuvre des démarches de renforcement de cybersécurité ». MonAideCyber s’adresse « aux entités privées comme publiques, de toute taille », mais n’est pas adapté « aux entreprises mono-salariés et aux auto-entrepreneurs, ainsi qu’aux entités jugées d’un bon niveau de maturité cyber ». Pour faire une demande, c’est par ici.
« MonAideCyber met à disposition de ces « aidants cyber » un outil de diagnostic cyber de premier niveau automatisé et adapté aux entités faiblement matures en cybersécurité », explique l’ANSSI. Si votre demande est validée, vous serez « mis en lien avec un Aidant de proximité, qui vous accompagne (sur une durée d’environ une heure et trente minutes) pour réaliser un diagnostic de maturité cyber de premier niveau ». À l’issue de quoi six mesures prioritaires sont proposées. Enfin, quelques mois après, un point d’étape est proposé.
L’Agence précise un peu les « aidants cyber » qui peuvent vous venir en aide, mais qui auront aussi accès à une partie de votre infrastructure : « des représentants des services de l’État (Police, Gendarmerie, Douanes, DGSI, DRSD, préfectures, réservistes, etc.), d’administrations, de collectivités, de groupements d’intérêt public, de chambres consulaires et syndicales, d’associations (campus cyber, opérateurs publics de services numériques, associations sectorielles, numériques ou de développement économique) ».
Le service était déjà disponible avant son lancement officiel et l’ANSSI revendique 1 475 diagnostics déjà effectués et pas moins de 1 476 aidants cyber référencés. « 30 % des mesures prioritaires [ont été] mises en œuvre sous trois mois », ajoute l’ANSSI.
La région sud-ouest est celle qui en a le plus profité pour l’instant.
Depuis la rentrée, les entreprises françaises sont particulièrement ciblées par les pirates et il ne se passe pas une semaine sans l’annonce d’une nouvelle fuite. Ces derniers jours, un groupe est particulièrement actif : Near2tlg. Il a publié un manifeste et revendique les piratages du Point, de SFR, de Direct Assurance, de Mediboard et d’Osiris Production. Plusieurs fuites ont déjà été confirmées.
Sur un forum prisé par les pirates qui veulent signaler leurs méfaits et/ou revendre leur butin, un compte est particulièrement actif ces derniers jours : Near2tlg. Il propose plusieurs bases de données en vente et s’est même fendu d’un message pour expliquer ses motivations et qu’il ne s’agit pas d’une seule personne, mais d’un « collectif ».
Near2tlg : le manifeste du groupe de pirates
« Nous avons réussi à infiltrer plusieurs systèmes informatiques et à accéder à un grand nombre de bases de données sensibles, y compris celles de grandes entreprises comme Le Point, SFR, Direct Assurance et Mediboard. En seulement une semaine, notre groupe, récemment formé, a démontré sa capacité à exploiter efficacement les vulnérabilités des infrastructures numériques », explique le collectif dans ce qui ressemble à un manifeste. Le message est également repris sur sa chaine Telegram.
Le groupe Near2tlg affirme avoir « déjà signalé les failles de sécurité sur les sites concernés ». Mais, au lieu de répondre et de corriger le tir, « ces entreprises ont préféré privilégier leurs profits, accumulant des milliards de chiffre d’affaires tout en négligeant la sécurité de leurs utilisateurs ». YuroSh, le pirate qui prétend être à l’origine du piratage de Free, affirmait lui aussi avoir envoyé des alertes de sécurité à l’entreprise.
« Nous continuerons à agir tant que la justice ne sera pas rendue. Nous mettrons à l’épreuve toutes les entreprises qui choisissent de privatiser les bénéfices générés au détriment de la sécurité de leurs utilisateurs », explique le groupe. YuroSh aussi tenait un discours militant dans ses revendications, mais sur un autre sujet que les profits : « Je déteste la surveillance et je pense que la seule façon de les réveiller est de les pirater. Sinon, les choses ne changent pas ».
Mediboard : « aucune donnée n’a été vendue »… pour l’instant
Parmi les bases de données mises en vente par Near2TLG, certaines fuites ont déjà été confirmées par les victimes. C’est le cas de nos confrères du Point et des données de 750 000 patients via Mediboard. Les pirates affirment au passage ne pas être à l’origine de la fuite de Free ni de celle d’Auchan.
Concernant Mediboard (dont la fuite a été confirmée), Near2tlg affirme (dans un message publié hier soir) qu’aucune « donnée n’a été vendue », mais le groupe lance « un ultimatum : un paiement de 5 000 dollars en Monero [une cryptomonnaie open source, ndlr] dans les trois jours, ou nous libérerons toute la base de données ».
Retour des données SFR, dont une copie aurait été vendue
Le groupe de pirates a aussi (re)mis en avant un message pour vendre des données de SFR dérobées début septembre. 150 000 clients seraient concernés, avec les nom, email, numéro de téléphone, nom de la banque, IBAN et adresse. Un premier exemplaire des données aurait été vendu, toujours selon la publication sur le forum.
Mediboard : un accès aux données de 1,5 million de patients ?
Dans la besace bien chargée des pirates, il y a d’autres choses à vendre, notamment des accès à Mediboard pour un « contrôle exclusif sur plusieurs établissements » : Centre Luxembourg, Clinique Alleray-Labrouste, Clinique Jean d’Arc, Clinique Saint-Isabelle et Hôpital Privé de Thiais. Cela ouvrirait les portes aux données de 1,5 million de patients.
Nous avons contacté le groupe Softway Medical qui, via sa filliale Openxtrem propose Mediboard pour avoir confirmation et des précisions sur cette seconde affaire, sans retour pour l’instant. Nous mettrons l’actualité à jour si la société devait revenir vers nous.
Direct Assurance : 15 000 personnes, dont plus de 6 000 RIB
Autres informations en vente, celles des clients de Direct Assurance. Plus de 15 000 personnes seraient dans leurs filets : 6 137 clients et 9 517 prospects. Selon la publication, les pirates auraient utilisé les accès d’un employé pour récupérer les données.
La liste des données en fuite comprend les nom, email, téléphone et adresse dans les deux cas. Dans le cas des clients, les pirates annoncent aussi vendre les RIB, nom de la banque et BIC. Des données bancaires importantes dont la fuite peut avoir des conséquences sur les comptes en banque des victimes.
Direct Assurance nous confirme la fuite
Nous avons contacté Direct Assurance ce matin. L’entreprise nous confirme la fuite, aussi bien sur des prospects que des clients (avec des données bancaires dans ce cas), sans pouvoir valider les chiffres annoncés par le pirate pour l’instant.
La brèche vient d’un fournisseur de services externe, dont l’identité n’est pas précisée. Bien évidemment, toutes les mesures nécessaires ont été prises pour « bloquer toute nouvelle fuite de données ».
La CNIL a été notifiée, nous affirme Direct Assurance (c’est d’ailleurs une obligation légale), qui est en train de prévenir ses clients concernés de la fuite de leurs données personnelles.
Un accès à « Osiris Production » en vente
Passons maintenant à « Osiris Production », dont la cible reste assez floue. Le pirate la présente comme « une plateforme utilisée par les pouvoirs publics français pour gérer les demandes d’indemnisation en cas d’accidents du travail et de maladies professionnelles ».
Mais Osiris Production renvoie vers un extranet du ministère de la Jeunesse et des Sports. Le site est actuellement en maintenance, mais il était fonctionnel en juin 2024 selon la Wayback Machine. Les captures d’écran mises en ligne par Near2tlg parlent d’un « projet associatif », ce qui pourrait coller à l’extranet Osiris dont nous parlons.
De 350 à 800 dollars, bientôt au tour de la SNCF ?
Sur Telegram, le groupe de pirates annonce ses tarifs : 350 dollars la base de données du Point, 800 dollars celle de SFR, 400 dollars pour Direct Assurance… avec un paiement en cryptomonnaie exclusivement.
Le message Telegram se termine par un coup de semonce pour une autre entreprise : « SNCF, préparez-vous, votre tour arrive ».
Après enquête lancée fin octobre, l’autorité britannique de la concurrence a déclaré que le partenariat entre Google et l’entreprise spécialisée dans l’IA Anthropic ne requérait pas d’enquête à part entière.
La Competition and Markets Authority a conclu que Google n’avait pas gagné d’ « influence matérielle » à la suite de sa promesse d’investir deux milliards de dollars dans le concurrent d’OpenAI.
Avant cet investissement, Google avait aussi signé un large partenariat en matière de cloud, rappelle Bloomberg.
À sa conférence Ignite 2024, Microsoft a annoncé comme chaque année de nombreux nouveaux produits. La plupart concernent l’IA et le cloud, les deux plus gros chevaux de bataille de l’entreprise désormais. Après l’explosion du nombre de services, Microsoft cherche désormais à en simplifier l’accès.
Azure AI Foundry, pour les lier tous
On commence tout de suite avec AI Foundry, qui concerne à la fois l’IA et le cloud. S’il s’agit bien d’un nouveau produit, c’est surtout l’occasion pour l’éditeur de rassembler de nombreux services sous un même toit. Tout ce qui touche aux modèles, aux outils, fonctions de sécurité et de surveillance y est contenu. Le portail Azure AI Studio devient dans le même temps Azure AI Foundry pour marquer le changement, pour devenir le point d’accès unique.
Dans le même temps, Microsoft lance en avant-première un SDK pour Foundry. Il fournit une chaine d’outils pour la personnalisation, les tests, le déploiement et la gestion des applications et agents d’IA, avec des contrôles pour les entreprises. Le SDK fait le lien avec GitHub, Visual Studio et Copilot Studio. Les développeurs sont invités à piocher dans les 25 modèles préconstruits disponibles, le SDK ayant pour mission de faciliter l’intégration d’Azure AI dans les applications.
Azure AI Agent Service est l’autre larron présenté à l’annonce de Foundry. Il aura pour mission d’aider à la gestion des agents d’IA, avec des fonctions d’orchestration, de déploiement et de mise à l’échelle, dans une optique d’automatisation des processus métier. Il intégrera des fonctions de type BYOS (bring your own storage) et de réseau privé, permettant aux entreprises d’héberger leurs données ailleurs que dans le cloud.
SQL Server 2025
Puisque l’on parle de stockage, SQL Server 2025 est une autre des grandes annonces de la conférence Ignite 2024. Le produit n’est pas encore disponible en version finale, seulement sous forme d’avant-première privée, avec formulaire d’inscription pour y participer.
L’IA n’est pas loin, car cette base de données vectorielle est largement tournée vers les modèles d’IA générative. Elle veut également faciliter l’emploi des données propres à l’entreprise pour les entrainements. Le prochain SQL Server s’interfacera avec Azure Arc pour le choix des modèles (avec données dans le cloud ou sur site), tandis que Copilot dans SQL Server Management Studio (SSMS) offrira les fonctions que l’on attend de ce genre de module : suggestions en temps réel, compléments de code, recommandations de meilleures pratiques, etc.
SQL Server 2025 intègrera également la gestion des identités par Entra. Microsoft promet aussi une augmentation des performances, grâce notamment « à l’optimisation intelligente des requêtes ». Le nouveau SGBD pourra fonctionner de concert avec Fabric pour mettre en miroir les bases de données dans OneLake, autorisant les analyses en temps réel « sans frictions ».
Azure Local vient remplacer Stack HCI
Le terme HCI, pour « Hyper-converged infrastructure », est voué à disparaitre. L’hyperconvergence est devenue monnaie courante et Microsoft n’éprouve plus le besoin de mettre le sigle en avant. Azure Stack HCI va donc disparaître au profit d’un petit nouveau, Azure Local.
Il s’agit toujours d’une solution d’infrastructure hybride, dans une optique de déploiement et de gestion des machines virtuelles à la périphérie, tandis que la gestion de l’infrastructure réside dans le cloud. Azure Local reprend les fonctions existantes et en ajoute d’autres, notamment un plus grand nombre d’options pour la sécurité, le support des applications natives et basées dans le cloud ou encore l’intégration de Azure Virtual Desktop.
Le remplacement d’Azure Stack HCI ne change pas les tarifs. Microsoft s’est également associé avec plusieurs équipementiers (Dell, HP, Lenovo…) pour proposer du matériel conçu pour Azure Local.
Une mise à jour majeure pour Microsoft 365 Copilot
Ce Copilot est l’un des plus importants chez Microsoft, puisqu’il est principalement attaché à la suite Office et aux services en ligne associés. Plusieurs apports intéressants ont été présentés.
Les Actions d’abord, qui ciblent les tâches répétitives. L’éditeur indique que le Copilot est en effet utilisé le plus souvent pour des activités fréquentes et rébarbatives, comme demander des mises à jour de statut, résumer des réunions, etc. Les Actions permettent de créer de déclencher un traitement déclenché par un ou plusieurs évènements, pour automatiser ces opérations.
Les autres nouveautés dépendent des applications. Dans Teams, Copilot pourra bientôt (début 2025 en préversion) résumer le contenu partagé à l’écran ainsi que les fichiers échangés dans les conversations (en tête-à-tête ou en groupe). Ces apports seront présents dans toutes les versions, y compris mobiles. Dans PowerPoint, on pourra pointer à Copilot un fichier spécifique pour créer une narration lors de la génération d’un premier jet de diapositives. Viendra également une fonction attendue depuis un moment : la traduction intégrale d’une présentation. Enfin, on pourra demander à Copilot de se servir d’une banque d’images spécifique pour qu’une entreprise s’assure qu’elles correspondent à sa marque. Ces apports arriveront entre décembre et janvier.
D’ici la fin de l’année également, Copilot pour Excel aidera les utilisateurs à se lancer depuis un tableau vierge. On pourra y décrire le type de feuille de calcul que l’on souhaite, Copilot créant un modèle que l’on pourra ensuite affiner. Dans Outlook, Copilot veut simplifier la création de réunions en proposant de lui-même des créneaux semblant le plus adaptés (si les agendas sont correctement remplis). La fonction pourra générer un ordre du jour selon les informations disponibles et sera disponible d’ici la fin du mois.
Enfin, il y aura bientôt du neuf pour Pages, un canevas dynamique lancé récemment. Au début de l’année prochaine, Pages prendra ainsi en charge de nouveaux types de données, dont « le code, les graphiques interactifs, les tableaux, les diagrammes et les mathématiques à partir de données d’entreprise ou de données Web ». Le support du multi-pages sera de la partie, tout comme une meilleure intégration du contexte au fur et à mesure que des informations sont ajoutées. Enfin, Pages pourra être utilisé depuis des appareils mobiles.
Windows 365 Link, un mini client léger pour streamer Windows
Microsoft a présenté un tout petit PC à 349 dollars. On ne sait presque rien de ses composants, mais la machine est estampillée Copilot+ et devrait embarquer une puce Arm, sans que l’on sache laquelle. L’éditeur évoque simplement des « performances très réactives », un « démarrage en quelques secondes » et « une sortie de veille instantanée ».
Le positionnement du Windows 365 Link est particulier. Il ne s’adresse qu’aux entreprises souhaitant des clients légers. Windows n’est même pas installé sur cette configuration. Comme Microsoft l’explique sur sa page de présentation, le Link est doté d’un OS minimal servant uniquement à joindre le serveur et afficher Windows en stream, depuis une machine virtuelle. Toutes les fonctions possibles de sécurité sont activées et ne peuvent pas être coupées, selon Microsoft.
Le Link fournit ainsi trois ports USB-A et un USB-C, le tout en USB 3.2. Il prend en charge deux écrans 4K, présente un port Ethernet (la vitesse n’est pas précisée), un port HDMI, une prise jack 3,5 mm, du Wi-Fi 6E et du Bluetooth 5.3. La machine est particulièrement discrète : avec des dimensions de 120 mm x 120 mm x 30 mm, elle est un peu plus petite que le dernier Mac mini.
Le Link ne s’adresse qu’aux entreprises ayant des formules Windows 365 Enterprise, Frontline ou Business, Intune et Entra ID. Il doit être lancé en avril prochain, mais seuls quelques pays sont d’abord concernés : États-Unis, Canada, Royaume-Uni, Allemagne, Japon, Australie et Nouvelle-Zélande. Microsoft indique que son Link sera proposé dans d’autres marchés plus tard, sans précision. L’entreprise ajoute qu’elle ne compte pas s’arrêter là et proposera d’autres matériels de ce type à l’avenir.
Et le reste ?
S’il s’agit des plus grosses annonces, Microsoft a également présenté diverses autres nouveautés. Teams disposera ainsi l’année prochaine (sans plus de précision) d’une traduction intégrale dans les réunions multilingues. La traduction pourra se faire sur 31 langues supportées et concernera également les transcriptions et les résumés des réunions.
Universal Print franchit aussi un cap en se voulant plus « universel ». D’abord, via la prise en charge des Mac, via l’arrivée d’une application dans le Mac App Store. Ce support est pour l’instant en préversion, mais arrivera en version finale le mois prochain. Le service lui-même évolue avec une fonction nommée « Universal Print anywhere », permettant d’imprimer depuis n’importe quel appareil et sur n’importe quelle imprimante dans la structure. La sécurité joue un rôle essentiel, car après avoir lancé le travail d’impression, il faudra se rendre sur l’imprimante de son choix et s’y authentifier pour que l’impression commence. Les avantages cités sont ceux du pull print habituel : meilleure confidentialité (moins d’oublis de documents) et économies de toner et de papier.
Signalons enfin l’arrivée prochaine de plusieurs améliorations de sécurité importantes dans Windows, notamment la protection du compte administrateur. Actuellement en préversion, elle permet la génération d’un jeton d’authentification (via Windows Hello) lorsque l’on effectue une tâche requérant des droits élevés. Une fois l’action accomplie, le jeton est détruit, permettant en théorie de ne plus pouvoir détourner le compte administrateur dans ce type de cas.
Microsoft proposera également bientôt un mécanisme nommé Quick Machine Recovery. Il s’agit d’une réaction directe à l’énorme panne CrowdStrike en juillet dernier. Les administrateurs pourront ainsi déployer des correctifs critiques et autres mises à jour de Windows sur les systèmes incapables de démarrer. Ce qui était effectivement le cas pour CrowdStrike.
L’intégralité des nouveautés annoncées lors de la conférence peut être consultée depuis cette page (en anglais).
Le « Palantir européen » d’après l’Usine digitale, l’« ogre discret » de la French Tech selon Les Échos… ChapsVision, éditeur français de logiciels de traitement de données, ne manque pas de qualificatifs.
En cinq ans d’existence, la société, créée par son CEO Olivier Dellenbach, a réalisé pas moins de vingt-sept acquisitions d’entreprises comme celles Deveryware, spécialisée dans les technologies d’investigation, ou de Systran, orientée traduction automatique.
Ce 18 novembre, elle annonce avoir finalisé une levée de fonds de 85 millions d’euros pour financer l’acquisition de la start-up Sinequa, qui propose un moteur de recherche d’entreprise alimenté à l’intelligence artificielle.
D’après Les Échos, elle devrait aussi remporter l’appel d’offres lancé en 2022 par la DGSI pour construire un outil de traitement des données hétérogènes (OTDH) tricolore… pour remplacer le fameux Palantir. Ce faisant, ChapsVision serait préférée à Athea, la coentreprise de Thalès et Atos.
La société, qui compte à peu près autant de clients (600 grands comptes) dans la sphère publique que dans la sphère privée, vise l’introduction en Bourse pour le troisième trimestre 2025.