Vue lecture

Qualcomm veut équiper des portables toujours plus accessibles

En aout dernier, Qualcomm annonçait viser des machines plus abordables dès 2025. Les portables équipés des puces Snapdragon X en 2024 jouent plus autour des 1300€ que des solutions les plus entrées de gamme du marché. Cet été donc, un prix de 700$ HT était indiqué.

Encore et toujours l’IA au cœur des stratégie de développement

Lors d’une conférence à destination de ses investisseurs, Qualcomm indique désormais viser un prix plancher plus situé autour de 600$ HT pour ses futurs Snapdragon. C’est u tout autre monde qui se dessine alors pour ces puces, car l’ampleur de l’offre si on considère les ordinateurs portables de 600$ et plus est sans commune mesure avec ce que visaient les premiers Snapdragon X. Et on comprend pourquoi Qualcomm indique cela à ses investisseurs. Les parts de marché et la croissance potentielles de cette évolution sont tout simplement énormes.

Évidemment, d’un point de vue plus pragmatique, ce n’est pas parce que de nouveaux portables plus accessibles vont débarquer qu’ils vont se vendre. Car pour arriver à ce prix plancher, les puces doivent mécaniquement baisser en performances. Qualcomm le sait et l’indique clairement avec un étalement des puces envisagées. Le Snapdragon X Elite comme haut de gamme avec 12 cœurs. Le X Plus et ses 10 cœurs juste en dessous, puis le X Plus 8 cœurs et… un futur Snapdragon avec probablement moins de cœurs pour ces fameux tarifs 600$ HT.

On peut donc s’attendre à une performance largement sabrée par rapport à ce que propose le haut de gamme de la marque. Et cela même si certains avantages techniques seront communs. La présence d’un NPU développant 45 TOPS est ainsi confirmée pour ces puces. Cela permettra d’utiliser des fonctions d’IA sous Copilot+ et Windows 11 si tant est que ce soit une chose recherchée par un utilisateur de PC entrée de gamme aujourd’hui comme demain.

On comprend surtout que Qualcomm va se battre ainsi sur un segment des plus féroce du marché. Les 600$ représentent le segment des machines situées entre 699 et 799€ TTC. Une gamme extrêmement concurrentielle où chaque constructeur cherche à se démarquer. En face de ces puces Snapdragon « low cost » on aura des engins AMD et Intel qui joueront des coudes de manière agressive. Un des éléments fort de l’offre Snapdragon X Elite est lié à leur puissance de calcul suffisante pour se proposer en alternative d’un portable x86 plus classique. En diminuant les capacités de ses puces, Qualcomm risque de rendre ses portables les plus accessibles également moins convaincants. Plus sujets à la critique face à d’autres puces.

L’autre risque est de laisser les constructeurs faire « n’importe quoi » avec leurs machines. Je n’exagère pas en disant cela, certaines marques n’hésitent toujours pas à lancer des machines décevantes dès l’allumage. Avec des composants trop légers par rapport aux besoins des clients. J’imagine déjà des demandes de prix tirés au plus bas pour proposer des machines très abordables quitte à, par exemple, gâcher un des avantages de l’offre ARM : l’autonomie. Je ne sais pas pourquoi, mais l’idée de voir une puce ARM livrée avec la batterie la plus économique possible résonne déjà dans ma tête comme un raccourci posé par une bonne partie du secteur. De quoi assumer 6 heures d’usage classique quand une batterie juste normale permettrait de tenir 10 à 12 heures.

Autrement dit, si on comprend bien que Qualcomm cherche à convaincre ses partenaires de ses larges possibilités de croissance en 2025 et 2026, il va falloir pareillement convaincre les clients de l’intérêt des solutions proposées. Et pour cela, il va également falloir que la marque soit impliquée dans le développement des machines de ses partenaires. Chose qui ne sera pas facile puisque sur certaines puces plus accessibles, AMD et Intel ont souvent peu de mot à dire quant aux choix du reste des composants.

Minimachines.net en partenariat avec Geekbuying.com
Qualcomm veut équiper des portables toujours plus accessibles © MiniMachines.net. 2024.

Spotify Has A Pirated Software Problem

An anonymous reader shares a report: People are using Spotify playlist and podcast descriptions to distribute spam, malware, pirated software and cheat codes for video games. Cybersecurity researcher Karol Paciorek posted an example of this: A Spotify playlist titled "*Sony Vegas Pro*13 C-r-a-c-k Free Download 2024 m-y-s-o-f-t-w-a-r-e-f-r-e-e.com" acts as a free advertisement for piracy website m-y-s-o-f-t-w-a-r-e-f-r-e-e[dot]com, which hosts malicious software. "Cybercriminals exploit Spotify for #malware distribution," Paciorek posted on X. "Why? Spotify has a strong reputation and its pages are easily indexed by search engines, making it an effective platform to promote malicious links." "The playlist title in question has been removed," a spokesperson for Spotify told 404 Media in a statement. "Spotify's Platform Rules prohibit posting, sharing, or providing instructions on implementing malware or related malicious practices that seek to harm or gain unauthorized access to computers, networks, systems, or other technologies."

Read more of this story at Slashdot.

Câbles endommagés dans la mer Baltique : quels impacts sur Internet ?

Câbles endommagés dans la mer Baltique : quels impacts sur Internet ?

Alors que l’Allemagne, la Finlande, la Suède et le Danemark ont évoqué la possibilité d’un sabotage sur les câbles C-Lion1 et BCS East-West situés en mer Baltique, on peut se poser la question de l’incidence de ce genre de problème sur le trafic Internet. Des données et analyses partagées par le registre Internet régional RIPE NCC ainsi que par Cloudflare donnent quelques pistes.

Dimanche et lundi, comme nous l’avons rapporté, deux incidents sur des câbles sous-marins ont été détectés en mer Baltique.

L’enquête sur les causes et responsabilités commence tout juste, mais un bateau chinois, le Yi Peng 3, a été arraisonné par la Marine danoise. Néanmoins, les responsables politiques de l’Allemagne, la Finlande, la Suède et le Danemark n’ont pas attendu pour faire des déclarations évoquant un éventuel sabotage.

Mette Frederiksen, la Première ministre danoise, a par exemple affirmé à l’agence de presse Ritzau qu’ « il y a un risque d’attaques hybrides, de cyberattaques et d’attaques contre les infrastructures essentielles ».

De son côté, un porte-parole du ministère chinois des Affaires étrangères a affirmé que « la Chine a toujours rempli pleinement ses obligations en tant qu’État du pavillon et exige des navires chinois qu’ils respectent scrupuleusement les lois et les réglementations en vigueur ».

Si les raisons ne sont pas encore établies, on peut commencer à regarder les conséquences de ce double incident sur le trafic Internet dans la région.

RIPE Atlas, un réseau de sondes d’observation

Le registre Internet régional RIPE NCC a publié une première analyse basée sur son réseau de sondes RIPE Atlas, tout en précisant que les résultats sont encore préliminaires. Comme l’explique Stéphane Bortzmeyer dans un récent article de l’Afnic, ces sondes forment « le plus grand réseau d’observation de l’Internet » et « permettent à tous et toutes de regarder si ça marche ».

Pour les quatre pays concernés, on peut voir ci-dessous les différentes sondes cartographiées par le RIPE NCC :

Quelques latences, mais quasiment pas de pertes de paquets

Pour le câble BCS East-West, dans l’analyse des données de ses sondes dans l’intervalle de temps entre 12 heures avant et 12 heures après l’incident, le RIPE NCC a pu observer des décalages de latence coïncidant avec l’heure de l’incident signalée par certains. Il a donc cherché à savoir quels taux de trajets étaient affectés.

« Nous constatons que 80 % des trajets […] ne présentent pas de différence de latence significative, tandis que les 20 % restants ont subi une augmentation de la latence », explique le registre Internet régional. Il ajoute que « les 10 % de chemins présentant la plus grande différence de latence enregistrent une augmentation comprise entre 10 et 20 ms ».

En analysant la perte de paquets, toujours avec ses sondes, RIPE NCC observe qu’il n’y en a globalement pas, même si des pics occasionnels sont relevés. « Mais l’observation la plus frappante est qu’il n’y a pas d’augmentation de la perte de paquets coïncidant avec l’heure de la coupure du câble », s’étonne-t-il.

Concernant C-Lion1, le RIPE NCC a aussi pu observer des décalages de latence qui correspondent à l’heure d’incident envisagée. Pour ce câble, il constate « qu’environ 70 % des chemins n’ont pas de différence de latence […], ce qui signifie qu’environ 30 % en ont ». Il précise que « 20 % des chemins présentent des augmentations de latence de 5 ms ou plus ».

Ici, s’agissant de la perte d’informations transmises, le RIPE NCC constate « une perte de paquets de 0,5 % à 1,0 % pendant la majeure partie de cette période ». Par contre, « l’heure de l’événement (02:00 UTC) n’est pas particulièrement visible » dans ces données, s’étonne-t-il, « cela indique que l’événement n’a pas provoqué de perte de paquets supplémentaire, du moins pas pour cette mesure que nous pouvons extraire ».

Le registre Internet régional conclue que ce résultat « indique la résilience de l’internet dans la mesure où nous la mesurons avec les ancres RIPE Atlas […]. Cela suggère que, dans la région de la Baltique, l’internet a réussi à contourner les dommages survenus ».

CloudFlare rassurant aussi

De son côté, CloudFlare a publié un billet de blog qui s’appuie sur les données échangées entre ses clients et les internautes. Pour l’entreprise de sécurisation de trafic internet, les « deux récentes coupures de câbles survenues dans la mer Baltique n’ont eu que peu ou pas d’impact observable sur les pays concernés, comme nous l’expliquons ci-dessous, en grande partie en raison de la redondance et de la résilience significatives de l’infrastructure Internet en Europe ».

Sur le câble BCS East-West, CloudFlare explique ne pas avoir observé « d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés » entre ses clients et les utilisateurs. Il en est de même à propos du lien C-Lion1 : « il n’y a pas eu d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés ».

☕️ Windows 11 : Microsoft teste des variantes de Hello et de la barre des tâches

Poussée mercredi sur le canal Canary dédié aux membres du programme Windows Insider, la version 27754 de Windows 11 introduit quelques améliorations, principalement cosmétiques, au niveau de Windows Hello et de la barre des tâches.

Le principal changement concerne Windows Hello, avec une mise à jour qualifiée de « significative » de l’interface, censée passer aux standards de design en vigueur sur le reste de l’environnement Windows 11.

« Nous avons repensé l’expérience utilisateur liée aux identifiants de sécurité Windows pour les clés d’accès, créant ainsi une expérience plus claire qui prend en charge une authentification sécurisée et rapide », affirme notamment l’éditeur, qui accentue depuis plusieurs semaines ses efforts autour de l’intégration de clés d’accès fournies par des éditeurs tiers.

La nouvelle iconographie dédiée à Windows Hello apparaît désormais au même niveau que les autres options d’authentification sur l’écran d’accueil du système d’exploitation. Microsoft précise également que cette mise à jour s’appliquera aux futures mécaniques de protection associées au compte administrateur.

Annoncées cette semaine dans le cadre de la conférence Ignite, celles-ci reposent pour mémoire sur la création, via Windows Hello, d’un jeton temporaire d’authentification lors de l’exécution de tâches exigeant des droits élevés.

Windows 11 Insider Preview Build 27754 est par ailleurs l’occasion de tester de légères modifications cosmétiques au niveau de la barre des tâches, qui profite d’un rendu et d’une animation rafraîchis au niveau de la prévisualisation des fenêtres ouvertes.

Microsoft indique par ailleurs soumettre aux utilisateurs une version simplifiée de la zone dédiée aux notifications. La date y apparaît sous une forme abrégée et la cloche dédiée aux notifications disparait quand le mode concentration est activé. Les changements restent réversibles via les paramètres, rassure l’éditeur, qui rappelle par ailleurs la finalité de la branche Canary : tester des changements, pour éventuellement valider leur intégration dans de futures mises à jour.

Bluesky est-il décentralisé ?

Décentralisation quantique
Bluesky est-il décentralisé ?

Bluesky et son protocole AT sont souvent décrits comme décentralisés, à la manière de Mastodon. Mais est-ce bien le cas ? La question fait débat.

Bluesky est actuellement sous les feux des projecteurs. L’effet boule de neige semble enclenché et on peut voir un nombre croissant de comptes importants partir de X pour des cieux plus cléments. Chez Science, on lit la même chose au sujet de la communauté scientifique.

Bluesky attire pour plusieurs raisons, en plus du critère classique de nouvel horizon. D’une part, des fonctions de blocage et de modération nettes et précises. D’autre part, l’affichage chronologique par défaut des publications, loin des algorithmes poussant à l’engagement. Et que cet engagement se fasse sur les impressions de publicités ou sur les réactions de comptes Premium n’y change rien.

Que sait-on de Bluesky ? C’était initialement un projet incubé chez Twitter par Jack Dorsey en personne. Le fondateur de Twitter souhaitait tester l’idée d’un protocole open source pour un réseau de micro-blogging. Cette idée a accouché du protocole AT, qui est effectivement open source, sous double licence Apache 2.0 et MIT. Jack Dorsey, lui, a quitté l’entreprise en mai.

Ce protocole a été pensé initialement pour permettre un fonctionnement décentralisé et fédéré, comme le propose Mastodon. Mais peut-on dire que Bluesky est réellement décentralisé ? La réponse n’est pas si simple.

Un serveur, un relai et une vue entrent dans un bar

Lorsque l’on parle de Bluesky, on évoque le réseau dans son intégralité. Mais ce réseau se compose en fait de trois parties, comme l’entreprise l’explique dans sa documentation : les serveurs, les relais et les vues d’applications.

Les serveurs constituent les réservoirs de données personnelles. Un utilisateur peut y stocker toutes ses informations, dont ses publications et tout ce qui sert à l’identifier (nom de connexion, mots de passe, clés cryptographiques) ou encore la liste des personnes suivies. Les PDS (Personal Data Server) gèrent également la mise en relation avec les services en fonction des requêtes. Il peut y avoir autant de PDS que l’on souhaite et tout le monde peut en créer un. En théorie.

Sur les relais en revanche, tout change. Leur mission est de parcourir tous les PDS, d’agréger et indexer le contenu pour en produire un énorme flux unique de données en streaming, souvent appelé firehose dans le jargon. Ce flux est ensuite mis à disposition de tout l’écosystème atproto (protocole AT). Les relais agissent comme un moteur de recherche.

Quant aux vues d’application (App View), elles constituent la face visible de l’iceberg. Une App View est ce qui permet d’afficher des informations exploitables à partir du flux agrégé. Elle réalise un assemblage à partir des critères définis aussi bien par la requête que les différents paramètres. Par exemple, afficher le flux personnel ou les résultats d’une recherche, tout en masquant certains résultats, par exemple provenant des personnes bloquées.

Que peut-on faire soi-même ?

Certaines actions peuvent être entreprises par les utilisateurs, du moins sur le papier. Monter un serveur personnel est le plus simple, Bluesky fournissant de nombreuses informations sur GitHub et jusqu’à un conteneur pour simplifier l’installation. Mais, comme son nom l’indique, un serveur de données personnelles ne peut héberger que ses propres informations. Il n’est pas question de créer une instance comme le fait Mastodon. On ne peut y inviter personne.

Sur les relais, c’est nettement plus compliqué. Dans sa documentation, Bluesky explique que tout le monde peut en héberger un, mais que c’est « un service assez gourmand en ressources ». Gourmand comment ? Très vorace en fait, car les relais arpentent l’intégralité des PDS pour en indexer le contenu. Certaines estimations tablent sur un minimum de 4,5 To à l’installation et d’une croissance minimale de 18 Go par jour pour les seules données JSON, sans parler des données brutes, beaucoup plus volumineuses, d’un facteur 10 selon Gavin Anderegg. Ce dernier rappelle d’ailleurs que ces chiffres ne tiennent pas compte du récent emballement dans les inscriptions sur Bluesky.

Concernant les vues d’applications, techniquement tout le monde peut en développer. Dans l’idée d’ailleurs, Bluesky parle de vue pour évoquer un prisme permettant de représenter des données depuis un flux brut. Si la seule utilisation actuelle est faite dans le cadre d’un service de micro-blogging, le protocole AT peut a priori être utilisé pour tout et n’importe quoi.

Pour le reste, tout est du ressort strict de l’entreprise. Bluesky contrôle notamment deux éléments importants : les DID:PLC et les DM. Les premiers représentent, dans les grandes lignes, les identifiants des utilisateurs. Les seconds sont les messages privés, qui ne sont pas pris en charge par le protocole AT. Les données correspondantes ne sont donc pas présentes dans les PDS, mais gérées directement par Bluesky de manière séparée.

Bluesky n’est ni fédéré, ni décentralisé… pour l’instant

Le protocole AT a été pensé pour être décentralisé. Dans la pratique, Bluesky ne l’est pas. La possibilité de créer facilement un PDS n’est qu’un petit élément parmi d’autres. Même si l’on peut créer des relais, leur mise en œuvre est complexe et sans doute bien trop onéreuse en stockage et bande passante pour être intéressante.

On ne peut pas dire que Bluesky soit actuellement décentralisé, et encore moins fédéré. Il y a bien un centre, et il est géré par l’entreprise Bluesky. Sans son relai, rien ne fonctionne. Chaque serveur de données personnelles ne sert ainsi que comme petit réservoir pour les informations d’une personne, incapable de fonctionner par lui-même.

Pour Gavin Anderegg, ce n’est ni bien ni mauvais : ce n’est que le fonctionnement actuel, qui pourrait changer. Il estime en effet que l’équipe en charge du réseau se dirige petit à petit vers la décentralisation, mais que la tâche reste immense au vu des choix techniques. En outre, il souligne la grande ouverture du protocole, qui permet de voir l’intégralité du flux, puisque toutes les informations y sont publiques.

Cet aspect du réseau est d’ailleurs moins connu et peut avoir toute son importance : rien de ce que vous publiez sur Bluesky n’est privé. On peut s’en rendre compte facilement en allant dans les options de vie privée et sécurité. Là, un réglage propose de masquer le compte aux personnes non connectées à Bluesky. Cependant, on est averti : « Bluesky est un réseau ouvert et public. Ce paramètre limite uniquement la visibilité de votre contenu sur l’application et le site Web de Bluesky, et d’autres applications peuvent ne pas respecter ce paramètre. Votre contenu peut toujours être montré aux personnes non connectées par d’autres applications et sites Web ». Les profils privés n’existent pas sur le réseau. Une page résume la situation sur les données publiques et privées.

☕️ Fin de Windows 10 : Microsoft fait sa pub en plein écran

Comme elle l’avait fait lors de précédentes fins de support, l’entreprise commence à afficher des messages en plein écran pour avertir de la fin prochaine de Windows 10. Le support technique de ce dernier se terminera le 14 octobre 2025. L’éditeur s’y prend à l’avance, mais l’ampleur de la tâche est immense, le système comptant pour environ 60 % du parc Windows aujourd’hui.

Comme on peut le voir chez plusieurs médias anglo-saxons, dont Ars Technica et Neowin, les messages ne sont pas toujours les mêmes. Dans certains cas, les qualités de Windows 11 pour les jeux vidéo sont mises en avant. Pourtant, les deux systèmes sont au coude à coude sur ce terrain. Windows 10 a même l’avantage sur une partie des jeux, comme l’a montré TechSpot dans ses tests en août dernier.

Dans d’autres cas, Microsoft insiste sur les gains de sécurité. Il est vrai qu’en exigeant du matériel beaucoup plus récent, dont une puce TPM 2.0, Windows 11 part sur de meilleures bases. L’éditeur travaille également sur des améliorations importantes, comme nous l’avons signalé dans notre actualité sur la conférence Ignite 2024.

Mais parfois, le panneau plein écran insiste sur la facilité à transiter vers Windows 11, voire fait la promotion des PC Copilot+. Il s’agit donc d’une publicité. On trouve en conséquence de nombreux messages agacés sur X, voire de franche colère.

Ces panneaux, en plus d’être en plein écran, flirtent avec le dark pattern. Ils mettent en avant un bouton bleu « En apprendre plus », tandis que « Me rappeler plus tard » est dans un bouton blanc sur fond blanc. En outre, ils ne font pas mention de l’option payante pour prolonger le support de Windows 10. Microsoft a en effet annoncé récemment que l’on pourrait payer 30 dollars pour une année supplémentaire de correctifs de sécurité.

Câbles endommagés dans la mer Baltique : quels impacts sur Internet ?

Câbles endommagés dans la mer Baltique : quels impacts sur Internet ?

Alors que l’Allemagne, la Finlande, la Suède et le Danemark ont évoqué la possibilité d’un sabotage sur les câbles C-Lion1 et BCS East-West situés en mer Baltique, on peut se poser la question de l’incidence de ce genre de problème sur le trafic Internet. Des données et analyses partagées par le registre Internet régional RIPE NCC ainsi que par Cloudflare donnent quelques pistes.

Dimanche et lundi, comme nous l’avons rapporté, deux incidents sur des câbles sous-marins ont été détectés en mer Baltique.

L’enquête sur les causes et responsabilités commence tout juste, mais un bateau chinois, le Yi Peng 3, a été arraisonné par la Marine danoise. Néanmoins, les responsables politiques de l’Allemagne, la Finlande, la Suède et le Danemark n’ont pas attendu pour faire des déclarations évoquant un éventuel sabotage.

Mette Frederiksen, la Première ministre danoise, a par exemple affirmé à l’agence de presse Ritzau qu’ « il y a un risque d’attaques hybrides, de cyberattaques et d’attaques contre les infrastructures essentielles ».

De son côté, un porte-parole du ministère chinois des Affaires étrangères a affirmé que « la Chine a toujours rempli pleinement ses obligations en tant qu’État du pavillon et exige des navires chinois qu’ils respectent scrupuleusement les lois et les réglementations en vigueur ».

Si les raisons ne sont pas encore établies, on peut commencer à regarder les conséquences de ce double incident sur le trafic Internet dans la région.

RIPE Atlas, un réseau de sondes d’observation

Le registre Internet régional RIPE NCC a publié une première analyse basée sur son réseau de sondes RIPE Atlas, tout en précisant que les résultats sont encore préliminaires. Comme l’explique Stéphane Bortzmeyer dans un récent article de l’Afnic, ces sondes forment « le plus grand réseau d’observation de l’Internet » et « permettent à tous et toutes de regarder si ça marche ».

Pour les quatre pays concernés, on peut voir ci-dessous les différentes sondes cartographiées par le RIPE NCC :

Quelques latences, mais quasiment pas de pertes de paquets

Pour le câble BCS East-West, dans l’analyse des données de ses sondes dans l’intervalle de temps entre 12 heures avant et 12 heures après l’incident, le RIPE NCC a pu observer des décalages de latence coïncidant avec l’heure de l’incident signalée par certains. Il a donc cherché à savoir quels taux de trajets étaient affectés.

« Nous constatons que 80 % des trajets […] ne présentent pas de différence de latence significative, tandis que les 20 % restants ont subi une augmentation de la latence », explique le registre Internet régional. Il ajoute que « les 10 % de chemins présentant la plus grande différence de latence enregistrent une augmentation comprise entre 10 et 20 ms ».

En analysant la perte de paquets, toujours avec ses sondes, RIPE NCC observe qu’il n’y en a globalement pas, même si des pics occasionnels sont relevés. « Mais l’observation la plus frappante est qu’il n’y a pas d’augmentation de la perte de paquets coïncidant avec l’heure de la coupure du câble », s’étonne-t-il.

Concernant C-Lion1, le RIPE NCC a aussi pu observer des décalages de latence qui correspondent à l’heure d’incident envisagée. Pour ce câble, il constate « qu’environ 70 % des chemins n’ont pas de différence de latence […], ce qui signifie qu’environ 30 % en ont ». Il précise que « 20 % des chemins présentent des augmentations de latence de 5 ms ou plus ».

Ici, s’agissant de la perte d’informations transmises, le RIPE NCC constate « une perte de paquets de 0,5 % à 1,0 % pendant la majeure partie de cette période ». Par contre, « l’heure de l’événement (02:00 UTC) n’est pas particulièrement visible » dans ces données, s’étonne-t-il, « cela indique que l’événement n’a pas provoqué de perte de paquets supplémentaire, du moins pas pour cette mesure que nous pouvons extraire ».

Le registre Internet régional conclue que ce résultat « indique la résilience de l’internet dans la mesure où nous la mesurons avec les ancres RIPE Atlas […]. Cela suggère que, dans la région de la Baltique, l’internet a réussi à contourner les dommages survenus ».

CloudFlare rassurant aussi

De son côté, CloudFlare a publié un billet de blog qui s’appuie sur les données échangées entre ses clients et les internautes. Pour l’entreprise de sécurisation de trafic internet, les « deux récentes coupures de câbles survenues dans la mer Baltique n’ont eu que peu ou pas d’impact observable sur les pays concernés, comme nous l’expliquons ci-dessous, en grande partie en raison de la redondance et de la résilience significatives de l’infrastructure Internet en Europe ».

Sur le câble BCS East-West, CloudFlare explique ne pas avoir observé « d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés » entre ses clients et les utilisateurs. Il en est de même à propos du lien C-Lion1 : « il n’y a pas eu d’impact apparent sur les volumes de trafic dans les deux pays au moment où les câbles ont été endommagés ».

☕️ Windows 11 : Microsoft teste des variantes de Hello et de la barre des tâches

Poussée mercredi sur le canal Canary dédié aux membres du programme Windows Insider, la version 27754 de Windows 11 introduit quelques améliorations, principalement cosmétiques, au niveau de Windows Hello et de la barre des tâches.

Le principal changement concerne Windows Hello, avec une mise à jour qualifiée de « significative » de l’interface, censée passer aux standards de design en vigueur sur le reste de l’environnement Windows 11.

« Nous avons repensé l’expérience utilisateur liée aux identifiants de sécurité Windows pour les clés d’accès, créant ainsi une expérience plus claire qui prend en charge une authentification sécurisée et rapide », affirme notamment l’éditeur, qui accentue depuis plusieurs semaines ses efforts autour de l’intégration de clés d’accès fournies par des éditeurs tiers.

La nouvelle iconographie dédiée à Windows Hello apparaît désormais au même niveau que les autres options d’authentification sur l’écran d’accueil du système d’exploitation. Microsoft précise également que cette mise à jour s’appliquera aux futures mécaniques de protection associées au compte administrateur.

Annoncées cette semaine dans le cadre de la conférence Ignite, celles-ci reposent pour mémoire sur la création, via Windows Hello, d’un jeton temporaire d’authentification lors de l’exécution de tâches exigeant des droits élevés.

Windows 11 Insider Preview Build 27754 est par ailleurs l’occasion de tester de légères modifications cosmétiques au niveau de la barre des tâches, qui profite d’un rendu et d’une animation rafraîchis au niveau de la prévisualisation des fenêtres ouvertes.

Microsoft indique par ailleurs soumettre aux utilisateurs une version simplifiée de la zone dédiée aux notifications. La date y apparaît sous une forme abrégée et la cloche dédiée aux notifications disparait quand le mode concentration est activé. Les changements restent réversibles via les paramètres, rassure l’éditeur, qui rappelle par ailleurs la finalité de la branche Canary : tester des changements, pour éventuellement valider leur intégration dans de futures mises à jour.

MIT Undergrads With Family Income Below $200K Can Attend Tuition-free In 2025

schwit1 writes: Undergraduates with family income below $200,000 can expect to attend MIT tuition-free starting next fall, thanks to newly expanded financial aid. Eighty percent of American households meet this income threshold. And for the 50 percent of American families with income below $100,000, parents can expect to pay nothing at all toward the full cost of their students' MIT education, which includes tuition as well as housing, dining, fees, and an allowance for books and personal expenses. This $100,000 threshold is up from $75,000 this year, while next year's $200,000 threshold for tuition-free attendance will increase from its current level of $140,000.

Read more of this story at Slashdot.

Is Your Master's Degree Useless?

While master's degrees are increasingly popular -- with 40% of U.S. bachelor's degree holders now having postgraduate credentials -- new research reveals many don't deliver improved earnings despite soaring costs. Analysis from the U.S. and UK indicates that about 40% of U.S. master's programs fail to provide positive financial returns, with some even leading to financial losses for graduates, as captured in a new Economist story. Similarly, British master's graduates earn no more than bachelor's holders by age 35 after accounting for background factors. This is particularly significant because U.S. students now average $50,000 in postgraduate debt, triple the real cost since 2000, while UK fees have risen 70% since 2011 to $12,000 annually. Returns vary dramatically by field: computer science and engineering show strong gains, while humanities degrees often lead to reduced earnings compared to bachelor's-only peers. Women are more likely than men to see earnings increases, succeeding in 14 out of 31 subject areas compared to men's six. Choice of institution impacts outcomes, though data shows no strong correlation between program cost and graduate earnings.

Read more of this story at Slashdot.

Bon Plan : Beholder offert par Epic Games

Le très bon jeu Beholder est offert par le store d'Epic Games, l'ajout à votre bibliothèque est possible ici, jusqu'au 28 novembre, 17 heures. Ce jeu d'aventure, à la narration poussée, vous permet d'incarner un loueur à la botte d'un gouvernement tyrannique, à vous de fixer vos limites face à leurs exigences de contrôles sur vos locataires ! […]

Lire la suite

The Growth Rate For Mobile Internet Subscribers Has Stalled Across the World

An anonymous reader shares a report: A recent survey from Global System for Mobile Communications Association Intelligence (GSMA), the research wing of a U.K.-based organization that represents mobile operators around the world, found that 4.6 billion people across the globe are now connected to mobile internet -- or roughly 57% of the world's population. Now, the rate of new mobile internet subscriber growth is slowing. From 2015 to 2021, the survey consistently found over 200 million coming online through mobile devices around the world each year. But in the last two years, that number has dropped to 160 million. Rest of World analysis of that data found that a number of developing countries are plateauing in the number of mobile internet subscribers. That suggests that in countries like Pakistan, Bangladesh, Nigeria, and Mexico, the easiest populations to get online have already logged on, and getting the rest of the population on mobile internet will continue to be a challenge. GSMA collects data by surveying a nationally representative sample of people in each country, and then it correlates the results with similar studies. [...] In countries including China, the U.S., and Singapore, a high share of the population is already connected to mobile internet -- 80%, 81%, and 93%, respectively. So itâ(TM)s no surprise that the rate of mobile internet subscriptions has slowed. But the rate of new users has also slowed in countries including Bangladesh, Nigeria, and Pakistan -- where only 37%, 34%, and 24% of the population currently use mobile internet.

Read more of this story at Slashdot.

Steam Tightens Rules on Game Season Passes

Valve's Steam platform is implementing stricter regulations for season pass sales, requiring detailed content descriptions and specific release windows for downloadable content (DLC), according to SteamDB creator Pavel Djundik. The company will restrict season pass offerings to established partners with proven track records and may issue refunds if developers miss deadlines or deliver unsatisfactory content. Developers must outline DLC components and commit to three-month launch windows, with one possible delay allowed. "If you aren't ready to clearly communicate about the content included in each DLC AND when each DLC will be ready for launch, you shouldn't offer a Season Pass on Steam," Valve stated.

Read more of this story at Slashdot.

OpenAI Accidentally Deleted Potential Evidence in New York Times Copyright Lawsuit

An anonymous reader shares a report: Lawyers for The New York Times and Daily News, which are suing OpenAI for allegedly scraping their works to train its AI models without permission, say OpenAI engineers accidentally deleted data potentially relevant to the case. Earlier this fall, OpenAI agreed to provide two virtual machines so that counsel for The Times and Daily News could perform searches for their copyrighted content in its AI training sets. In a letter, attorneys for the publishers say that they and experts they hired have spent over 150 hours since November 1 searching OpenAI's training data. But on November 14, OpenAI engineers erased all the publishers' search data stored on one of the virtual machines, according to the aforementioned letter, which was filed in the U.S. District Court for the Southern District of New York late Wednesday. OpenAI tried to recover the data -- and was mostly successful. However, because the folder structure and file names were "irretrievably" lost, the recovered data "cannot be used to determine where the news plaintiffs' copied articles were used to build [OpenAI's] models," per the letter. "News plaintiffs have been forced to recreate their work from scratch using significant person-hours and computer processing time," counsel for The Times and Daily News wrote.

Read more of this story at Slashdot.

❌