Vue lecture

First OCR Spyware Breaches Both Apple and Google App Stores To Steal Crypto Wallet Phrases

Kaspersky researchers have discovered malware hiding in both Google Play and Apple's App Store that uses optical character recognition to steal cryptocurrency wallet recovery phrases from users' photo galleries. Dubbed "SparkCat" by security firm ESET, the malware was embedded in several messaging and food delivery apps, with the infected Google Play apps accumulating over 242,000 downloads combined. This marks the first known instance of such OCR-based spyware making it into Apple's App Store. The malware, active since March 2024, masquerades as an analytics SDK called "Spark" and leverages Google's ML Kit library to scan users' photos for wallet recovery phrases in multiple languages. It requests gallery access under the guise of allowing users to attach images to support chat messages. When granted access, it searches for specific keywords related to crypto wallets and uploads matching images to attacker-controlled servers. The researchers found both Android and iOS variants using similar techniques, with the iOS version being particularly notable as it circumvented Apple's typically stringent app review process. The malware's creators appear to be Chinese-speaking actors based on code comments and server error messages, though definitive attribution remains unclear.

Read more of this story at Slashdot.

'I'm Done With Ubuntu'

Software developer and prolific blogger Herman Ounapuu, writing in a blog post: I liked Ubuntu. For a very long time, it was the sensible default option. Around 2016, I used the Ubuntu GNOME flavor, and after they ditched the Unity desktop environment, GNOME became the default option. I was really happy with it, both for work and personal computing needs. Estonian ID card software was also officially supported on Ubuntu, which made Ubuntu a good choice for family members. But then something changed. Ounapuu recounts how Ubuntu's bi-annual long-term support releases consistently broke functionality, from minor interface glitches to catastrophic system failures that left computers unresponsive. His breaking point came after multiple problematic upgrades affecting family members' computers, including one that rendered a laptop completely unusable during an upgrade from Ubuntu 20.04 to 22.04. Another incident left a relative's system with broken Firefox shortcuts and duplicate status bar icons after updating Lubuntu 18.04. Canonical's aggressive push of Snap packages has drawn particular criticism. The forced migration of system components from traditional Debian packages to Snaps resulted in compatibility issues, broken desktop shortcuts, and government ID card authentication failures. In one instance, he writes, a Snap-related bug in the GNOME desktop environment severely disrupted workplace productivity, requiring multiple system restarts to resolve. The author has since switched to Fedora, praising its implementation of Flatpak as a superior alternative to Snaps.

Read more of this story at Slashdot.

Nissan Set To Step Back From Merger With Honda

An anonymous reader shares a report: Nissan looks set to step back from merger talks with rival Honda, two sources said on Wednesday, calling into question a $60 billion tie-up to create the world's no.3 automaker and potentially leaving Nissan to drive its turnaround alone. Talks between the two Japanese automakers have been complicated by growing differences, according to multiple people familiar with the matter. Reuters reported earlier that Nissan could call off talks after Honda sounded it out about becoming a subsidiary. Nissan baulked as this was a departure from what was originally framed as a merger of equals, one of the people said.

Read more of this story at Slashdot.

NVIDIA Engineer Talks Up sched_ext Linux Scheduler Possibilities At FOSDEM

Merged last year for the Linux 6.12 kernel was sched_ext for allowing extensible scheduler possibilities by allowing schedulers to be implemented as eBPF code and dynamically loaded into the kernel. This allows for rapidly developing new schedulers as well as exploring other new possibilities around more intelligent kernel scheduling decisions. Meta, Google, Canonical (Ubuntu), and others have been big proponents of sched_ext and NVIDIA is also increasingly vocalizing their support for these extensible scheduler opportunities...

The Long Quest for Artificial Blood

Scientists are making significant advances in developing artificial blood substitutes, with two promising approaches emerging in 2025, the New Yorker reports. At the University of Maryland School of Medicine's Center for Blood Oxygen Transport and Hemostasis, researchers are testing ErythroMer, a synthetic nanoparticle that mimics red blood cells' oxygen-carrying capabilities. Simultaneously, the UK's National Health Service is conducting the first human trials of lab-grown blood cells. These developments address critical blood shortages - of the 38% of Americans eligible to donate, less than 3% do so regularly. Traditional donated blood also has significant limitations: platelets last only 5 days, red blood cells 42 days, and all require careful refrigeration and blood-type matching. DARPA awarded $46 million in early 2023 to develop ErythroMer, seeing potential for battlefield medicine where traditional blood storage isn't feasible. The synthetic blood can be stored as a powder and reconstituted when needed. There are still a lot of challenges, the report adds. The lab-grown blood currently costs about $75,000 per syringe compared to around $200 for a pint of donated blood, and production is limited to small quantities.

Read more of this story at Slashdot.

Intelligence artificielle : le Medef exhorte les entreprises à s’emparer du sujet

En retard, en retard, j'ai rendez-vous que'qu'part
Intelligence artificielle : le Medef exhorte les entreprises à s’emparer du sujet

Le 4 février, le MEDEF et Numeum dressaient le bilan de leur Tour de France de l’IA auprès des entreprises. Next y était.

Faire le bilan du Tour de France de l’intelligence artificielle en amont du Sommet sur l’IA qui se tiendra à Paris à partir de jeudi, tel était l’objectif de l’événement organisé ce 4 février au siège du MEDEF.

À l’issue de vingt rencontres organisées de Saint-Denis de La Réunion jusqu’à Valbonne, Laval ou Vierzon, depuis le mois d’octobre 2024, le syndicat patronal a rencontré plus de 3 000 participants auprès desquels il a tenté de « démystifier » l’IA, de « positiver » le sujet, selon les mots de son président Patrick Martin, « pour que les entreprises s’en emparent, tout simplement ».

Si les discours de la Ministre déléguée chargée de l’Intelligence artificielle et du numérique Clara Chappaz et du président du MEDEF Patrick Martin sont résolument tournés dans le sens d’une adoption rapide de l’IA, les échanges rapportés du terrain laissent, eux, transparaître les nombreux questionnements qui traversent les patrons d’entreprise française.

Obtenir un agenda pro-innovation

Mais commençons par cet échange survenu en fin de rencontre. À l’envoyée spéciale du président de la République pour l’IA, Anne Bouverot, le directeur éditorial de La Tribune, qui anime les discussions, demande si l’on peut s’attendre « à des discussions sur l’AI Act » pendant le sommet, voire « à ce qu’il soit démantelé… ou du moins allégé ? » Les tensions autour de l’application du texte, dont le premier volet est entré en vigueur il y a quelques jours, restent vives, et pourraient s’accentuer sous la pression du nouveau gouvernement états-unien.


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Microsoft's Windows 10 Extended Security Updates Will Start at $61 per PC for Businesses

Microsoft will charge commercial customers $61 per device in the first year to continue receiving Windows 10 security updates after support ends, The Register wrote in a PSA note Wednesday, citing text, with costs doubling each subsequent year for up to three years. Organizations can't skip initial years to save money, as the updates are cumulative. Some users may avoid fees if they connect Windows 10 endpoints to Windows 365 Cloud PCs. The program also covers Windows 10 virtual machines running on Windows 365 or Azure Virtual Desktop for three years with an active Windows 365 subscription.

Read more of this story at Slashdot.

'AI Granny' Driving Scammers Up the Wall

Since November, British telecom O2 has deployed an AI chatbot masquerading as a 78-year-old grandmother to waste scammers' time. The bot, named Daisy, engages fraudsters by discussing knitting patterns, recipes, and asking about tea preferences while feigning computer illiteracy. The Guardian has an update this week: In tests over several weeks, Daisy has kept individual scammers occupied for up to 40 minutes, with one case showing her being passed between four different callers. An excerpt from the story: "When a third scammer tries to get her to download the Google Play Store, she replies: 'Dear, did you say pastry? I'm not really on the right page.' She then complains that her screen has gone blank, saying it has 'gone black like the night sky'."

Read more of this story at Slashdot.

Pas d’IA pour développer des armes ? Google revoit sa promesse

Sympathy for the Devil
Pas d’IA pour développer des armes ? Google revoit sa promesse

Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.

Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.

Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.

Limiter les risques, sans interdire les applications

Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».

En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.

La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.

Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».

Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org

Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.

Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.

Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.

Un ensemble d’outils pour prévenir les risques

Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.

Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.

Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.

Google et Meta, même combat

Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.

En expurgeant l’allusion aux armes de ses principes, Google emboîte d’une certaine façon le pas à Meta, qui de son côté avait annoncé en novembre dernier qu’il n’interdirait plus l’utilisation de ses IA à des fins militaires.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.

La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?

Pas d’IA pour développer des armes ? Google revoit sa promesse

Sympathy for the Devil
Pas d’IA pour développer des armes ? Google revoit sa promesse

Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.

Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.

Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.

Limiter les risques, sans interdire les applications

Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».

En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.

La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.

Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».

Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org

Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.

Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.

Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.

Un ensemble d’outils pour prévenir les risques

Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.

Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.

Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.

Google et Meta, même combat

Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.

En expurgeant l’allusion aux armes de ses principes, Google emboîte d’une certaine façon le pas à Meta, qui de son côté avait annoncé en novembre dernier qu’il n’interdirait plus l’utilisation de ses IA à des fins militaires.

« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.

La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?

Google To Spend $75 Billion on AI Push

Google parent Alphabet plans to spend $75 billion on capital expenditures in 2025, up from $52.5 billion last year, as it races to compete with Microsoft and Meta in AI infrastructure. CNBC: On its earnings call, Alphabet said it expects $16 billion to $18 billion of those expenses to come in the first quarter. Overall, the expenditures will go toward "technical infrastructure, primarily for servers, followed by data centers and networking," finance chief Anat Ashkenazi said. [...] Alphabet and its megacap tech rivals are rushing to build out their data centers with next-generation AI infrastructure, packed with Nvidia's graphics processing units, or GPUs. Last month, Meta said it plans to invest $60 billion to $65 billion this year as part of its AI push. Microsoft has committed to $80 billion in AI-related capital expenditures in its current fiscal year.

Read more of this story at Slashdot.

2025 va être décisive pour l’avenir du métavers de Meta

Jusqu’ici, la marotte de Mark Zuckerberg n’a pas rencontré un grand succès : en dépit des investissements, le métavers de Meta est loin d’avoir répondu aux ambitions du milliardaire (qui, pour mémoire, a rebaptisé Facebook — l’entreprise, pas le réseau social — en Meta en octobre 2021). Trois ans et demi plus tard, les équipes du Reality Labs (la branche de Meta consacrée à la réalité virtuelle et à la réalité augmentée ; auparavant nommée Oculus VR) seraient à la croisée des chemins... [Tout lire]

☕️ Microsoft propose de modifier l’API Notifications pour y intégrer la visioconférence



Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.

Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».

Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).

Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).

Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.

Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.

☕️ Microsoft propose de modifier l’API Notifications pour y intégrer la visioconférence



Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.

Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».

Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).

Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).

Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.

Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.

Temperatures at North Pole 20C Above Average and Beyond Ice Melting Point

Temperatures at the north pole soared more than 20C above average on Sunday, crossing the threshold for ice to melt. From a report: Temperatures north of Svalbard in Norway had already risen to 18C hotter than the 1991-2020 average on Saturday, according to models from weather agencies in Europe and the US, with actual temperatures close to ice's melting point of 0C. By Sunday, the temperature anomaly had risen to more than 20C. "This was a very extreme winter warming event," said Mika Rantanen, a scientist at the Finnish Meteorological Institute. "Probably not the most extreme ever observed, but still at the upper edge of what can happen in the Arctic." Burning fossil fuels has heated the planet by about 1.3C since preindustrial times, but the poles are warming much faster as reflective sea ice melts. The increase in average temperatures has driven an increase in fiercely hot summers and unsettlingly mild winters.

Read more of this story at Slashdot.

AMD Broadcast TLB Invalidation Patches For Linux Updated, Intel RAR Eyed Next

One of the set of patches for the Linux kernel that we have been looking forward to but that wasn't wrapped up in time for the recent Linux v6.14 merge window was the work enabling use of the AMD INVLPGB instruction on Zen 3 CPUs and newer for broadcast TLB invalidation. This can lead to a nice performance bump in some workloads while the eighth iteration of those patches were posted overnight...
❌