Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

US Lawmakers Accuse Nigeria of Taking Binance Executive Hostage

US lawmakers accused Nigeria of taking a Binance executive "hostage" and urged President Joe Biden to help secure his release. From a report: Sixteen Republican congressman including Chairman of the House Foreign Affairs Committee Michael McCaul wrote to Biden to have the case of Tigran Gambaryan referred to the Office of the Special Presidential Envoy for Hostage Affairs. A US citizen, Gambaryan is head of financial crime compliance at Binance and has been held at a prison in the Nigerian capital, Abuja, since April. "The charges against Mr. Gambaryan are baseless and constitute a coercion tactic by the Nigerian government to extort his employer, Binance," the lawmakers wrote in the June 4 letter, a copy of which has been seen by Bloomberg. "Following these charges, Mr. Gambaryan qualifies as a 'U.S. Citizen wrongfully detained by a foreign government,'" they said. The faceoff between Africa's most-populous nation and the world's largest cryptocurrency exchange burst into view in February, when Nigerian authorities detained Gambaryan and a colleague -- who subsequently escaped -- during a visit to discuss the company's compliance issues with the country.

Read more of this story at Slashdot.

"Honeykrisp" Is A New Vulkan Driver For Apple M1 On Linux - Derived From The NVK Driver

While the Asahi AGX Gallium3D driver for OpenGL support with Apple Silicon on Linux has been maturing nicely and is quite capable these days, the Vulkan support hasn't been coming together as quick or for as long. But a new Apple Silicon Vulkan driver was recently started by Asahi Linux / Mesa developers and is looking positive for being able to become a compliant Vulkan 1.3 driver for the Apple M1 on Linux...

D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA

Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.

Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind.

Cette lettre arrive alors qu’il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L’entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.

Dans ce contexte, OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Seuls à pouvoir sonner l’alarme

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ».

Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ».

Pour eux, « tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».

Mais ils dénoncent les accords de confidentialité qui les « empêchent d’exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d’alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant.

Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.

Publication tardive

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative.

Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu’elle est une entreprise, n’a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.

Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.

D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA

Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.

Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind.

Cette lettre arrive alors qu’il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L’entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.

Dans ce contexte, OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Seuls à pouvoir sonner l’alarme

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ».

Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ».

Pour eux, « tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».

Mais ils dénoncent les accords de confidentialité qui les « empêchent d’exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d’alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant.

Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.

Publication tardive

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative.

Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu’elle est une entreprise, n’a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.

Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.

Computex 2024 : Thermal Grizzly met à jour son WireView, et c'est bien vu

Avec le WireView, Thermal Grizzly propose un petit accessoire très intéressant à destination de ceux qui aiment surveiller leur matériel, et plus précisément la carte graphique. Pouvant s'installer sur de nombreuses cartes grâces à ses différentes versions en PCI-E et 12VHPWR, il permet de connaitre la consommation en temps réelle de la carte grâce à un écran OLED. Mais désormais, on peut aller plus loin grâce au WireView Pro, qui passe au 12V-2x6 si besoin et qui embarque surtout deux ports pour des sondes. Sur le stand, on pouvait ainsi connaitre la température des câbles d'alimentation, avec possibilité de mettre une alarme en cas de dépassement de la température enregistrée. Bien entendu, le tarif sera supérieur au modèle actuel, mais les deux coexisteront afin que chacun puisse y trouver son compte. […]

Lire la suite

Computex 2024 : ACEMAGIC s'envole vers d'autres cieux avec le M2A

Avec son design venu tout droit du futur, ou du futur dans les films désormais du passé, le M2A est la dernière création un peu folle d'ACEMAGIC. Il faut dire que la marque chinoise a changé son fusil d'épaule il y a quelques mois pour passer des machines compactes et discrètes à des produits plus agressifs, y compris dans les spécifications. Ainsi, le M2A embarque un processeur Intel de douzième génération associé à une carte graphique NVIDIA RTX 3080M maximum, avec un système de refroidissement original puisque les ailes du boitier, ou du vaisseau, permettent de faire circuler l'air. Avec le petit écran de monitoring en façade, on est clairement en face du machine qui tape fort visuellement, peut-être trop. […]

Lire la suite

XPG Demos "Nia" Handheld Gaming PC With Foveated Rendering, Swappable DRAM

With the rise of the handheld gaming PC market, we've seen PC vendors and their partners toy with a number of tricks and tweaks to improve improve framerates in games, with some of their latest efforts on display at this year's Computex trade show. Perhaps the most interesting find thus far comes from ADATA sub-brand XPG, who is demoing their prototype "Nia" handheld PC, which uses eye tracking and dynamic foveated rendering to further improve their rendering performance.

For those unfamiliar, dynamic foveated rendering is a graphics technique that is sometimes used to boost performance in virtual reality (VR) and augmented reality (AR) applications by taking advantage of how human vision works. Typically, humans can only perceive detailed imagery in the relatively small central area of our vision called the fovea, while our peripheral vision is much less detailed. Dynamic foveated rendering, in turn, exploits this by using real-time eye tracking to determine where the user is looking, and then rendering just that area in high/full resolution, while rendering the peripheral areas in lower resolution. The net result is that only a fraction of the screen is rendered at full detail, which cuts down on the total amount of rendering work required and boosting framerates on performance-limited devices.

As stated before, this technology is sometimes used in high-end AR/VR headsets, where high resolution displays are placed mere inches from one's face. This ends up being an ideal use case for the technique, since at those distances, only a small fraction of the screen is within the fovea.

Using dynamic foveated rendering for a handheld, on the other hand, is a more novel application. All of the same visual principles apply, but the resolutions at play are lower, and the screen is farther from the users' eyes. This makes a handheld device a less ideal use case, at least on paper, as a larger portion of the screen is going to be in the fovea, and thus will need to be rendered at full resolution. None the less, it will be interesting to see how XPG's efforts pan out, and if dynamic foveated rendering is beneficial enough for handheld PCs. As we sometimes see with trade show demos, not everything makes it out of the prototype stage.

According to a press release put out by ADATA ahead of the trade show, the eye tracking technology is being provided by AMD collaborator Eyeware. Notably, their software-based approach runs on top of standard webcams, rather than requiring IR cameras. So the camera hardware itself should be pretty straight-forward.

Foveated rendering aside, XPG is making sure that the Nia won't be a one-trick pony. The handheld's other major claim to fame is its hardware swappability. The prototype handheld not only features a removable M.2-2230 SSD, but the company is also taking advantage of the recently-introduced LPCAMM2 memory module standard to introduce removable DRAM. Via a hatch in the back of the handheld, device owners would be able to swap out LPCAMM2 LPDDR5X modules for higher capacity versions. This would give the handheld an additional degree of future-proofness over current handhelds, which use non-replaceable soldered-down memory.

Rounding out the package, the current prototype is based on an AMD's Zen 4 Phoenix APU, which is used across both of the company's current mobile lines (Ryzen Mobile 7000/8000 and Ryzen Z1). Meanwhile, the unit's display is adjustable, allowing it to be angled away from the body of the handheld.

Assuming all goes well with the prototype, XPG aims to release a finished product in 2025.

Yellen To Warn of 'Significant Risks' From Use of AI in Finance

U.S. Treasury Secretary Janet Yellen will warn that the use of AI in finance could lower transaction costs, but carries "significant risks," according to excerpts from a speech to be delivered on Thursday. From a report: In the remarks to a Financial Stability Oversight Council and Brookings Institution AI conference, Yellen says AI-related risks have moved towards the top of the regulatory council's agenda. "Specific vulnerabilities may arise from the complexity and opacity of AI models, inadequate risk management frameworks to account for AI risks and interconnections that emerge as many market participants rely on the same data and models," Yellen says in the excerpts. She also notes that concentration among the vendors that develop AI models and that provide data and cloud services may also introduce risks that could amplify existing third-party service provider risks. "And insufficient or faulty data could also perpetuate or introduce new biases in financial decision-making," according to Yellen.

Read more of this story at Slashdot.

Popular Mac App Bartender's New Owner Has Burnt Years of Good-Will With a Lack of Transparency

An anonymous reader shares a report: Popular app Bartender was quietly bought, and a shady certificate replacement, insertion of invasive telemetry, and a lack of transparent responses by the new owners has shaken confidence in the Mac community. Menu bar organization tool Bartender has been around for a long time. For most of its life, it had an excellent reputation, and a responsive developer who communicated clearly with users. That appears to have changed, recently. It all started with a quiet pair of app certificate shifts which went mostly unnoticed. That is, until app monitoring service MacUpdater found out, and started asking questions. They posted a warning about the app, saying that "The company and developer behind Bartender was replaced in a silent and dubious matter." But, there's a lot more to the story than just that warning. CoreCode, the developer of MacUpdater, did a great deal of research on the new owners and the app situation prior to posting the warning. They detailed their discoveries in a Reddit thread on the matter. Research performed before the warning pointed out that blog entries on the Bartender website shifted to heavily search engine optimized content. This is in contrast to the prior informational entries previously posted by original developer Ben Surtees.

Read more of this story at Slashdot.

Intel Xeon 6766E/6780E Sierra Forest vs. Ampere Altra Performance & Power Efficiency

With the launch day review of the Intel Xeon 6766E and Xeon 6780E "Sierra Forest" processors the focus was on looking at the performance and power efficiency compared to prior Intel Xeon generations as well as the AMD EPYC competition. For those wondering how Intel's new Xeon 6 Sierra Forest processors compete against Amere Computing's "cloud native" Altra Max processors, here are those benchmarks looking at the performance and power efficiency.

La loi « simplification de la vie économique » réduirait la transparence de la CNIL

Don't let me be misunderstood
Dans un meuble de rangement, un tiroir est ouvert. À l'intérieur, plein de documents.

La loi « Simplification de la vie économique » pourrait réduire l’obligation de la CNIL de rendre publics les documents relatifs à ses accompagnements d’entreprises. Créateur d’eWatchers, Morgan Schmiedt bataille pour maintenir cet accès à l’information… et mieux comprendre comment la CNIL aide la régie publicitaire Valiuz.

Depuis le 3 juin, le Sénat débat du projet de loi de « Simplification de la vie économique » en séance publique. Parmi les sujets abordés, un amendement vient modifier les obligations de la CNIL en matière de communication des documents administratifs avec le public.

Parmi ses attributions, la CNIL peut en effet aider les entreprises qui en font la demande à se mettre en conformité avec le RGPD. En tant qu’institution publique, elle est néanmoins soumise au droit d’accès aux documents administratifs. En janvier, l’Alliance Digitale critiquait cette « absence de confidentialité ». Selon la filiale française de l’organisation professionnelle de la publicité IAB, cela « dissuade beaucoup d’entreprises » de demander de l’aide.

Bataille d’amendements

Or, dans un amendement déposé le 24 mai par la corapporteure du projet de loi Catherine Di Folco (LR) et adopté en commission, le texte ajoute une dérogation au droit d’accès aux documents administratifs du code des relations entre le public et l’administration. En pratique, il vient mettre fin à l’obligation, pour la CNIL, de communiquer sur ses travaux d’accompagnement d’entités privées « lorsque ces documents ne sont pas relatifs à une mission de service public confiée au responsable de traitement concerné ».


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

G.Skill Demonstrates DDR5-10600 Memory Modules On Ryzen 8500G System

Ultra-high performance memory modules are a staple of of Computex, and it looks like this year G.Skill is showing off the highest performance dual-channel memory module kit to date. The company is demonstrating a DDR5 kit capable of 10,600 MT/s data transfer rate, which is a considerably higher speed compared to memory modules available today.

The dual-channel kit that G.Skill is demonstrating is a 32 GB Trident Z5 RGB kit that uses cherry-picked DDR5 memory devices and which can work in a DDR5-10600 mode with CL56 62-62-126 timings at voltages that are way higher than standard. The demoed DIMMs are running the whole day in a fairly warm room, though it does not really run demanding applications or stress tests.

Traditionally, memory module makers like G.Skill use Intel processors to demonstrate their highest-performing kits. But with the DDR5-10600 kit, the company uses AMD's Ryzen 5 8500G processor, which is a monolithic Zen 4-based APU with integrated graphics that's normally sold for budget systems. The motherboard is a high-end Asus ROG Crosshair X670E Gene and the APU is cooled down using a custom liquid cooling system The Asus ROG Crosshair X670E Gene motherboard has only two memory slots, which greatly helps to enable high data transfer rates, so it is a very good fit for the DDR5-10600 dual-channel kit.

Though I have sincere doubts that someone is going to use an ultra-expensive DDR5-10600 memory kit and related gate with this inexpensive processor, it is interesting (and unexpected) to see an AMD APU as a good fit to demonstrate performance potential of G.Skill's upcoming modules.

Speaking of availability of G.Skill's DDR5-10600 memory, it does not look like this kit is around the corner. The fastest DDR5 kit that G.Skill has today is its DDR5-8400 offering, so the DDR5-10600 will come to market a few speed bins later as G.Skill certainly needs to test the kit with various CPUs and ensure its stability. 

One other thing to keep in mind is that both AMD and Intel are about to release new desktop processors this year, with the Ryzen 9000-series and Arrow Lake processors respectively. So G.Skill will undoubtedly focus on tuning its DDR5-10600 and other high-end kits primarily with those new CPUs.

Microsoft Reopens Windows 10 Beta Testing For 'New Features' and Improvements

Microsoft is ending support for Windows 10 in October 2025, but the company is now taking the unusual step of reopening its beta program for Windows 10 to test new features and improvements. From a report: Windows 10 already got the AI Copilot feature that was originally exclusive to Windows 11, and it may well get other features soon. "To bring new features and more improvements to Windows 10 as needed, we need a place to do active feature development with Windows Insiders," explains Microsoft's Windows Insider team in a blog post. "So today, we are opening the Beta Channel for Windows Insiders who are currently on Windows 10." Microsoft hasn't revealed what additional Windows 10 features it plans to test next, but Windows Insiders can opt into the beta channel to get them early. Crucially, the Windows 10 end of support date of October 14th, 2025 is still unchanged. "Joining the Beta Channel on your Windows 10 PC does not change that," says Microsoft.

Read more of this story at Slashdot.

L'ère du boitier aquarium, sculptural, moderne, fragile et salissant, n'en démord pas (mais pas chez tout le monde)

Computex 2024 — Le boiter tout de verre paré, c'est devenu un incontournable depuis quelques millésimes de composants. On a vu ces derniers mois s'intensifier cette tendance avec l'adoption du verre sur d'autres parois que la latérale, avec des variantes sans montants — pour le coup fort esthétiques... [Tout lire]

☕️ Correspondances, violences conjugales : les dangers de Windows Recall s’étendent

Depuis sa présentation, Windows Recall n’en finit plus de faire parler de lui et, au fil des jours, de nouveaux cas d’usage problématiques remontent à la surface. À tel point qu’on se demande maintenant quand et comment Microsoft va revoir ses plans.

Cette fonction, alimentée par une IA locale, prend régulièrement des captures d’écran de tout ce qui est fait. Via une analyse OCR, Recall extrait les informations. On peut ainsi retrouver toute activité faite sur la machine au cours des trois derniers mois au moins.

Cette fonction, active par défaut (opt-out), s’attire les foudres de nombreuses personnes, y compris chez les experts en cybersécurité, comme Kevin Beaumont. Mais les dangers ne concernent pas seulement la personne utilisant son PC Copilot+.

Si l’on utilise n’importe quel autre appareil sans Recall (Mac, Linux, smartphone…), on aura tôt fait de se dire « je ne suis pas concerné ». Mais vous l’êtes : si vous communiquez avec une personne utilisant un PC Copilot+ avec Recall activé, les informations que vous lui transmettrez pourront se retrouver dans sa base de données.

Les scénarios sont multiples : photos diverses et variées (y compris intimes), informations confidentielles, codes, discussions personnelles, données protégées par des accords de non-divulgation, partage d’écran… Certains se demandent – avec plus ou moins d’humour – s’il faudra demander systématiquement à un correspondant sur Copilot+ si Recall est activé avant tout échange.

Le chef de brigade Eric Freyssinet, conseiller en cybersécurité au ministère de l’Intérieur, a ainsi publié un billet de blog présentant divers cas problématiques, dont l’espionnage par un proche abusif. Dans le cadre de violences conjugales, un mari pourrait vérifier tout ce qu’a fait son épouse sur l’ordinateur familial.

Il est probable que la polémique ait pris assez d’ampleur désormais pour que Microsoft révise ses plans. D’autant que la CNIL anglaise (Information Commissioner’s Office) a ouvert une enquête à ce sujet.

☕️ Correspondances, violences conjugales : les dangers de Windows Recall s’étendent

Depuis sa présentation, Windows Recall n’en finit plus de faire parler de lui et, au fil des jours, de nouveaux cas d’usage problématiques remontent à la surface. À tel point qu’on se demande maintenant quand et comment Microsoft va revoir ses plans.

Cette fonction, alimentée par une IA locale, prend régulièrement des captures d’écran de tout ce qui est fait. Via une analyse OCR, Recall extrait les informations. On peut ainsi retrouver toute activité faite sur la machine au cours des trois derniers mois au moins.

Cette fonction, active par défaut (opt-out), s’attire les foudres de nombreuses personnes, y compris chez les experts en cybersécurité, comme Kevin Beaumont. Mais les dangers ne concernent pas seulement la personne utilisant son PC Copilot+.

Si l’on utilise n’importe quel autre appareil sans Recall (Mac, Linux, smartphone…), on aura tôt fait de se dire « je ne suis pas concerné ». Mais vous l’êtes : si vous communiquez avec une personne utilisant un PC Copilot+ avec Recall activé, les informations que vous lui transmettrez pourront se retrouver dans sa base de données.

Les scénarios sont multiples : photos diverses et variées (y compris intimes), informations confidentielles, codes, discussions personnelles, données protégées par des accords de non-divulgation, partage d’écran… Certains se demandent – avec plus ou moins d’humour – s’il faudra demander systématiquement à un correspondant sur Copilot+ si Recall est activé avant tout échange.

Le chef de brigade Eric Freyssinet, conseiller en cybersécurité au ministère de l’Intérieur, a ainsi publié un billet de blog présentant divers cas problématiques, dont l’espionnage par un proche abusif. Dans le cadre de violences conjugales, un mari pourrait vérifier tout ce qu’a fait son épouse sur l’ordinateur familial.

Il est probable que la polémique ait pris assez d’ampleur désormais pour que Microsoft révise ses plans. D’autant que la CNIL anglaise (Information Commissioner’s Office) a ouvert une enquête à ce sujet.

Sanctuary : 24 disques pour sauvegarder l’humanité sur la Lune

J'ai demandé à la lune si tu voulais encore de moi
Sanctuary

Au fil des années, l’humanité a envoyé plusieurs bouteilles dans l’océan cosmique, sans réponse pour le moment (bonne ou mauvaise chose, la question est ouverte). Une nouvelle sera lancée sur la Lune en 2027 : Sanctuary. Une partie du message est prête, l’autre reste à écrire.

Il s’agit à la fois d’envoyer un message vers d’autres potentielles civilisations, de faire une rétrospective sur l’humanité et, de manière plus terre à terre, d’empocher l’empathie du public sur la conquête spatiale.

24 disques de saphir à poser sur la Lune… pourquoi faire ?

Ce projet Sanctuary n’est pas nouveau, loin de là. Il a en effet déjà une dizaine d’années. Il n’est pas non plus prévu pour tout de suite, car il ne devrait décoller qu’en 2027 à bord d’une mission lunaire de la NASA. Dans les colonnes du CNRS, Benoît Faiveley (coordinateur du projet) revient sur cette mission, dont le « lancement officiel » a été acté le 21 mars 2024.

Son but est de déposer sur la surface de la Lune « 24 disques de saphir entreposés dans un conteneur en aluminium à la fois léger et résistant ». À l’intérieur, « un corpus de connaissances et de témoignages matériels de notre civilisation ». Les enjeux sont multiples : identifier les points à mettre en avant, comment les enregistrer et surtout leur donner une espérance de vie de plusieurs millions d’années.

C’est une suite du « Golden Record » sur les sondes Voyager 1 et 2 qui sont actuellement aux confins de notre Système solaire. Avant elle, il y a eu la plaque posée sur les sondes Pioneer 10 et 11. Mais il ne s’agit pas seulement de jeter une bouteille à la mer, mais de l’accrocher à notre rivage pour les millions d’années à venir.

Survivre « à un éventuel délitement de nos sociétés modernes »

Dès son introduction, l’article du Journal du CNRS adopte un ton pessimiste sur notre avenir : « Face à l’accélération du réchauffement climatique et aux autres menaces que ne cesse de se créer l’humanité, l’effondrement de notre civilisation constitue une hypothèse de plus en plus crédible ». Le projet Sanctuary est donc là pour « faire en sorte qu’une partie du patrimoine culturel et scientifique de l’humanité survive à un éventuel délitement de nos sociétés modernes ».


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌