Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 5 juin 2024Flux principal

D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA

5 juin 2024 à 15:23
Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.

Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind.

Cette lettre arrive alors qu’il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L’entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.

Dans ce contexte, OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Seuls à pouvoir sonner l’alarme

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ».

Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ».

Pour eux, « tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».

Mais ils dénoncent les accords de confidentialité qui les « empêchent d’exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d’alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant.

Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.

Publication tardive

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative.

Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu’elle est une entreprise, n’a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.

Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.

D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA

5 juin 2024 à 15:23
Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Une lettre ouverte signée par des anciens salariés d’OpenAI et de Google DeepMind réclame la possibilité d’exprimer leurs préoccupations sur les dangers des IA les plus avancées. Certains signataires sont restés anonymes par peur de possibles représailles. Le texte est aussi soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell.

Mardi, un petit groupe d’anciens salariés d’OpenAI a publié un texte sur le site Right to warn. Leurs signatures sont accompagnées de celles de Ramana Kumar, un ancien de Google DeepMind et de Neel Nanda, ancien d’Anthropic actuellement en poste chez Google DeepMind.

Cette lettre arrive alors qu’il y a quinze jours, l’équipe chargée de contrôler les IA chez OpenAI a quitté l’entreprise. Elle a déclaré ne pas avoir reçu les moyens qui lui avaient été promis pour travailler sur le sujet. L’entreprise a, depuis, créé un nouveau comité de sécurité, mais celui-ci parait verrouillé par la présence de Sam Altman et Bret Taylor en son sein.

Dans ce contexte, OpenAI a été accusé d’éviter toute critique de ses anciens employés en leur imposant la signature d’un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Seuls à pouvoir sonner l’alarme

Dans leur texte, ces ingénieurs expliquent être en position de comprendre les risques posés par ces technologies : « ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité ».

Ils disent « espérer que ces risques pourront être atténués de manière adéquate si la communauté scientifique, les décideurs politiques et le public fournissent des orientations suffisantes ». Mais ils ajoutent que « les entreprises d’IA ont de fortes incitations financières à éviter une surveillance efficace, et nous ne pensons pas que les structures de gouvernance d’entreprise habituelles soient suffisantes pour changer cette situation ».

Pour eux, « tant qu’il n’y aura pas de contrôle gouvernemental efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes qui peuvent les mettre devant leurs responsabilités publiquement ».

Mais ils dénoncent les accords de confidentialité qui les « empêchent d’exprimer [leur] préoccupations ». Ils pointent une faille dans la protection des lanceurs d’alerte qui se concentre « sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés ».

Dénonciation des accords de confidentialité

Ils demandent donc aux entreprises d’IA de s’engager à : ne plus signer d’accords de confidentialité qui empêchent toute critique des risques liés à l’intelligence artificielle, créer un processus anonymisé de remontée des préoccupations, soutenir une culture de la critique ouverte, et s’engager à ne pas aller à l’encontre d’employés partageant publiquement des informations confidentielles liées à des risques si d’autres processus ont échoué avant.

Ce texte est soutenu par Yoshua Bengio, Geoffrey Hinton et Stuart Russell, des personnalités qui comptent dans cette communauté.

Publication tardive

Cette lettre arrive pourtant tard alors que Timnit Gebru et Margaret Mitchell ont été licenciées par Google fin 2020 et début 2021. Elles travaillaient alors sur la publication de leur article scientifique prévenant déjà des dangers des grands modèles de langage, outils sur lesquels se base l’IA générative.

Interrogée par Ars Technica, Margaret Mitchell (qui travaille maintenant chez Hugging Face) témoigne de la difficulté de lancer l’alerte dans l’industrie de l’IA : « vous devez quasiment renoncer à votre carrière et à votre santé psychologique pour poursuivre en justice une organisation qui, du fait qu’elle est une entreprise, n’a pas de sentiments et dispose des ressources nécessaires pour vous détruire ».

Même si ses préoccupations concernant les dangers des IA ne sont pas les mêmes que celles des auteurs de la lettre, Margaret Mitchell « estime que les préoccupations soulevées par la lettre soulignent le besoin urgent d’une plus grande transparence, d’un meilleur contrôle et d’une meilleure protection pour les employés qui dénoncent les risques potentiels » note Ars Technica.

Mais la chercheuse ajoute que les lois « qui soutiennent de manière disproportionnée les pratiques injustes des grandes entreprises au détriment des travailleurs » doivent être modifiées significativement.

Robinet de jardin à double sortie Aqua Control G6354 - 1/2" - 3/4"

5 juin 2024 à 07:57
11€ - Amazon

Robinet de Jardin Premium à Double Sortie 1/2" - 3/4" Pinceau, Laiton, Argent vendu par AQUA CONTROL
  • Robinet de jardin avec deux sorties indépendantes pouvant être ouvertes et fermées séparément ; vous pouvez utiliser l'une pour vous laver les mains et l'autre pour installer un programmateur d'arrosage ou ce que vous voudrez
  • Avec un raccord standard en laiton pour raccordements automatiques de tuyaux métal ou plastique
  • Compatible avec tous les accessoires d'arrosage, grâce à son filetage européen bspt de 3/4"
  • Fabriqué avec du laiton de haute qualité, qui garantit sa durabilité et sa résistance aux températures extrêmes ou aux intempéries
  • Garantie de 2 ans et qualité aqua control.

Livraison J+1 gratuite avec Amazon Prime
Historique des prix
2792584-WZWu2.jpg

Pack détendeurs Plongée DEUX 1er étage APEKS XTX 200 + 2e étage APEKS XTX200 + 2e étage APEXS XTX40 (bubble-paintball.fr)

4 juin 2024 à 08:19
999€

Bonjour à tous !

Deal peu commun sur du matos de plongée, et notamment pour les adeptes de plongées en eau froide.
Je vous propose ici une des références en la matière, un très très beau pack sur lequel je suis tombé un peu par hasard en cherchant du matériel (je passe mon niveau 1 de plongée actuellement sur Annecy (y))

Ce site propose un pack intéressant :
DEUX Détendeurs premier étage Apeks XTX 200
1 Deuxième étage Apeks XTX 200
1 Deuxième étage Apeks XTX40
1 Sacoche pour détendeur Apeks

Pour info, UN premier étage XTX200 coûte à lui seul entre 350 et 450€ selon les boutiques.
Exemple ici chez Dive Lyon : Détendeur Apeks 1 ER étage XTX 200 DIN FSR 5 sorties | Dive Lyon
Exemple d'un pack plutôt intéressant avec UN SEUL premier étage XTX200 :
Apeks Régulateur XTX 200 DIN Octopus XTX 40 | Diveinn (tradeinn.com)

Donc même en combinant deux offres, on reste plus cher que mon deal.

Alors, je vous propose pas le pack du siècle, mais ça reste un bon prix pour qui voudrait s'équiper en détendeur eau froide ;)

Voiture radiocommandée RC WLtoys 124019 - 1/12, 2.4 GHz, 4 roues motrices, 55 km/h (Entrepôt Allemagne)

5 juin 2024 à 11:33
68,81€ - Tomtop

Un bon prix pour ce modèle 1/12è !

➥ Livraison gratuite depuis l'Allemagne (donc pas de risques de frais de douane)


Description

  • Marque : Wltoys
  • Nom de l'article: voiture de course RC
  • Echelle : 1/12
  • Matériau principal : alliage d'aluminium, plastique
  • Vitesse maximale : 55km/h
  • Batterie en option : 1 version batterie/2 version batterie/3 version batterie
  • Fréquence : 2.4G
  • Batterie : 7.4V 2200mah
  • Moteur : 550 moteur à balais
  • Temps de charge : 3H
  • Temps de travail : 9min
  • Distance de contrôle à distance : 100 mètres
  • Pile de la télécommande : 4 piles AA (non incluses)
  • Taille: 35*20,5*11,5 cm

Performances à grande vitesse
Le moteur magnétique puissant intégré super puissant, puissant et à haut rendement convertit l'énergie électrique en puissance au maximum et la vitesse de course peut atteindre 55 km/h.

Fréquence de la télécommande 2.4G
Le système radio 2.4GHz avec capacité anti-brouillage nous permet de courir en même temps sur la même piste. La distance de contrôle est jusqu'à 100 mètres.

Pièces résistantes
La base est en alliage d'aluminium à haute résistance avec une forte stabilité. Engrenage en alliage de zinc, avec une forte résistance à l'usure. Tour de choc en alliage d'aluminium pour obtenir une forte stabilité et une longue durée de vie.

Conquérir divers terrains
Adopter un amortisseur hydraulique matériel, les performances de l'amortisseur peuvent s'adapter à un terrain à plusieurs horloges. La voiture de course peut fournir un couple de puissance élevé, ce qui rend la voiture facile à effectuer des mouvements difficiles. Il est facile de s'adapter aux terrains accidentés tels que la plage, la neige, l'herbe, les routes de montagne et les routes rocheuses.

Contenu du colis :
1 * voiture télécommandée
1 * télécommande
1 * batterie
1 * câble de charge
1 * clé à douille croisée
1 * manuel d'utilisation

[shortcode id="20541617"/]
[shortcode id="20541618"/]
[shortcode id="20541619"/]

À la veille des élections européennes, le Portugal serre la vis sur l’immigration

L’exécutif portugais, dirigé par Luís Montenegro, patron du Parti social-démocrate (PSD), vient de dévoiler un plan en 41 mesures pour encadrer et restreindre le nombre d’étrangers, qui a doublé en cinq ans. Une annonce à quelques jours de la tenue des élections européennes.

© Photo PATRICIA DE MELO MOREIRA/AFP

Des travailleurs immigrés attendent le bus à São Teotónio, à deux cents kilomètres au sud de Lisbonne, au Portugal, le 16 janvier 2024.

Européennes 2024 : Macron et Attal partout, Hayer nulle part

À quelques jours du scrutin européen, le président Emmanuel Macron et son Premier ministre, Gabriel Attal, sont omniprésents dans l’espace médiatique. La presse étrangère y voit une ultime tentative “pour faire décoller la liste du camp macroniste”, quitte à reléguer sa candidate, Valérie Hayer, au second plan.

© PHOTO LUDOVIC MARIN/AFP

La présidente du groupe Renew Europe et candidate aux élections européennes, Valérie Hayer, et Emmanuel Macron, à Bruxelles, le 17 avril 2024.

“Extremely Inappropriate !”, la série japonaise qui creuse le fossé entre les générations

“Extremely Inappropriate !”, disponible sur Netflix, a connu un vif succès au Japon. Mais les aventures de ce professeur de sport, catapulté depuis l’année 1986 dans le présent, n’ont pas fait l’unanimité dans l’archipel. Les jeunes générations dénoncent un regard outrancier jeté sur l’évolution des mœurs et des sensibilités.

© Photo Netflix

Un visuel de promotion de la série japonaise “Extremely Inappropriate !”. Au premier plan : le personnage d’Ichiro Ogawa (joué par Sadao Abe).

“47 ans pour toujours” : la mémoire d’Alexeï Navalny honorée pour son anniversaire

Les proches et les sympathisants de l’opposant russe mort en détention en février dernier ont célébré son anniversaire à Berlin, mardi 4 juin. En Russie, quelques-uns ont pu se recueillir sur sa tombe, mais partout ailleurs les forces de l’ordre veillaient.

© PHOTO NATALIA KOLESNIKOVA/AFP

La tombe d’Alexeï Navalny, fleurie par ses sympathisants pour son anniversaire, le 4 juin 2024, dans un cimetière de la banlieue de Moscou.

Computex 2024 : Thermal Grizzly met à jour son WireView, et c'est bien vu

5 juin 2024 à 14:03

Avec le WireView, Thermal Grizzly propose un petit accessoire très intéressant à destination de ceux qui aiment surveiller leur matériel, et plus précisément la carte graphique. Pouvant s'installer sur de nombreuses cartes grâces à ses différentes versions en PCI-E et 12VHPWR, il permet de connaitre la consommation en temps réelle de la carte grâce à un écran OLED. Mais désormais, on peut aller plus loin grâce au WireView Pro, qui passe au 12V-2x6 si besoin et qui embarque surtout deux ports pour des sondes. Sur le stand, on pouvait ainsi connaitre la température des câbles d'alimentation, avec possibilité de mettre une alarme en cas de dépassement de la température enregistrée. Bien entendu, le tarif sera supérieur au modèle actuel, mais les deux coexisteront afin que chacun puisse y trouver son compte. […]

Lire la suite

Computex 2024 : ACEMAGIC s'envole vers d'autres cieux avec le M2A

5 juin 2024 à 13:25

Avec son design venu tout droit du futur, ou du futur dans les films désormais du passé, le M2A est la dernière création un peu folle d'ACEMAGIC. Il faut dire que la marque chinoise a changé son fusil d'épaule il y a quelques mois pour passer des machines compactes et discrètes à des produits plus agressifs, y compris dans les spécifications. Ainsi, le M2A embarque un processeur Intel de douzième génération associé à une carte graphique NVIDIA RTX 3080M maximum, avec un système de refroidissement original puisque les ailes du boitier, ou du vaisseau, permettent de faire circuler l'air. Avec le petit écran de monitoring en façade, on est clairement en face du machine qui tape fort visuellement, peut-être trop. […]

Lire la suite

XPG Demos "Nia" Handheld Gaming PC With Foveated Rendering, Swappable DRAM

5 juin 2024 à 16:00

With the rise of the handheld gaming PC market, we've seen PC vendors and their partners toy with a number of tricks and tweaks to improve improve framerates in games, with some of their latest efforts on display at this year's Computex trade show. Perhaps the most interesting find thus far comes from ADATA sub-brand XPG, who is demoing their prototype "Nia" handheld PC, which uses eye tracking and dynamic foveated rendering to further improve their rendering performance.

For those unfamiliar, dynamic foveated rendering is a graphics technique that is sometimes used to boost performance in virtual reality (VR) and augmented reality (AR) applications by taking advantage of how human vision works. Typically, humans can only perceive detailed imagery in the relatively small central area of our vision called the fovea, while our peripheral vision is much less detailed. Dynamic foveated rendering, in turn, exploits this by using real-time eye tracking to determine where the user is looking, and then rendering just that area in high/full resolution, while rendering the peripheral areas in lower resolution. The net result is that only a fraction of the screen is rendered at full detail, which cuts down on the total amount of rendering work required and boosting framerates on performance-limited devices.

As stated before, this technology is sometimes used in high-end AR/VR headsets, where high resolution displays are placed mere inches from one's face. This ends up being an ideal use case for the technique, since at those distances, only a small fraction of the screen is within the fovea.

Using dynamic foveated rendering for a handheld, on the other hand, is a more novel application. All of the same visual principles apply, but the resolutions at play are lower, and the screen is farther from the users' eyes. This makes a handheld device a less ideal use case, at least on paper, as a larger portion of the screen is going to be in the fovea, and thus will need to be rendered at full resolution. None the less, it will be interesting to see how XPG's efforts pan out, and if dynamic foveated rendering is beneficial enough for handheld PCs. As we sometimes see with trade show demos, not everything makes it out of the prototype stage.

According to a press release put out by ADATA ahead of the trade show, the eye tracking technology is being provided by AMD collaborator Eyeware. Notably, their software-based approach runs on top of standard webcams, rather than requiring IR cameras. So the camera hardware itself should be pretty straight-forward.

Foveated rendering aside, XPG is making sure that the Nia won't be a one-trick pony. The handheld's other major claim to fame is its hardware swappability. The prototype handheld not only features a removable M.2-2230 SSD, but the company is also taking advantage of the recently-introduced LPCAMM2 memory module standard to introduce removable DRAM. Via a hatch in the back of the handheld, device owners would be able to swap out LPCAMM2 LPDDR5X modules for higher capacity versions. This would give the handheld an additional degree of future-proofness over current handhelds, which use non-replaceable soldered-down memory.

Rounding out the package, the current prototype is based on an AMD's Zen 4 Phoenix APU, which is used across both of the company's current mobile lines (Ryzen Mobile 7000/8000 and Ryzen Z1). Meanwhile, the unit's display is adjustable, allowing it to be angled away from the body of the handheld.

Assuming all goes well with the prototype, XPG aims to release a finished product in 2025.

[$] Removing GFP_NOFS

Par : jake
5 juin 2024 à 15:48
The GFP_NOFS flag is meant for kernel memory allocations that should not cause a call into the filesystems to reclaim memory because there are already locks held that can potentially cause a deadlock. The "scoped allocation" API is a better choice for filesystems to indicate that they are holding a lock, so GFP_NOFS has long been on the chopping block, though progress has been slow. In a filesystem-track session at the 2024 Linux Storage, Filesystem, Memory Management, and BPF Summit, Matthew Wilcox wanted to discuss how to move kernel filesystems away from the flag with the eventual goal of removing it completely.

The state of SourceHut

Par : jzb
5 juin 2024 à 15:09

Drew DeVault has published an update about the state of the SourceHut software development platform and its plans for the coming months. This is the first update since the January post-mortem following a distributed denial-of-service (DDoS) attack that resulted in a prolonged outage:

As you can imagine, it has been a stressful time for us. However, I wish to stress that everything we've been dealing with is planned for in our models, both technical and financial. There is no existential threat to SourceHut. Nevertheless, we are grateful for your patience and support.

[...] We have been focusing on two things this year: provisioning and managing our infrastructure and getting as much rest as possible. Our situation has calmed down, and while we still have a lot of loose ends to attend to I'm happy to say that we're resuming a sense of normalcy here and preparing to resume our work on the features you need.

Yellen To Warn of 'Significant Risks' From Use of AI in Finance

Par : msmash
5 juin 2024 à 16:00
U.S. Treasury Secretary Janet Yellen will warn that the use of AI in finance could lower transaction costs, but carries "significant risks," according to excerpts from a speech to be delivered on Thursday. From a report: In the remarks to a Financial Stability Oversight Council and Brookings Institution AI conference, Yellen says AI-related risks have moved towards the top of the regulatory council's agenda. "Specific vulnerabilities may arise from the complexity and opacity of AI models, inadequate risk management frameworks to account for AI risks and interconnections that emerge as many market participants rely on the same data and models," Yellen says in the excerpts. She also notes that concentration among the vendors that develop AI models and that provide data and cloud services may also introduce risks that could amplify existing third-party service provider risks. "And insufficient or faulty data could also perpetuate or introduce new biases in financial decision-making," according to Yellen.

Read more of this story at Slashdot.

❌
❌