IMF Warns New AI Models Risk 'Systemic' Shock To Finance
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Les ventes de cartes mères ne sont pas mirobolantes en 2026. Cette phrase sonnera surement comme une évidence pour beaucoup d'entre vous, comment pourrait-il en être autrement alors que la flambée des prix de la RAM et des SSD fait passer bien des envies de changer de configuration et nous pousse à...
Read more of this story at Slashdot.
Une information judiciaire a été ouverte par le parquet de Paris contre X (anciennement Twitter), Elon Musk et l’ex-directrice générale du réseau social, Linda Yaccarino. Une procédure qui s’ajoute à un dossier déjà bien épais.
La justice française n’en a pas terminé avec X. Le parquet de Paris avait ouvert une enquête préliminaire en janvier 2025 pour deux infractions potentielles : manipulation volontaire de l’algorithme et exploitation de données personnelles pour afficher de la publicité ciblée. La procédure découle des signalements du député Renaissance des Côtes-d’Armor, Éric Bothorel.
En juillet dernier, le parquet précisait ses soupçons : le réseau social chercherait à « biaiser le débat démocratique en France ». L’enquête avait été confiée aux bons soins des gendarmes de l’Unité nationale cyber. Elle portait entre autres sur l’« altération du fonctionnement d’un système de traitement automatisé de données en bande organisée, ainsi que l’extraction frauduleuse de données d’un système de traitement automatisé de données en bande organisée ».
X avait alors refusé d’ouvrir ses algorithmes, niait les allégations, notamment d’ingérence étrangère, et dénonçait une enquête motivée par des considérations politiques. Selon l’entreprise, la procédure porterait gravement atteinte à la liberté d’expression. Par conséquent, le réseau social a refusé de donner suite aux demandes du parquet et des gendarmes.
L’enquête portait également sur des infractions de contestation de crimes contre l’humanité, et la présence de messages à caractère antisémite et négationniste par Grok. En début d’année, le dossier s’était alourdi des faits d’atteinte à la représentation de la personne, en raison de l’explosion d’images générées par IA représentant des femmes et des mineures dénudées sans consentement.
Le 3 février, une perquisition était diligentée dans les locaux français du réseau social par la section de lutte contre la cybercriminalité du parquet de Paris.
Le 20 avril, Elon Musk et une vingtaine de dirigeants convoqués par la justice pour témoigner devant la section cyber ne se sont pas présentés. Mais l’enquête se poursuit malgré tout et franchit un nouveau cap : Le Monde rapporte maintenant l’ouverture ce mercredi 6 mai d’une information judiciaire contre X, Elon Musk et Linda Yaccarino, la directrice générale jusqu’en 2025.
Cela signifie que les faits sont considérés comme suffisamment graves ou sensibles pour qu’un juge d’instruction instruise le dossier avec des pouvoirs d’enquête étendus (perquisitions, saisies de documents, réquisitions techniques, auditions sous serment, etc.).

Une information judiciaire a été ouverte par le parquet de Paris contre X (anciennement Twitter), Elon Musk et l’ex-directrice générale du réseau social, Linda Yaccarino. Une procédure qui s’ajoute à un dossier déjà bien épais.
La justice française n’en a pas terminé avec X. Le parquet de Paris avait ouvert une enquête préliminaire en janvier 2025 pour deux infractions potentielles : manipulation volontaire de l’algorithme et exploitation de données personnelles pour afficher de la publicité ciblée. La procédure découle des signalements du député Renaissance des Côtes-d’Armor, Éric Bothorel.
En juillet dernier, le parquet précisait ses soupçons : le réseau social chercherait à « biaiser le débat démocratique en France ». L’enquête avait été confiée aux bons soins des gendarmes de l’Unité nationale cyber. Elle portait entre autres sur l’« altération du fonctionnement d’un système de traitement automatisé de données en bande organisée, ainsi que l’extraction frauduleuse de données d’un système de traitement automatisé de données en bande organisée ».
X avait alors refusé d’ouvrir ses algorithmes, niait les allégations, notamment d’ingérence étrangère, et dénonçait une enquête motivée par des considérations politiques. Selon l’entreprise, la procédure porterait gravement atteinte à la liberté d’expression. Par conséquent, le réseau social a refusé de donner suite aux demandes du parquet et des gendarmes.
L’enquête portait également sur des infractions de contestation de crimes contre l’humanité, et la présence de messages à caractère antisémite et négationniste par Grok. En début d’année, le dossier s’était alourdi des faits d’atteinte à la représentation de la personne, en raison de l’explosion d’images générées par IA représentant des femmes et des mineures dénudées sans consentement.
Le 3 février, une perquisition était diligentée dans les locaux français du réseau social par la section de lutte contre la cybercriminalité du parquet de Paris.
Le 20 avril, Elon Musk et une vingtaine de dirigeants convoqués par la justice pour témoigner devant la section cyber ne se sont pas présentés. Mais l’enquête se poursuit malgré tout et franchit un nouveau cap : Le Monde rapporte maintenant l’ouverture ce mercredi 6 mai d’une information judiciaire contre X, Elon Musk et Linda Yaccarino, la directrice générale jusqu’en 2025.
Cela signifie que les faits sont considérés comme suffisamment graves ou sensibles pour qu’un juge d’instruction instruise le dossier avec des pouvoirs d’enquête étendus (perquisitions, saisies de documents, réquisitions techniques, auditions sous serment, etc.).

Le store d'Epic Games vous offre le jeu Trash Goblin et ne vous fiez pas à son nom, car le titre vous permet de passer un moment apaisant, à découvrir des objets, puis à les restaurer et enfin les vendre à des personnages hauts en couleur, à vous d'investir vos gains dans l'agrandissement de votre échoppe et, ou dans l'achat de nouveaux outils, le tableau parfait après une journée éreintante. La page dédiée à l'ajout se trouve ici et vous avez jusqu'au 14 mai 2026, 17 heures, pour l'effectuer. C'est trash et c'est Goblin ! Trash Goblin est un jeu de gestion de boutique chaleureux et réconfortant où vous dénichez et nettoyez des bibelots pour les mettre en vente ! Personnalisez-les en les recyclant et bien plus encore pour répondre aux demandes excentriques de votre clientèle haute en couleur et sans fin. Utilisez vos économies pour améliorer votre boutique, acheter de nouveaux outils plus performants et aménager votre espace à votre goût ! Pas de pression, pas de risque, pas de bonne façon de jouer, juste une bonne ambiance et des clients sympas à servir. Déterrez des bibelots de toutes sortes en grattant la saleté et les résidus qui les recouvrent, en vous débattant avec différents types de saleté qui cèdent de différentes manières. Nettoyez soigneusement tous ces objets étranges à l'aide de votre éponge pour les préparer à la vente ! Personnalisez ces curiosités en combinant des bibelots entre eux, pour les transformer en nouveaux objets étranges et merveilleux ! Une grande variété de clients intrigants, excentriques et charmants fréquenteront votre boutique : certains auront des histoires intéressantes à raconter, d'autres rechercheront un objet particulier, d'autres encore ne feront que flâner... Dépensez vos économies pour agrandir votre arsenal d'outils et débloquer plus d'espace de travail. Achetez un tapis de présentation pour attirer les clients avec des articles spécifiques, ou une cuve de trempage pour nettoyer vos objets pendant la nuit... Personnalisez votre espace, décorez vos étagères comme bon vous semble, achetez de jolies plantes, changez le papier peint et la literie ; faites-en votre propre univers ! Il y a une limite raisonnable à ce que vous pouvez accomplir en une journée, mais les clients reviendront, vous pouvez bricoler autant que vous le souhaitez, et il n'y a pas d'échec. CARACTÉRISTIQUES : - Des centaines de bibelots et d'accessoires avec des milliers de combinaisons et de variations à découvrir, nettoyer, recycler, vendre et collectionner - De nombreux outils à acheter, améliorer et utiliser dans 3 mini-jeux d'entretien des bibelots - Facilitez-vous la vie avec une cafetière, une baignoire et d'autres gadgets pratiques - Agrandissez votre boutique avec des étagères, des rangements et bien plus encore - 4 lieux distincts à visiter et où vendre vos articles - Personnalisez votre boutique avec des éléments décoratifs tels que du linge de lit, du papier peint... - 40 personnages non-joueurs uniques à découvrir et à qui vendre vos articles - Plus de 120 quêtes à accomplir - 40 succès à débloquer - Plus de 20 heures de contenu scénaristique - Une multitude de clients aléatoires - Un gameplay sans fin […]
Lire la suiteVous pouvez ajouter le jeu Arranger: A Role-Puzzling Adventure à votre large bibliothèque virtuelle d'Epic Games, la page du jeu se trouve ici et vous avez sept jours pour effectuer ledit ajout ! Du Puzzle, oui, mais du Role-Puzzling siouplait ! Le jeu vous promet d'incarner Jemma, une marginale quittant sa petite province pour partir à la découverte d'elle-même. Au-delà des frontières étouffantes de son univers douillet, elle va découvrir un monde inspirant, mais dominé par la peur et par une force "statique" immuable. Parviendra-t-elle à bouleverser cette culture stagnante pour y trouver sa place ? Le jeu se déroule sur une "grille" unique et interconnectée pour mêler astucieusement déplacements, exploration et combat. Lorsque Jemma bouge, c'est tout le monde qui bouge avec elle, cela promet chaos, ainsi qu'un flot continu de petites énigmes, intelligemment conçues pour exploiter et détourner la mécanique centrale. Caractéristiques : - Une "grille" de gameplay unique et interconnectée qui mêle déplacements, combat et exploration. - L'aventure narrative d'une marginale qui quitte sa petite ville pour partir à la découverte d'elle-même. - Un jeu de rôle épuré, sans EXP ni inventaire, où tout est géré directement dans l'environnement. - Une campagne à la durée parfaite avec des défis optionnels et diverses options d'assistance pour que les seuls moments où vous coincez soient volontaires. - Le premier jeu d'une équipe de développement exceptionnelle, avec le graphiste de Braid. […]
Lire la suiteRead more of this story at Slashdot.
Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.
L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.
Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.
L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.
« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.
De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».
Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.
Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.
Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.
La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.
Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.
Un pas en avant, deux pas en arrière. La mise en œuvre des mesures inscrites dans l’AI Act européen continue de danser la gigue, avec le report de plusieurs dispositifs ; en revanche, les protections contre les deepfakes non consensuels et les apps permettant de dénuder des personnes sont renforcées.
L’AI Act est entré en application en février 2025. Son objectif : « promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ». Difficile de s’opposer à une telle lettre de mission, mais la portée et la mise en œuvre des différents dispositifs du texte européen restent sujettes à modification… et même à des reculs.
Le Parlement européen et le Conseil de l’UE sont ainsi tombés d’accord sur l’omnibus dédié au numérique proposé par la Commission européenne en novembre dernier. Il a pour objet de « simplifier » les régulations pesant sur les entreprises. Plusieurs mesures, qui concernent l’implémentation du règlement sur l’IA, auraient été influencées par des « oligarques de la tech », comme le dénonçaient en début d’année des organisations spécialisées dans la surveillance des lobbies.
L’accord annoncé ce jeudi 7 mai modifie deux dates limites. Les règles applicables aux systèmes d’IA utilisés dans les domaines à haut risque (biométrie, infrastructures critiques, éducation, emploi, migration, droit d’asile, contrôle aux frontières) entreront en vigueur à compter du 2 décembre 2027. Soit 16 mois de délai, puisque la précédente date avait été fixée au 2 août 2026. Quant aux systèmes intégrés dans des appareils comme des jouets ou des ascenseurs, les règles ne s’appliqueront qu’à compter du 2 août 2028.
« Ce calendrier progressif doit permettre de s’assurer que les normes techniques et les autres outils d’accompagnement seront en place avant l’entrée en application des règles », écrit la Commission. Pas question de parler de reculade, Bruxelles cherche plutôt à faire valoir son pragmatisme : « Avec des règles plus simples et plus favorables à l’innovation, nous facilitons l’innovation sans abaisser les exigences en matière de sécurité », affirme ainsi Henna Virkkunen, vice-présidente de la Commission en charge de la Souveraineté technologique.
De nombreuses entreprises du secteur font pression sur l’exécutif européen pour adoucir l’AI Act, en particulier face aux États-Unis et à la Chine qui avancent très rapidement. Le 4 mai, en plein débat sur l’omnibus, Airbus, Mistral AI, Nokia ou encore ASML ont ainsi signé une lettre ouverte (une de plus) déplorant « des règles étouffantes, inutilement complexes et souvent redondantes, qui rendent extrêmement difficile le fait de suivre le rythme des avancées technologiques ».
Dont acte : en plus de ces reports, l’accord prévoit également « des règles simplifiées et une gouvernance plus claire ». Des avantages accordés à des PME vont s’étendre aux entreprises de taille intermédiaire. Des clarifications ont été apportées sur l’articulation entre l’AI Act et d’autres législations européennes sur la sécurité des produits afin d’éviter les doublons. Les fournisseurs d’IA auront accès à des « bacs à sable » réglementaires pour tester leurs solutions.
Les instances européennes en ont également profité pour intégrer des renforcements de la protection contre les apps de deepfakes non consensuels : l’accord interdit ainsi les systèmes IA qui génèrent du contenu à caractère sexuel explicite sans consentement et des images sexualisées d’enfants. Une réponse aux exactions de Grok en début d’année.
Dans le détail, cette interdiction s’appliquera à la mise sur le marché de systèmes IA ayant pour but de créer de tels contenus, ou qui n’ont pas mis en place de mesures de sécurité pour empêcher la création de ce type de contenus. Les entreprises auront jusqu’au 2 décembre 2026 pour se mettre en conformité.
La loi retarde également l’application des obligations de marquage numérique (« watermarking» en VO) des contenus générés par l’IA au 2 décembre 2026 (au lieu du 2 février 2027, comme le prévoyait la proposition de la Commission, et du 2 août 2026 comme initialement adopté dans l’AI Act), censées permettre de détecter et de retracer les contenus générés par IA.
Il reste désormais au Parlement européen et au Conseil d’adopter formellement cet accord, ce qui devrait être fait avant le 2 août.