Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 4 juillet 2024Actualités numériques

Le Brésil interdit à Meta d’entrainer ses IA sur les données personnelles des Brésiliens

4 juillet 2024 à 07:52
Meta entrainement
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

L’autorité de protection des données brésilienne a décidé d’interdire l’utilisation des données personnelles des utilisateurs de Facebook et Instagram pour entrainer ses IA tel que le prévoit sa nouvelle « Politique de confidentialité ». Après avoir suspendu son projet dans l’Union européenne, l’entreprise de Mark Zuckerberg doit faire un trait sur l’exploitation des données des utilisateurs du quatrième pays du monde en nombre d’utilisateurs de Facebook.

L’Autoridade Nacional de Proteção de Dados (ANPD), la CNIL brésilienne, a publié mardi 2 juillet un communiqué expliquant qu’elle avait ordonné à Meta de suspendre immédiatement au Brésil sa nouvelle politique de confidentialité des données ainsi que l’utilisation des données personnelles que ce nouveau texte prévoyait pour entrainer les IA du groupe de Mark Zuckerberg.

Cette décision concerne l’un des pays dans lequel Meta est le mieux implanté. Il y a plus de 112 millions de comptes Facebook actifs et 134 millions de comptes Instagram actifs dans le pays, selon Statista, faisant du Brésil le quatrième pays le plus important pour Facebook et le troisième pour Instagram.

Mi-juin, l’entreprise avait décidé de « mettre sur pause » son projet dans l’Union européenne et l’espace économique européen soumis au RGPD, sous la pression des autorités européennes et d’une plainte de l’association noyb.

Risque imminent grave pour les droits fondamentaux

La décision de l’ANPD a été prise en raison d’un « risque imminent de dommages graves et irréparables ou difficilement réparables aux droits fondamentaux des personnes concernées », explique l’autorité brésilienne. L’autorité suspecte que le dispositif mis en place par Meta et autorisé par sa nouvelle politique de confidentialité viole la loi générale sur la protection des données brésilienne (Lei Geral de Proteção de Dados, LGPD).

L’ANPD impose à Meta de supprimer la section de sa nouvelle Politique de confidentialité correspondant au traitement des données à caractère personnel pour entrainer ses IA génératives et la suspension de tout traitement de données à caractère personnel au Brésil.

L’autorité a laissé 5 jours à l’entreprise pour réagir. Meta devra payer une amende forfaitaire symbolique si elle ne s’y plie pas, puisque l’ANPD l’a fixée à 50 000 réals, soit 8 500 euros.

Utilisateurs mal informés et mauvais cadre juridique

Dans un billet de blog publié en mai, Meta assurait qu’ « en vertu des lois locales en vigueur au Brésil, vous pouvez vous opposer à l’utilisation de vos informations provenant de nos produits et services pour développer et améliorer l’intelligence artificielle de Meta. Le formulaire d’objection est disponible dans notre centre de confidentialité ».

Mais dans son communiqué, l’ANPD explique avoir estimé que « l’entreprise n’a pas fourni les informations adéquates et nécessaires pour que les personnes concernées soient conscientes des conséquences possibles du traitement de leurs données personnelles pour l’entrainement de modèles d’IA générative ». Elle ajoute que, « bien que les utilisateurs puissent s’opposer au traitement des données à caractère personnel, il existait des obstacles excessifs et injustifiés à l’accès à l’information et à l’exercice de ce droit ».

Contacté par The Register, Meta a répondu que « l’entrainement d’IA n’est pas propre à nos services, et nous sommes plus transparents que bon nombre de nos homologues du secteur qui ont utilisé des contenus publics pour former leurs modèles et leurs produits ». Le porte-parole de l’entreprise interrogé réaffirme que l’approche de Meta « est conforme aux lois et réglementations brésiliennes en matière de protection de la vie privée, et nous continuerons à travailler avec l’ANPD pour répondre à leurs questions traitement de données personnelles sensibles au Brésil ».

Le Brésil interdit à Meta d’entrainer ses IA sur les données personnelles des Brésiliens

4 juillet 2024 à 07:52
Meta entrainement
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

L’autorité de protection des données brésilienne a décidé d’interdire l’utilisation des données personnelles des utilisateurs de Facebook et Instagram pour entrainer ses IA tel que le prévoit sa nouvelle « Politique de confidentialité ». Après avoir suspendu son projet dans l’Union européenne, l’entreprise de Mark Zuckerberg doit faire un trait sur l’exploitation des données des utilisateurs du quatrième pays du monde en nombre d’utilisateurs de Facebook.

L’Autoridade Nacional de Proteção de Dados (ANPD), la CNIL brésilienne, a publié mardi 2 juillet un communiqué expliquant qu’elle avait ordonné à Meta de suspendre immédiatement au Brésil sa nouvelle politique de confidentialité des données ainsi que l’utilisation des données personnelles que ce nouveau texte prévoyait pour entrainer les IA du groupe de Mark Zuckerberg.

Cette décision concerne l’un des pays dans lequel Meta est le mieux implanté. Il y a plus de 112 millions de comptes Facebook actifs et 134 millions de comptes Instagram actifs dans le pays, selon Statista, faisant du Brésil le quatrième pays le plus important pour Facebook et le troisième pour Instagram.

Mi-juin, l’entreprise avait décidé de « mettre sur pause » son projet dans l’Union européenne et l’espace économique européen soumis au RGPD, sous la pression des autorités européennes et d’une plainte de l’association noyb.

Risque imminent grave pour les droits fondamentaux

La décision de l’ANPD a été prise en raison d’un « risque imminent de dommages graves et irréparables ou difficilement réparables aux droits fondamentaux des personnes concernées », explique l’autorité brésilienne. L’autorité suspecte que le dispositif mis en place par Meta et autorisé par sa nouvelle politique de confidentialité viole la loi générale sur la protection des données brésilienne (Lei Geral de Proteção de Dados, LGPD).

L’ANPD impose à Meta de supprimer la section de sa nouvelle Politique de confidentialité correspondant au traitement des données à caractère personnel pour entrainer ses IA génératives et la suspension de tout traitement de données à caractère personnel au Brésil.

L’autorité a laissé 5 jours à l’entreprise pour réagir. Meta devra payer une amende forfaitaire symbolique si elle ne s’y plie pas, puisque l’ANPD l’a fixée à 50 000 réals, soit 8 500 euros.

Utilisateurs mal informés et mauvais cadre juridique

Dans un billet de blog publié en mai, Meta assurait qu’ « en vertu des lois locales en vigueur au Brésil, vous pouvez vous opposer à l’utilisation de vos informations provenant de nos produits et services pour développer et améliorer l’intelligence artificielle de Meta. Le formulaire d’objection est disponible dans notre centre de confidentialité ».

Mais dans son communiqué, l’ANPD explique avoir estimé que « l’entreprise n’a pas fourni les informations adéquates et nécessaires pour que les personnes concernées soient conscientes des conséquences possibles du traitement de leurs données personnelles pour l’entrainement de modèles d’IA générative ». Elle ajoute que, « bien que les utilisateurs puissent s’opposer au traitement des données à caractère personnel, il existait des obstacles excessifs et injustifiés à l’accès à l’information et à l’exercice de ce droit ».

Contacté par The Register, Meta a répondu que « l’entrainement d’IA n’est pas propre à nos services, et nous sommes plus transparents que bon nombre de nos homologues du secteur qui ont utilisé des contenus publics pour former leurs modèles et leurs produits ». Le porte-parole de l’entreprise interrogé réaffirme que l’approche de Meta « est conforme aux lois et réglementations brésiliennes en matière de protection de la vie privée, et nous continuerons à travailler avec l’ANPD pour répondre à leurs questions traitement de données personnelles sensibles au Brésil ».

Hier — 3 juillet 2024Actualités numériques

☕️ Google a augmenté ses émissions de CO2 de 48 % depuis 2019

3 juillet 2024 à 09:54

En 2023, la multinationale aurait augmenté ses émissions de CO2 de près de la moitié de ce qu’elle rejetait déjà en 2019, selon son propre rapport environnemental (PDF) commenté par le Financial Times. Google a produit 14,3 millions de tonnes équivalent CO2 en 2023.

Le journal économique fait remarquer que cette augmentation met en cause clairement l’engagement « net zero » de l’entreprise, qui prévoyait en 2021 d’avoir un bilan carbone neutre à l’horizon 2030.

L’entreprise explique aussi que la consommation totale d’électricité de ses data centers a augmenté de 17 % en 2023 par rapport à 2022 (celle-ci provenant toujours à 100 % d’énergies renouvelables selon elle).

Dans ce document, Google confirme que l’IA est une des causes principales de cette augmentation.

Elle y affirme aussi qu’il est difficile de prédire les conséquences environnementales futures de l’IA. Elle ajoute qu’au fur et à mesure de l’intégration de l’IA dans ses produits, la distinction entre l’IA et le reste n’aura plus grand sens, « nous nous concentrons donc sur les mesures concernant l’ensemble des data centers, car elles incluent la consommation globale de ressources (et donc l’impact environnemental) de l’IA » commente-t-elle.

Il sera dès lors encore plus difficile de savoir quelles seront les réelles conséquences de l’IA sur les émissions de l’entreprise.

Au Financial Times, la Responsable Développement durable de Google, Kate Brandt, explique que l’entreprise s’attend à ce que ses émissions augmentent encore « avant de redescendre vers notre objectif ».

En mai, Microsoft annonçait de son côté une hausse de ses émissions de 29 % depuis 2020.

☕️ Google a augmenté ses émissions de CO2 de 48 % depuis 2019

3 juillet 2024 à 09:54

En 2023, la multinationale aurait augmenté ses émissions de CO2 de près de la moitié de ce qu’elle rejetait déjà en 2019, selon son propre rapport environnemental (PDF) commenté par le Financial Times. Google a produit 14,3 millions de tonnes équivalent CO2 en 2023.

Le journal économique fait remarquer que cette augmentation met en cause clairement l’engagement « net zero » de l’entreprise, qui prévoyait en 2021 d’avoir un bilan carbone neutre à l’horizon 2030.

L’entreprise explique aussi que la consommation totale d’électricité de ses data centers a augmenté de 17 % en 2023 par rapport à 2022 (celle-ci provenant toujours à 100 % d’énergies renouvelables selon elle).

Dans ce document, Google confirme que l’IA est une des causes principales de cette augmentation.

Elle y affirme aussi qu’il est difficile de prédire les conséquences environnementales futures de l’IA. Elle ajoute qu’au fur et à mesure de l’intégration de l’IA dans ses produits, la distinction entre l’IA et le reste n’aura plus grand sens, « nous nous concentrons donc sur les mesures concernant l’ensemble des data centers, car elles incluent la consommation globale de ressources (et donc l’impact environnemental) de l’IA » commente-t-elle.

Il sera dès lors encore plus difficile de savoir quelles seront les réelles conséquences de l’IA sur les émissions de l’entreprise.

Au Financial Times, la Responsable Développement durable de Google, Kate Brandt, explique que l’entreprise s’attend à ce que ses émissions augmentent encore « avant de redescendre vers notre objectif ».

En mai, Microsoft annonçait de son côté une hausse de ses émissions de 29 % depuis 2020.

À partir d’avant-hierActualités numériques

☕️ CriticGPT, le modèle d’OpenAI qui trouve les erreurs dans le code généré par GPT-4

28 juin 2024 à 14:30

Jeudi, OpenAI a publié un billet de blog expliquant qu’elle avait créé un nouveau modèle concernant la génération de code par IA : CriticGPT. Ici, l’idée n’est pas de générer du code via un prompt, mais de trouver les erreurs dans du code généré par GPT-4.

L’entreprise assure qu’avec ce nouveau modèle, dans 60 % des cas, les personnes qui l’utilisent ont de meilleurs résultats qu’avec seulement GPT-4.

L’idée est d’améliorer les systèmes d’apprentissage par renforcement à partir de rétroaction humaine (Reinforcement learning from human feedback, RLHF). Ils permettent à des relecteurs humains d’améliorer la précision des sorties des grands modèles de langage.

Comme à son habitude, l’entreprise publie un « papier » déposé sur son propre serveur (PDF). S’il ressemble à un article scientifique, il n’est pas déposé sur un serveur de prépublication ni encore moins publié dans une revue scientifique.

☕️ CriticGPT, le modèle d’OpenAI qui trouve les erreurs dans le code généré par GPT-4

28 juin 2024 à 14:30

Jeudi, OpenAI a publié un billet de blog expliquant qu’elle avait créé un nouveau modèle concernant la génération de code par IA : CriticGPT. Ici, l’idée n’est pas de générer du code via un prompt, mais de trouver les erreurs dans du code généré par GPT-4.

L’entreprise assure qu’avec ce nouveau modèle, dans 60 % des cas, les personnes qui l’utilisent ont de meilleurs résultats qu’avec seulement GPT-4.

L’idée est d’améliorer les systèmes d’apprentissage par renforcement à partir de rétroaction humaine (Reinforcement learning from human feedback, RLHF). Ils permettent à des relecteurs humains d’améliorer la précision des sorties des grands modèles de langage.

Comme à son habitude, l’entreprise publie un « papier » déposé sur son propre serveur (PDF). S’il ressemble à un article scientifique, il n’est pas déposé sur un serveur de prépublication ni encore moins publié dans une revue scientifique.

JFrog alerte sur les injections de code lors de l’utilisation de bibliothèques fondées sur des LLM

28 juin 2024 à 13:31
What could go wrong?

Vanna.AI est une bibliothèque Python qui permet de proposer des solutions text-to-SQL aux développeurs en s’appuyant sur des grands modèles de langage. Fin mai, l’entreprise de sécurité informatique JFrog y a détecté une vulnérabilité permettant d’injecter du code Python puis de le lancer. Pour les chercheurs de l’entreprise, le pre-prompting ne peut être utilisé comme seul mécanisme de sécurité quand les développeurs utilisent des grands modèles de langage.

L’équipe de recherche de l’entreprise de sécurité JFrog a annoncé avoir découvert fin mai dernier une faille critique (CVE-2024-5565) dans la bibliothèque Python Vanna.AI. Celle-ci propose aux développeurs une interface de conversion text-to-SQL utilisant l’IA générative, permettant de générer du SQL à partir de langage naturel. Son code est publié sur GitHub en licence MIT et la bibliothèque rencontre un certain succès.

Le pre-prompting, mécanisme de sécurisation très utilisé pour les LLM


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La BNF : un réservoir de données pour les IA

27 juin 2024 à 12:24
Bibliathèque

Un consortium des trois startups de l’IA générative Artefact, Mistral AI et Giskard, en partenariat avec la Bibliothèque nationale de France (BNF) et l’Institut national de l’audiovisuel (INA), a été sélectionné par Bpifrance après un appel à projets nommé « Communs numériques pour l’intelligence artificielle générative ». L’idée est d’utiliser les données du domaine public rassemblées par ces deux institutions pour entrainer les IA de ces entreprises, sans pour autant leur en laisser l’exclusivité, nous explique la bibliothèque.

En mars dernier, les startups françaises d’IA générative Artefact, Mistral AI et Giskard, en se rassemblant dans le consortium ARGIMI, ont obtenu un financement de Bpifrance. Objectif, mettre en œuvre un projet bâti en partenariat avec deux très importantes institutions de la culture française : la Bibliothèque nationale de France (BNF) et l’Institut national de l’audiovisuel (INA), expliquait la semaine dernière Politico.

Le projet financé ici, suite à un appel lancé en juin par Bpifrance, est de profiter des importants fonds conservés dans ces établissements. Leurs grands modèles de langage pourront être entrainés sur des masses de données venant notamment du domaine public, et très bien étiquetées, pour créer « un modèle en accessibilité ouverte utile à tous ».

Des outils « communs » d’IA


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Scientifiques et universitaires se mobilisent contre l’extrême-droite

27 juin 2024 à 07:55

La communauté scientifique se mobilise pour ces élections législatives anticipées. La Société informatique de France (SIF) a publié une tribune rappelant les incohérences de l’extrême droite avec la démarche scientifique ainsi qu’avec « plusieurs des principes édictés par la « Déclaration universelle des droits de l’Homme et du citoyen » ».

Cette société savante, avec 500 adhérents physiques ainsi qu’une centaine de laboratoires membres à travers la France, ajoute que « l’accumulation des savoirs au profit de l’humanité ne peut prospérer que via une coopération mondiale, ouverte, et garantie par une liberté académique totale ». Elle appelle « avec la plus vive énergie à faire barrage à l’extrême-droite pour que notre pays demeure celui des Lumières, de la rationalité, de la liberté, de l’égalité et de la fraternité ».

L’association « Scientifiques en rébellion » appelle, elle, à « la mobilisation contre l’extrême droite ». Dans cette tribune signée par 2 500 scientifiques, dont les chercheurs en informatique Claire Mathieu et Jean-Christophe Soulié et les climatologues Valérie Masson-Delmotte et Christophe Cassou, appellent à lutter contre le Rassemblement national.

Le texte affirme que « l’accès au pouvoir de l’extrême droite fait non seulement peser des risques graves sur la recherche et l’enseignement, sur la place accordée aux faits scientifiques dans le débat public, mais elle menace surtout le modèle même de société auquel nous aspirons : une société démocratique où les décisions émergent de débats collectifs, ouverts, libres, respectueux et bien sûr informés ». Ils ajoutent que le « NFP n’est pas une menace pour la République ».

D’un côté plus institutionnel, le congrès de l’Université de Strasbourg a voté, explique le journal Les Dernières nouvelles d’Alsace, une motion qui s’oppose « à la mise en danger des valeurs de l’université, héritière de l’humanisme ».

Le texte affirme que « l’extrême droite est porteuse d’une idéologie qui s’attaque à cette liberté de pensée, qui veut contrôler à la fois la capacité des universitaires et des étudiantes et étudiants à s’exprimer et les sujets qu’ils et elles peuvent aborder, qui veut contrôler nos établissements pour l’accueil de talents et d’idées venant d’étudiants et étudiantes comme de chercheuses et de chercheurs étrangers. L’extrême droite veut aussi restreindre le nombre d’emplois publics, ce qui aura des effets délétères sur les missions de service public de l’enseignement supérieur et de la recherche ».

Si d’autres associations ou personnalités du secteur des sciences ou du numérique expriment leurs opinions, nous les relaierons bien évidemment. N’hésitez pas à nous les signaler.

☕️ Scientifiques et universitaires se mobilisent contre l’extrême-droite

27 juin 2024 à 07:55

La communauté scientifique se mobilise pour ces élections législatives anticipées. La Société informatique de France (SIF) a publié une tribune rappelant les incohérences de l’extrême droite avec la démarche scientifique ainsi qu’avec « plusieurs des principes édictés par la « Déclaration universelle des droits de l’Homme et du citoyen » ».

Cette société savante, avec 500 adhérents physiques ainsi qu’une centaine de laboratoires membres à travers la France, ajoute que « l’accumulation des savoirs au profit de l’humanité ne peut prospérer que via une coopération mondiale, ouverte, et garantie par une liberté académique totale ». Elle appelle « avec la plus vive énergie à faire barrage à l’extrême-droite pour que notre pays demeure celui des Lumières, de la rationalité, de la liberté, de l’égalité et de la fraternité ».

L’association « Scientifiques en rébellion » appelle, elle, à « la mobilisation contre l’extrême droite ». Dans cette tribune signée par 2 500 scientifiques, dont les chercheurs en informatique Claire Mathieu et Jean-Christophe Soulié et les climatologues Valérie Masson-Delmotte et Christophe Cassou, appellent à lutter contre le Rassemblement national.

Le texte affirme que « l’accès au pouvoir de l’extrême droite fait non seulement peser des risques graves sur la recherche et l’enseignement, sur la place accordée aux faits scientifiques dans le débat public, mais elle menace surtout le modèle même de société auquel nous aspirons : une société démocratique où les décisions émergent de débats collectifs, ouverts, libres, respectueux et bien sûr informés ». Ils ajoutent que le « NFP n’est pas une menace pour la République ».

D’un côté plus institutionnel, le congrès de l’Université de Strasbourg a voté, explique le journal Les Dernières nouvelles d’Alsace, une motion qui s’oppose « à la mise en danger des valeurs de l’université, héritière de l’humanisme ».

Le texte affirme que « l’extrême droite est porteuse d’une idéologie qui s’attaque à cette liberté de pensée, qui veut contrôler à la fois la capacité des universitaires et des étudiantes et étudiants à s’exprimer et les sujets qu’ils et elles peuvent aborder, qui veut contrôler nos établissements pour l’accueil de talents et d’idées venant d’étudiants et étudiantes comme de chercheuses et de chercheurs étrangers. L’extrême droite veut aussi restreindre le nombre d’emplois publics, ce qui aura des effets délétères sur les missions de service public de l’enseignement supérieur et de la recherche ».

Si d’autres associations ou personnalités du secteur des sciences ou du numérique expriment leurs opinions, nous les relaierons bien évidemment. N’hésitez pas à nous les signaler.

☕️ Teams : la Commission européenne soupçonne encore Microsoft d’abus de position dominante

26 juin 2024 à 09:15

La Commission maintient certains griefs contre Microsoft, lui reprochant des pratiques « potentiellement abusives de vente liée concernant Teams ».

En août 2023, l’entreprise avait pourtant annoncé la séparation de son logiciel de visioconférence de Microsoft Office 365, suite à l’ouverture le mois d’avant d’une enquête de l’institution européenne sur un potentiel abus de position dominante.

Mais, la Commission a conclu « à titre préliminaire que ces changements sont insuffisants pour répondre à ses préoccupations et que Microsoft doit apporter davantage de modifications à son comportement pour rétablir la concurrence ».

Elle craint notamment que Microsoft s’appuie sur sa « position dominante au niveau mondial sur le marché des applications de productivité SaaS à usage professionnel » en liant Teams à ses offres sur ce secteur, « restreignant ainsi la concurrence sur le marché des produits de communication et de collaboration et protégeant sa position sur le marché des logiciels de productivité et son modèle centré sur les suites contre les fournisseurs concurrents de logiciels individuels ».

Cette utilisation de sa position dominante « a pu empêcher les concurrents de Teams d’entrer en concurrence et, à leur tour, d’innover, au détriment des clients de l’Espace économique européen », explique encore la Commission.

L’institution a envoyé ses griefs à Microsoft et lui laisse le loisir de répondre, précisant que « l’envoi d’une communication des griefs ne préjuge pas de l’issue d’une enquête ».

☕️ Teams : la Commission européenne soupçonne encore Microsoft d’abus de position dominante

26 juin 2024 à 09:15

La Commission maintient certains griefs contre Microsoft, lui reprochant des pratiques « potentiellement abusives de vente liée concernant Teams ».

En août 2023, l’entreprise avait pourtant annoncé la séparation de son logiciel de visioconférence de Microsoft Office 365, suite à l’ouverture le mois d’avant d’une enquête de l’institution européenne sur un potentiel abus de position dominante.

Mais, la Commission a conclu « à titre préliminaire que ces changements sont insuffisants pour répondre à ses préoccupations et que Microsoft doit apporter davantage de modifications à son comportement pour rétablir la concurrence ».

Elle craint notamment que Microsoft s’appuie sur sa « position dominante au niveau mondial sur le marché des applications de productivité SaaS à usage professionnel » en liant Teams à ses offres sur ce secteur, « restreignant ainsi la concurrence sur le marché des produits de communication et de collaboration et protégeant sa position sur le marché des logiciels de productivité et son modèle centré sur les suites contre les fournisseurs concurrents de logiciels individuels ».

Cette utilisation de sa position dominante « a pu empêcher les concurrents de Teams d’entrer en concurrence et, à leur tour, d’innover, au détriment des clients de l’Espace économique européen », explique encore la Commission.

L’institution a envoyé ses griefs à Microsoft et lui laisse le loisir de répondre, précisant que « l’envoi d’une communication des griefs ne préjuge pas de l’issue d’une enquête ».

Udio et Suno, des IA de génération de musiques attaquées par l’industrie musicale américaine

25 juin 2024 à 14:46
Je danse le IA

Udio et Suno, deux startups d’IA générative spécialisées dans la musique font face à des plaintes de l’industrie musicale : l’association américaine des maisons de disque RIAA ainsi que Universal Music Group (UMG), Sony Music Entertainment et Warner Records les ont attaqués pour violation de copyright « en masse » et demandent 150 000 dollars par titre.

Deux startups Udio et Suno se sont lancées dans l’IA générative de musique avec un certain succès. Suno peut, par exemple, générer une chanson à partir d’un prompt avec un style de musique demandé et des paroles. Elle peut aussi générer elle-même des paroles en utilisant l’API d’OpenAI. Elles ont toutes les deux levé plusieurs millions de dollars et la valeur de Suno est évaluée à près de 500 millions de dollars.

Jusque-là, d’autres avaient déjà sorti des applications, mais elles ne donnaient pas de résultat probant. Comme l’explique le Youtubeur Florent Garcia, « la plupart des outils […] n’étaient pas capables de faire des morceaux qui avaient une tonalité cohérente, une signature rythmique cohérente, des parties rythmiques qui auraient du sens ». Mais, ces deux applications se rapprochent de sons publiés par des majors de l’édition numérique.

Génération de morceaux très proches d’originaux


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Des chercheurs se mobilisent contre l’obscurantisme, la xénophobie, le racisme et l’antisémitisme

25 juin 2024 à 06:00

Dimanche 23 juin, le journal Le Monde a publié une tribune signée par plus de 800 chercheurs et chercheuses rappelant qu’ « une science qui ne circule pas est une science morte ». Parmi les signataires, Antoine Petit, Philippe Mauguin et Didier Samuel signent en tant que PDG respectivement du CNRS, de l’Inrae et de l’Inserm.

Ce texte affirme que « les connaissances scientifiques n’ont pas de frontières. Elles ne laissent aucune place à la xénophobie, au racisme, à l’antisémitisme ou à l’exclusion de quiconque en raison de son appartenance à un groupe ».

La démarche de science ouverte « qui accélère la science suppose aussi une libre circulation des chercheurs d’un pays à l’autre pour passer du temps dans un laboratoire étranger auprès d’une équipe éloignée, unir des forces, former des étudiants dans les équipes respectives, susciter des opportunités de réseaux et ainsi permettre un brassage de chercheurs et d’étudiants de toutes origines, de toutes religions, de toutes opinions », ajoutent-ils.

Un autre texte, signé par plus de 700 chercheurs et chercheuses, circule. Ceux-ci, « face à la menace du RN », appellent à voter pour le programme du Nouveau Front Populaire.

Il affirme que l’arrivée au pouvoir du RN « signerait la fin des libertés académiques, et une amplification des attaques directes dans de nombreux domaines de la recherche ». Ce texte rappelle, entre autres, que « c’est à l’action du Front Populaire et celle de Jean Zay que l’on doit les œuvres universitaires (ancêtre des CROUS) et les jalons du CNRS, fleuron de la recherche fondamentale ».

☕️ Des chercheurs se mobilisent contre l’obscurantisme, la xénophobie, le racisme et l’antisémitisme

25 juin 2024 à 06:00

Dimanche 23 juin, le journal Le Monde a publié une tribune signée par plus de 800 chercheurs et chercheuses rappelant qu’ « une science qui ne circule pas est une science morte ». Parmi les signataires, Antoine Petit, Philippe Mauguin et Didier Samuel signent en tant que PDG respectivement du CNRS, de l’Inrae et de l’Inserm.

Ce texte affirme que « les connaissances scientifiques n’ont pas de frontières. Elles ne laissent aucune place à la xénophobie, au racisme, à l’antisémitisme ou à l’exclusion de quiconque en raison de son appartenance à un groupe ».

La démarche de science ouverte « qui accélère la science suppose aussi une libre circulation des chercheurs d’un pays à l’autre pour passer du temps dans un laboratoire étranger auprès d’une équipe éloignée, unir des forces, former des étudiants dans les équipes respectives, susciter des opportunités de réseaux et ainsi permettre un brassage de chercheurs et d’étudiants de toutes origines, de toutes religions, de toutes opinions », ajoutent-ils.

Un autre texte, signé par plus de 700 chercheurs et chercheuses, circule. Ceux-ci, « face à la menace du RN », appellent à voter pour le programme du Nouveau Front Populaire.

Il affirme que l’arrivée au pouvoir du RN « signerait la fin des libertés académiques, et une amplification des attaques directes dans de nombreux domaines de la recherche ». Ce texte rappelle, entre autres, que « c’est à l’action du Front Populaire et celle de Jean Zay que l’on doit les œuvres universitaires (ancêtre des CROUS) et les jalons du CNRS, fleuron de la recherche fondamentale ».

Apple : pour la Commission européenne, l’App Store viole le DMA, lourde amende en perspective

24 juin 2024 à 14:42
Apple se prend une tarte
Apple vs EU : le bras de fer

La Commission européenne vient de conclure dans une enquête préliminaire que l’App Store d’Apple n’est pas conforme au nouveau DMA, entré en vigueur en mars dernier. L’entreprise pourrait être condamnée à une amende atteignant au maximum 10 % de son chiffre d’affaires.

L’instance européenne a bouclé la première étape de son enquête sur la compatibilité des règles de l’App Store avec le DMA, le tout jeune texte européen qui régule les marchés numériques. Lancée le 25 mars dernier, tout juste 15 jours après l’entrée en vigueur du texte, l’enquête préliminaire conclut qu’Apple est en infraction, car ses règles « empêchent les développeurs d’applications d’orienter librement les consommateurs vers d’autres canaux d’offres et de contenus », explique le communiqué de la Commission. Remarquons aussi que cette enquête a démarré quelques jours après la publication d’iOS 17.4 qui contenait tous les changements prévus par Apple relatifs au DMA.

L’institution enquête depuis le même jour aussi sur les pratiques de Google, Meta et Amazon et devrait donc communiquer à leur sujet dans peu de temps.

Pas de possibilité d’orienter « librement » les clients


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ L’UFC-Que Choisir pointe les dark patterns des sites d’e-commerce

21 juin 2024 à 14:43

L’UFC-Que Choisir vient de publier une étude sur les sites d’e-commerce et les dark patterns (.PDF) et saisit la DGCCRF et la Commission européenne « pour les alerter sur les dérives des professionnels, initier des enquêtes complémentaires et sanctionner ces pratiques inadmissibles afin d’assurer le strict respect de l’interdiction des dark patterns désormais prévue par le DSA ».

L’organisme a analysé un échantillon des 20 places de marché les plus fréquentées en France (sites web et applications) en simulant le parcours type d’un consommateur, tout en vérifiant la présence de dark patterns. Les analyses ont été réalisées au mois de mars 2024, après l’entrée en vigueur du DSA qui interdit explicitement leur utilisation sur les plateformes en ligne, y compris les places de marché :

L’UFC-Que Choisir pointent des dark patterns qui poussent les consommateurs à l’achat comme ceux de l’application E.Leclerc ci-dessous :

Ou encore les pop-ups d’incitation répétitive d’Alixepress (à gauche et au centre) et d’Amazon (à droite) :

Remarquons néanmoins que le site de l’organisme (où l’on peut retrouver le communiqué concernant cette étude) utilise toujours un dark pattern pour sa fenêtre de gestion des cookies :

La configuration de l’outil de management de consentements utilisé par l’association a été un peu améliorée sur le site de l’organisme depuis notre dernier article. Elle est maintenant certifiée « Google Consent Mode v2 » et semble donc ne plus utiliser Trustcommander qui y semblait mal configuré à l’époque.

☕️ L’UFC-Que Choisir pointe les dark patterns des sites d’e-commerce

21 juin 2024 à 14:43

L’UFC-Que Choisir vient de publier une étude sur les sites d’e-commerce et les dark patterns (.PDF) et saisit la DGCCRF et la Commission européenne « pour les alerter sur les dérives des professionnels, initier des enquêtes complémentaires et sanctionner ces pratiques inadmissibles afin d’assurer le strict respect de l’interdiction des dark patterns désormais prévue par le DSA ».

L’organisme a analysé un échantillon des 20 places de marché les plus fréquentées en France (sites web et applications) en simulant le parcours type d’un consommateur, tout en vérifiant la présence de dark patterns. Les analyses ont été réalisées au mois de mars 2024, après l’entrée en vigueur du DSA qui interdit explicitement leur utilisation sur les plateformes en ligne, y compris les places de marché :

L’UFC-Que Choisir pointent des dark patterns qui poussent les consommateurs à l’achat comme ceux de l’application E.Leclerc ci-dessous :

Ou encore les pop-ups d’incitation répétitive d’Alixepress (à gauche et au centre) et d’Amazon (à droite) :

Remarquons néanmoins que le site de l’organisme (où l’on peut retrouver le communiqué concernant cette étude) utilise toujours un dark pattern pour sa fenêtre de gestion des cookies :

La configuration de l’outil de management de consentements utilisé par l’association a été un peu améliorée sur le site de l’organisme depuis notre dernier article. Elle est maintenant certifiée « Google Consent Mode v2 » et semble donc ne plus utiliser Trustcommander qui y semblait mal configuré à l’époque.

L’État de New York impose aux réseaux sociaux l’ordre chronologique par défaut pour les mineurs

21 juin 2024 à 13:18
New York Timecops

Deux lois concernant les mineurs et le numérique viennent de passer dans l’État de New York. Le « SAFE for kids act » oblige les réseaux sociaux à leur présenter les contenus de manière chronologique par défaut et de demander le consentement parental pour « les flux addictifs ». L’autre texte restreint le traitement sans consentement des données des moins de 18 ans.

Le « SAFE for kids act », texte (.pdf) voté, comme l’explique CNN, par les élus de l’État de New York au début du mois de juin et validé par la signature de sa gouverneure Kathy Hochul ce jeudi 20 juin, a l’ambition de « bloquer l’exploitation des flux addictifs » pour les enfants. C’est ce que signifie son nom qu’il faut dérouler en « Stop Addictive Feeds Exploitation (SAFE) for kids act ». C’est un texte sans précédent aux États-Unis.

Après un moment d’attentisme face aux réseaux sociaux et à leur tendance à pousser leurs utilisateurs à rester le plus longtemps possible sur leur flux, les politiques ont commencé à s’en inquiéter, plusieurs années après le signal d’alarme tiré en 2021 par Frances Haugen. On l’a vu lors des débats sur l’interdiction de TikTok, par exemple. Dans son rapport rendu en juillet dernier, une commission d’enquête du Sénat évoquait le sujet en parlant d’ « abrutissement » provoqué par le design algorithmique de l’application.

En octobre, une commission du Parlement européen adoptait un rapport appelant à une réglementation spécifique sur cet aspect des réseaux sociaux en prenant soin particulièrement des jeunes. Et le même mois, 41 États américains attaquaient Meta pour l’addictivité toxique de Facebook et Instagram qu’ils accusent de nuire à la santé mentale et physique des jeunes. L’État de New York en faisait déjà partie.

Chronologique par défaut et accord parental obligatoire pour changer


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌
❌