Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 18 juin 2024Actualités numériques

☕️ La FTC attaque la procédure de résiliation d’abonnement d’Adobe

18 juin 2024 à 06:40

La Federal Trade Commission (FTC), agence américaine du contrôle du droit de la consommation, vient de déposer une plainte contre Adobe, explique Ars Technica. Elle lui reproche (.pdf) d’avoir mis en place une procédure de résiliation d’abonnement « alambiquée » pour ses abonnements annuels payés mensuellement, de plus sans avertir correctement l’utilisateur lorsqu’il accepte un abonnement annuel.

« Lors de l’inscription, Adobe dissimule les conditions matérielles de son plan annuel payé mensuellement en petits caractères et derrière des zones de texte et des liens hypertextes facultatifs, fournissant des informations conçues pour passer inaperçues et que la plupart des consommateurs ne voient jamais » affirme la FTC dans sa plainte.

L’agence indépendante considère aussi que les frais de résiliation anticipée pouvant atteindre « des centaines de dollars » sont particulièrement « élevés ». Selon Bloomberg, ces frais pourraient atteindre 700 dollars pour les particuliers.

La FTC ajoute dans sa plainte qu’Adobe a un lourd passé concernant ce genre de comportement et « a décidé à plusieurs reprises de ne pas rectifier certaines de ses pratiques illégales en raison des implications en termes de revenus ».

Dans un court communiqué, Adobe affirme que « les services d’abonnement sont pratiques, flexibles et rentables pour permettre aux utilisateurs de choisir le plan qui correspond le mieux à leurs besoins, à leur calendrier et à leur budget ». L’entreprise ajoute : « notre priorité est de toujours veiller à ce que nos clients aient une expérience positive. Nous sommes transparents sur les termes et conditions de nos contrats d’abonnement et disposons d’une procédure d’annulation simple. Nous réfuterons les allégations de la FTC devant les tribunaux ».

☕️ La FTC attaque la procédure de résiliation d’abonnement d’Adobe

18 juin 2024 à 06:40

La Federal Trade Commission (FTC), agence américaine du contrôle du droit de la consommation, vient de déposer une plainte contre Adobe, explique Ars Technica. Elle lui reproche (.pdf) d’avoir mis en place une procédure de résiliation d’abonnement « alambiquée » pour ses abonnements annuels payés mensuellement, de plus sans avertir correctement l’utilisateur lorsqu’il accepte un abonnement annuel.

« Lors de l’inscription, Adobe dissimule les conditions matérielles de son plan annuel payé mensuellement en petits caractères et derrière des zones de texte et des liens hypertextes facultatifs, fournissant des informations conçues pour passer inaperçues et que la plupart des consommateurs ne voient jamais » affirme la FTC dans sa plainte.

L’agence indépendante considère aussi que les frais de résiliation anticipée pouvant atteindre « des centaines de dollars » sont particulièrement « élevés ». Selon Bloomberg, ces frais pourraient atteindre 700 dollars pour les particuliers.

La FTC ajoute dans sa plainte qu’Adobe a un lourd passé concernant ce genre de comportement et « a décidé à plusieurs reprises de ne pas rectifier certaines de ses pratiques illégales en raison des implications en termes de revenus ».

Dans un court communiqué, Adobe affirme que « les services d’abonnement sont pratiques, flexibles et rentables pour permettre aux utilisateurs de choisir le plan qui correspond le mieux à leurs besoins, à leur calendrier et à leur budget ». L’entreprise ajoute : « notre priorité est de toujours veiller à ce que nos clients aient une expérience positive. Nous sommes transparents sur les termes et conditions de nos contrats d’abonnement et disposons d’une procédure d’annulation simple. Nous réfuterons les allégations de la FTC devant les tribunaux ».

Hier — 17 juin 2024Actualités numériques

☕️ YouTube teste les notes de communauté

17 juin 2024 à 14:21

Dans un billet de blog, YouTube explique tester « une fonction expérimentale permettant d’ajouter des notes pour fournir un contexte pertinent, opportun et facile à comprendre sur les vidéos ». Bref, la plateforme de vidéos importe les notes de communauté qui existent déjà, sur Twitter/X.

L’entreprise donne plusieurs exemples d’utilisation : « clarifier lorsqu’une chanson est censée être une parodie, signaler la disponibilité d’une nouvelle version d’un produit faisant l’objet d’une critique ou informer les spectateurs lorsqu’une séquence ancienne est présentée à tort comme un événement d’actualité ».

Elle n’évoque donc pas les élections qui ont lieu cette année à travers le monde (dont l’élection présidentielle américaine) mais cette fonctionnalité pourrait être utilisée pour contester la véracité d’une vidéo politique à ces occasions. Sur X, de nombreux tweets de personnalités politiques sont accompagnés de ce genre de messages.

Le test se fera sur mobile, aux États-Unis et en anglais « au départ ».

« Au cours de cette phase de test, nous nous attendons à ce qu’il y ait des erreurs – des notes qui ne correspondent pas parfaitement à la vidéo, ou des informations potentiellement incorrectes – et cela fait partie des enseignements que nous tirerons de l’expérience » avertit déjà l’entreprise. Elle invite les spectateurs, les participants et les créateurs à lui « faire part de leurs commentaires sur la qualité des notes, et nous étudierons les possibilités d’amélioration au fil du temps, notamment pour déterminer s’il est judicieux d’étendre cette fonctionnalité ».

L’étonnant exemple pris par YouTube est celui de l’annonce de l’extinction d’une espèce de tortue dont on aurait retrouvé des spécimens :

L’entreprise explique qu’elle va sélectionner un nombre limité de contributeurs au départ, puis l’étendre petit à petit à des gens dont la chaine est active et « en règle avec nos lignes directrices communautaires ».

YouTube demandera à des utilisateurs si la note aide et utilisera un algorithme pour déterminer quelles notes seront publiées.

☕️ YouTube teste les notes de communauté

17 juin 2024 à 14:21

Dans un billet de blog, YouTube explique tester « une fonction expérimentale permettant d’ajouter des notes pour fournir un contexte pertinent, opportun et facile à comprendre sur les vidéos ». Bref, la plateforme de vidéos importe les notes de communauté qui existent déjà, sur Twitter/X.

L’entreprise donne plusieurs exemples d’utilisation : « clarifier lorsqu’une chanson est censée être une parodie, signaler la disponibilité d’une nouvelle version d’un produit faisant l’objet d’une critique ou informer les spectateurs lorsqu’une séquence ancienne est présentée à tort comme un événement d’actualité ».

Elle n’évoque donc pas les élections qui ont lieu cette année à travers le monde (dont l’élection présidentielle américaine) mais cette fonctionnalité pourrait être utilisée pour contester la véracité d’une vidéo politique à ces occasions. Sur X, de nombreux tweets de personnalités politiques sont accompagnés de ce genre de messages.

Le test se fera sur mobile, aux États-Unis et en anglais « au départ ».

« Au cours de cette phase de test, nous nous attendons à ce qu’il y ait des erreurs – des notes qui ne correspondent pas parfaitement à la vidéo, ou des informations potentiellement incorrectes – et cela fait partie des enseignements que nous tirerons de l’expérience » avertit déjà l’entreprise. Elle invite les spectateurs, les participants et les créateurs à lui « faire part de leurs commentaires sur la qualité des notes, et nous étudierons les possibilités d’amélioration au fil du temps, notamment pour déterminer s’il est judicieux d’étendre cette fonctionnalité ».

L’étonnant exemple pris par YouTube est celui de l’annonce de l’extinction d’une espèce de tortue dont on aurait retrouvé des spécimens :

L’entreprise explique qu’elle va sélectionner un nombre limité de contributeurs au départ, puis l’étendre petit à petit à des gens dont la chaine est active et « en règle avec nos lignes directrices communautaires ».

YouTube demandera à des utilisateurs si la note aide et utilisera un algorithme pour déterminer quelles notes seront publiées.

Meredith Whittaker (Signal) contre la modération de l’envoi de fichiers dans les messageries

17 juin 2024 à 12:14

La présidente de la fondation Signal Meredith Whittaker se prononce contre le projet envisagé en Europe pour surveiller les messageries et repérer les contenus pédocriminels. Elle fustige une solution qui ne serait qu’un seul renommage de l’« analyse côté client » qui « ne garantit pas une prévention efficace de la criminalité et n’empêche pas la surveillance ».

Alors que l’Union européenne envisage de valider en urgence l’usine à gaz pour surveiller les messageries, Meredith Whittaker s’oppose vivement à cette solution nommée « modération de l’envoi de fichier » [upload moderation, en anglais] par ses défenseurs. « La « modération de l’envoi de fichier » compromet le chiffrement de bout en bout » affirme-t-elle dans une déclaration au nom de la fondation Signal (.pdf).

La présidente de la fondation s’insurge : « le chiffrement de bout en bout est la technologie dont nous disposons pour garantir la protection de la vie privée à une époque où l’État et les entreprises exercent une surveillance sans précédent. Et le dangereux désir de le compromettre ne semble jamais s’éteindre ».

Meredith Whittaker n’avait jusque-là fait que des déclarations de principes d’opposition à cette proposition de modération.

Avis d’experte

Dans ce texte, elle prend sa casquette de chercheuse (tout en signant en tant que Présidente de la fondation Signal) et affirme que « depuis des décennies, les experts sont formels : il n’existe aucun moyen de préserver l’intégrité du chiffrement de bout en bout tout en exposant les contenus chiffrés à la surveillance ».

Alors que la présidence du Conseil de l’UE veut maintenant faire adopter la proposition de règlement européen de surveillance des contenus pédosexuels, la présidente de la fondation Signal rappelle que le Parlement européen avait pourtant exclu le chiffrement de bout en bout de la surveillance de masse en fin d’année dernière.

Un renommage rhétorique

Pour Meredith Whittaker, la solution de « modération de l’envoi de fichier » n’est qu’un renommage de celle nommée jusqu’à maintenant « analyse côté client ».

Et la responsable de la fondation, qui est aussi chercheuse en informatique, renvoie vers l’article scientifique « Bugs in our pockets: the risks of client-side scanning » publié en janvier dernier dans la revue Journal of Cybersecurity. Les auteurs y expliquent que « l’analyse côté client ne garantit pas une prévention efficace de la criminalité et n’empêche pas la surveillance ».

« Il est impossible de mettre en œuvre de telles propositions dans le contexte de communications chiffrées de bout en bout sans saper fondamentalement le chiffrement et créer une vulnérabilité dangereuse dans le cœur de l’infrastructure qui aurait des répercussions mondiales bien au-delà de l’Europe » affirme-t-elle.

Elle ajoute qu’ « au lieu d’accepter cette réalité mathématique fondamentale, certains pays européens continuent à jouer à des jeux rhétoriques. Ils sont revenus à la charge avec la même idée sous une nouvelle étiquette ».

Pas de solution sans compromission du chiffrement de bout en bout

« Certains prétendent que la « modération de l’envoi de fichier » ne nuit pas au chiffrement car elle intervient avant que votre message ou votre vidéo ne soit chiffré. C’est faux », explique-t-elle.

La chercheuse détaille un peu plus : « soyons donc très clairs, une fois de plus : l’obligation de scanner en masse les communications privées sape fondamentalement le chiffrement. Un point c’est tout. Que ce soit en altérant, par exemple, la génération de nombres aléatoires d’un algorithme de chiffrement, en mettant en œuvre un système de dépôt de clés ou en forçant les communications à passer par un système de surveillance avant d’être chiffrées, il s’agit d’une porte dérobée ».

La responsable de la fondation Signal rejette finalement toutes les propositions de « surveillance de masse » du chiffrement de bout en bout :

« Nous pouvons appeler cela une porte dérobée, une porte d’entrée ou la « modération du téléchargement ». Mais quel que soit le nom qu’on lui donne, chacune de ces approches crée une vulnérabilité qui peut être exploitée par des pirates informatiques et des États-nations hostiles, en supprimant la protection des mathématiques incassables et en la remplaçant par une vulnérabilité très importante ».

En conclusion, Meredith Whittaker revient à un discours plus politique : « casser le chiffrement de bout en bout, en particulier à une époque aussi instable sur le plan géopolitique, est une proposition désastreuse ».

Meredith Whittaker (Signal) contre la modération de l’envoi de fichiers dans les messageries

17 juin 2024 à 12:14

La présidente de la fondation Signal Meredith Whittaker se prononce contre le projet envisagé en Europe pour surveiller les messageries et repérer les contenus pédocriminels. Elle fustige une solution qui ne serait qu’un seul renommage de l’« analyse côté client » qui « ne garantit pas une prévention efficace de la criminalité et n’empêche pas la surveillance ».

Alors que l’Union européenne envisage de valider en urgence l’usine à gaz pour surveiller les messageries, Meredith Whittaker s’oppose vivement à cette solution nommée « modération de l’envoi de fichier » [upload moderation, en anglais] par ses défenseurs. « La « modération de l’envoi de fichier » compromet le chiffrement de bout en bout » affirme-t-elle dans une déclaration au nom de la fondation Signal (.pdf).

La présidente de la fondation s’insurge : « le chiffrement de bout en bout est la technologie dont nous disposons pour garantir la protection de la vie privée à une époque où l’État et les entreprises exercent une surveillance sans précédent. Et le dangereux désir de le compromettre ne semble jamais s’éteindre ».

Meredith Whittaker n’avait jusque-là fait que des déclarations de principes d’opposition à cette proposition de modération.

Avis d’experte

Dans ce texte, elle prend sa casquette de chercheuse (tout en signant en tant que Présidente de la fondation Signal) et affirme que « depuis des décennies, les experts sont formels : il n’existe aucun moyen de préserver l’intégrité du chiffrement de bout en bout tout en exposant les contenus chiffrés à la surveillance ».

Alors que la présidence du Conseil de l’UE veut maintenant faire adopter la proposition de règlement européen de surveillance des contenus pédosexuels, la présidente de la fondation Signal rappelle que le Parlement européen avait pourtant exclu le chiffrement de bout en bout de la surveillance de masse en fin d’année dernière.

Un renommage rhétorique

Pour Meredith Whittaker, la solution de « modération de l’envoi de fichier » n’est qu’un renommage de celle nommée jusqu’à maintenant « analyse côté client ».

Et la responsable de la fondation, qui est aussi chercheuse en informatique, renvoie vers l’article scientifique « Bugs in our pockets: the risks of client-side scanning » publié en janvier dernier dans la revue Journal of Cybersecurity. Les auteurs y expliquent que « l’analyse côté client ne garantit pas une prévention efficace de la criminalité et n’empêche pas la surveillance ».

« Il est impossible de mettre en œuvre de telles propositions dans le contexte de communications chiffrées de bout en bout sans saper fondamentalement le chiffrement et créer une vulnérabilité dangereuse dans le cœur de l’infrastructure qui aurait des répercussions mondiales bien au-delà de l’Europe » affirme-t-elle.

Elle ajoute qu’ « au lieu d’accepter cette réalité mathématique fondamentale, certains pays européens continuent à jouer à des jeux rhétoriques. Ils sont revenus à la charge avec la même idée sous une nouvelle étiquette ».

Pas de solution sans compromission du chiffrement de bout en bout

« Certains prétendent que la « modération de l’envoi de fichier » ne nuit pas au chiffrement car elle intervient avant que votre message ou votre vidéo ne soit chiffré. C’est faux », explique-t-elle.

La chercheuse détaille un peu plus : « soyons donc très clairs, une fois de plus : l’obligation de scanner en masse les communications privées sape fondamentalement le chiffrement. Un point c’est tout. Que ce soit en altérant, par exemple, la génération de nombres aléatoires d’un algorithme de chiffrement, en mettant en œuvre un système de dépôt de clés ou en forçant les communications à passer par un système de surveillance avant d’être chiffrées, il s’agit d’une porte dérobée ».

La responsable de la fondation Signal rejette finalement toutes les propositions de « surveillance de masse » du chiffrement de bout en bout :

« Nous pouvons appeler cela une porte dérobée, une porte d’entrée ou la « modération du téléchargement ». Mais quel que soit le nom qu’on lui donne, chacune de ces approches crée une vulnérabilité qui peut être exploitée par des pirates informatiques et des États-nations hostiles, en supprimant la protection des mathématiques incassables et en la remplaçant par une vulnérabilité très importante ».

En conclusion, Meredith Whittaker revient à un discours plus politique : « casser le chiffrement de bout en bout, en particulier à une époque aussi instable sur le plan géopolitique, est une proposition désastreuse ».

☕️ Sam Altman voudrait se débarrasser de la partie à but non lucratif d’OpenAI

17 juin 2024 à 07:08

Sam Altman, le CEO d’OpenAI, aurait récemment expliqué à certains actionnaires de son entreprise qu’il envisage de basculer vers une gouvernance complètement à but lucratif, selon The Information cité par Reuters.

Sam Altman aurait évoqué la possibilité qu’OpenAI reprenne le même genre de structure que ses concurrents Anthropic et xAI.

Rappelons que fin 2015, OpenAI a été créée comme un organisme à but non lucratif pour financer la recherche sur le développement d’une intelligence artificielle générale « sûre et bénéfique ».

Cette réflexion intervient alors que plusieurs salariés, dont certains membres du Conseil d’administration originel plus motivés par le projet à but non lucratif de la structure, ont démissionné. La possibilité d’alerter sur les risques des IA est par ailleurs mise à mal au sein de l’organisation :

Interrogée sur le sujet par Reuters, OpenAI a répondu : « nous restons concentrés sur la construction d’une IA qui profite à tous. L’organisation à but non lucratif est au cœur de notre mission et continuera d’exister ».

☕️ Sam Altman voudrait se débarrasser de la partie à but non lucratif d’OpenAI

17 juin 2024 à 07:08

Sam Altman, le CEO d’OpenAI, aurait récemment expliqué à certains actionnaires de son entreprise qu’il envisage de basculer vers une gouvernance complètement à but lucratif, selon The Information cité par Reuters.

Sam Altman aurait évoqué la possibilité qu’OpenAI reprenne le même genre de structure que ses concurrents Anthropic et xAI.

Rappelons que fin 2015, OpenAI a été créée comme un organisme à but non lucratif pour financer la recherche sur le développement d’une intelligence artificielle générale « sûre et bénéfique ».

Cette réflexion intervient alors que plusieurs salariés, dont certains membres du Conseil d’administration originel plus motivés par le projet à but non lucratif de la structure, ont démissionné. La possibilité d’alerter sur les risques des IA est par ailleurs mise à mal au sein de l’organisation :

Interrogée sur le sujet par Reuters, OpenAI a répondu : « nous restons concentrés sur la construction d’une IA qui profite à tous. L’organisation à but non lucratif est au cœur de notre mission et continuera d’exister ».

À partir d’avant-hierActualités numériques

noyb attaque la Privacy Sandbox et accuse Google de mentir à ses utilisateurs

14 juin 2024 à 13:26
Don't be... non rien.

Google a mis en place sa Privacy Sandbox il y a un an, mécanisme annoncé depuis des années et censé permettre la collecte de données tout en préservant la vie privée des utilisateurs. Mais pour noyb, Google utilise un cas extrême de dark pattern en mentant à ses utilisateurs. L’association a porté plainte devant l’autorité autrichienne de protection des données.

Depuis juillet 2023, Google a ajouté à son navigateur Chrome un mécanisme censé améliorer la vie privée autour de la publicité ciblée. Le principe de cette fonctionnalité était annoncé de longue date par l’entreprise pour mettre fin aux cookies tiers.

L’idée n’est pas de supprimer le ciblage publicitaire, mais de remplacer le suivi individuel par un regroupement des utilisateurs par profils de navigation similaires avec l’utilisation par les développeurs des sites en question d’une API de chez Google.

Accusation de mensonge

Mais noyb explique dans son communiqué qu’ « alors que le « Privacy Sandbox » est présenté comme une amélioration par rapport au suivi extrêmement invasif par des tiers, le suivi est désormais simplement effectué dans le navigateur par Google lui-même ». Et l’association accuse l’entreprise de mentir dans la présentation de cette fonctionnalité dans son navigateur.

Dans sa plainte (.pdf), l’association considère que, « loin d’être un outil de « protection de la vie privée », le système derrière l’API Sandbox continue de suivre l’historique de navigation d’un utilisateur sur le web. La différence est que le navigateur Chrome lui-même suit le comportement des utilisateurs et génère une liste de « thèmes » publicitaires en fonction des sites web qu’ils visitent ».

« Cela ne reflète pas ce que les consommateurs considèrent généralement comme des « dispositifs de protection de la vie privée » (tels que les bloqueurs de cookies ou de suivi), qui visent à protéger totalement les utilisateurs plutôt qu’à les suivre à la trace par d’autres moyens installés localement et à partager des données avec les annonceurs » commente noyb.

L’association rajoute qu’« au lancement, il existait près de 500 catégories de publicités, telles que « Prêts étudiants et financement des études », « Sous-vêtements » ou « Parentalité », auxquelles les utilisateurs étaient associés en fonction de leur activité en ligne ».

noyb s’appuie notamment sur l’article 4(11) du RGPD qui définit le consentement de la personne concernée, comme « toute manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ».

Des darks patterns

L’association se plaint que Google utilise des dark patterns pour que les utilisateurs acceptent l’activation de la sandbox. Mais selon l’argumentaire de noyb, « il s’agit là d’un cas extrême : Google ne s’est pas contenté de modifier la couleur ou la taille d’un bouton, il a tout simplement menti à ses utilisateurs ».

Dans la plainte, noyb détaille que « plutôt que d’indiquer clairement qu’il demandait le consentement des utilisateurs pour que leur navigateur les suive, Google a vendu aux utilisateurs l’API Sandbox comme une « fonction de protection de la vie privée ». Il s’agit d’un choix délibéré visant à manipuler la compréhension des utilisateurs et à garantir un taux de consentement élevé, les utilisateurs pensant que leur navigateur les protège désormais contre le suivi à des fins publicitaires ».

L’association ajoute à sa plainte des copies d’écran de la version anglaise de ce formulaire :

Dans la version française affichée quand on a ouvert Chrome pour la première fois, le texte est encore moins clair puisqu’il parle d’ « annonces » et non de publicités.

L’entreprise a répondu à noyb que :

« Google demande le consentement des utilisateurs, conformément à l’article 6, paragraphe 1, point a), du RGPD, pour la création de rubriques publicitaires dans Chrome. Les utilisateurs peuvent donner ou refuser leur consentement en cliquant sur « Activer » ou « Non merci » … Le consentement concerne la création de sujets publicitaires dans le navigateur » »

Dans la seconde copie d’écran de l’association, on peut voir que l’utilisateur ne peut fermer le formulaire qu’en cliquant sur « Got it ».

Pour Google, « le deuxième écran informe les utilisateurs des nouveaux contrôles dans Chrome concernant deux autres API du Privacy Sandbox [« App-suggested ads » et « Ad Measurement »], qui permettent le reciblage et la mesure des publicités… Le bouton « Got it » sur le deuxième écran ferme simplement la boîte de dialogue, permettant à l’utilisateur d’accuser réception de l’avis ».

Pas encore de suppression des cookies tiers

L’association fait aussi remarquer dans le document déposé devant l’autorité autrichienne « qu’à ce jour, Google n’a pas supprimé les cookies tiers pour la plupart de ses utilisateurs, car l’autorité de marché britannique et l’autorité britannique chargée de la protection des données enquêtent sur ce changement de modèle commercial de Google en tant qu’infraction potentielle aux dispositions relatives à la protection des données et au droit de la concurrence ».

Perfide, noyb ajoute que « si l’API Sandbox a été conçue pour contrebalancer l’élimination du suivi par des tiers pour les utilisateurs de Chrome, il semble que Google ait été plus rapide à mettre en œuvre son propre outil de suivi qu’à supprimer les menaces existantes pour la vie privée des utilisateurs ».

Interrogée par Reuters, Google affirme que « cette plainte ne tient pas compte des importantes protections de la vie privée que nous avons intégrées dans les API de Privacy Sandbox, y compris l’API Topics, et de l’amélioration significative de la protection de la vie privée qu’elles apportent par rapport aux technologies actuelles, y compris les cookies de tiers ».

Le porte-parole a ajouté que « Privacy Sandbox est conçu pour améliorer la protection de la vie privée des utilisateurs et fournir à l’industrie des solutions de rechange au suivi intersite qui préservent la vie privée. Nous avons travaillé en étroite collaboration avec les autorités de régulation de la concurrence et de la protection de la vie privée dans le monde entier, et nous continuerons à le faire afin de parvenir à un résultat équilibré qui convienne aux utilisateurs et à l’ensemble de l’écosystème ».

noyb attaque la Privacy Sandbox et accuse Google de mentir à ses utilisateurs

14 juin 2024 à 13:26
Don't be... non rien.

Google a mis en place sa Privacy Sandbox il y a un an, mécanisme annoncé depuis des années et censé permettre la collecte de données tout en préservant la vie privée des utilisateurs. Mais pour noyb, Google utilise un cas extrême de dark pattern en mentant à ses utilisateurs. L’association a porté plainte devant l’autorité autrichienne de protection des données.

Depuis juillet 2023, Google a ajouté à son navigateur Chrome un mécanisme censé améliorer la vie privée autour de la publicité ciblée. Le principe de cette fonctionnalité était annoncé de longue date par l’entreprise pour mettre fin aux cookies tiers.

L’idée n’est pas de supprimer le ciblage publicitaire, mais de remplacer le suivi individuel par un regroupement des utilisateurs par profils de navigation similaires avec l’utilisation par les développeurs des sites en question d’une API de chez Google.

Accusation de mensonge

Mais noyb explique dans son communiqué qu’ « alors que le « Privacy Sandbox » est présenté comme une amélioration par rapport au suivi extrêmement invasif par des tiers, le suivi est désormais simplement effectué dans le navigateur par Google lui-même ». Et l’association accuse l’entreprise de mentir dans la présentation de cette fonctionnalité dans son navigateur.

Dans sa plainte (.pdf), l’association considère que, « loin d’être un outil de « protection de la vie privée », le système derrière l’API Sandbox continue de suivre l’historique de navigation d’un utilisateur sur le web. La différence est que le navigateur Chrome lui-même suit le comportement des utilisateurs et génère une liste de « thèmes » publicitaires en fonction des sites web qu’ils visitent ».

« Cela ne reflète pas ce que les consommateurs considèrent généralement comme des « dispositifs de protection de la vie privée » (tels que les bloqueurs de cookies ou de suivi), qui visent à protéger totalement les utilisateurs plutôt qu’à les suivre à la trace par d’autres moyens installés localement et à partager des données avec les annonceurs » commente noyb.

L’association rajoute qu’« au lancement, il existait près de 500 catégories de publicités, telles que « Prêts étudiants et financement des études », « Sous-vêtements » ou « Parentalité », auxquelles les utilisateurs étaient associés en fonction de leur activité en ligne ».

noyb s’appuie notamment sur l’article 4(11) du RGPD qui définit le consentement de la personne concernée, comme « toute manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ».

Des darks patterns

L’association se plaint que Google utilise des dark patterns pour que les utilisateurs acceptent l’activation de la sandbox. Mais selon l’argumentaire de noyb, « il s’agit là d’un cas extrême : Google ne s’est pas contenté de modifier la couleur ou la taille d’un bouton, il a tout simplement menti à ses utilisateurs ».

Dans la plainte, noyb détaille que « plutôt que d’indiquer clairement qu’il demandait le consentement des utilisateurs pour que leur navigateur les suive, Google a vendu aux utilisateurs l’API Sandbox comme une « fonction de protection de la vie privée ». Il s’agit d’un choix délibéré visant à manipuler la compréhension des utilisateurs et à garantir un taux de consentement élevé, les utilisateurs pensant que leur navigateur les protège désormais contre le suivi à des fins publicitaires ».

L’association ajoute à sa plainte des copies d’écran de la version anglaise de ce formulaire :

Dans la version française affichée quand on a ouvert Chrome pour la première fois, le texte est encore moins clair puisqu’il parle d’ « annonces » et non de publicités.

L’entreprise a répondu à noyb que :

« Google demande le consentement des utilisateurs, conformément à l’article 6, paragraphe 1, point a), du RGPD, pour la création de rubriques publicitaires dans Chrome. Les utilisateurs peuvent donner ou refuser leur consentement en cliquant sur « Activer » ou « Non merci » … Le consentement concerne la création de sujets publicitaires dans le navigateur » »

Dans la seconde copie d’écran de l’association, on peut voir que l’utilisateur ne peut fermer le formulaire qu’en cliquant sur « Got it ».

Pour Google, « le deuxième écran informe les utilisateurs des nouveaux contrôles dans Chrome concernant deux autres API du Privacy Sandbox [« App-suggested ads » et « Ad Measurement »], qui permettent le reciblage et la mesure des publicités… Le bouton « Got it » sur le deuxième écran ferme simplement la boîte de dialogue, permettant à l’utilisateur d’accuser réception de l’avis ».

Pas encore de suppression des cookies tiers

L’association fait aussi remarquer dans le document déposé devant l’autorité autrichienne « qu’à ce jour, Google n’a pas supprimé les cookies tiers pour la plupart de ses utilisateurs, car l’autorité de marché britannique et l’autorité britannique chargée de la protection des données enquêtent sur ce changement de modèle commercial de Google en tant qu’infraction potentielle aux dispositions relatives à la protection des données et au droit de la concurrence ».

Perfide, noyb ajoute que « si l’API Sandbox a été conçue pour contrebalancer l’élimination du suivi par des tiers pour les utilisateurs de Chrome, il semble que Google ait été plus rapide à mettre en œuvre son propre outil de suivi qu’à supprimer les menaces existantes pour la vie privée des utilisateurs ».

Interrogée par Reuters, Google affirme que « cette plainte ne tient pas compte des importantes protections de la vie privée que nous avons intégrées dans les API de Privacy Sandbox, y compris l’API Topics, et de l’amélioration significative de la protection de la vie privée qu’elles apportent par rapport aux technologies actuelles, y compris les cookies de tiers ».

Le porte-parole a ajouté que « Privacy Sandbox est conçu pour améliorer la protection de la vie privée des utilisateurs et fournir à l’industrie des solutions de rechange au suivi intersite qui préservent la vie privée. Nous avons travaillé en étroite collaboration avec les autorités de régulation de la concurrence et de la protection de la vie privée dans le monde entier, et nous continuerons à le faire afin de parvenir à un résultat équilibré qui convienne aux utilisateurs et à l’ensemble de l’écosystème ».

☕️ Le chiffre d’affaires annualisé d’OpenAI aurait doublé en 6 mois

13 juin 2024 à 11:54

L’entreprise de Sam Altman a doublé son chiffre d’affaires (CA) annualisé – la moyenne du CA sur les derniers mois multiplié par 12 – pendant ces 6 derniers mois, selon The Information, relayé par Engadget. Sam Altman aurait communiqué cette information à ses salariés.

Fin 2023, le CA annualisé était de 1,6 milliard de dollars et serait donc passé à 3, 4 milliards. Il était de 1 milliard de dollars à l’été 2023.

Cette augmentation montre l’énorme adoption des outils d’OpenAI depuis la sortie de ChatGPT.

Engadget relève par contre que nous ne savons pas si OpenAI gagne réellement de l’argent jusqu’à présent.

Cette semaine, Apple a annoncé la création d’un partenariat avec OpenAI mais celui-ci ne se convertirait pas directement en chiffre d’affaires pour le créateur de ChatGPT, selon Bloomberg. En effet, « Apple estime que le fait d’intégrer la marque et la technologie d’OpenAI à des centaines de millions de ses appareils a une valeur égale ou supérieure à celle des paiements monétaires », explique le média tenant l’information de sources anonymes.

☕️ Le chiffre d’affaires annualisé d’OpenAI aurait doublé en 6 mois

13 juin 2024 à 11:54

L’entreprise de Sam Altman a doublé son chiffre d’affaires (CA) annualisé – la moyenne du CA sur les derniers mois multiplié par 12 – pendant ces 6 derniers mois, selon The Information, relayé par Engadget. Sam Altman aurait communiqué cette information à ses salariés.

Fin 2023, le CA annualisé était de 1,6 milliard de dollars et serait donc passé à 3, 4 milliards. Il était de 1 milliard de dollars à l’été 2023.

Cette augmentation montre l’énorme adoption des outils d’OpenAI depuis la sortie de ChatGPT.

Engadget relève par contre que nous ne savons pas si OpenAI gagne réellement de l’argent jusqu’à présent.

Cette semaine, Apple a annoncé la création d’un partenariat avec OpenAI mais celui-ci ne se convertirait pas directement en chiffre d’affaires pour le créateur de ChatGPT, selon Bloomberg. En effet, « Apple estime que le fait d’intégrer la marque et la technologie d’OpenAI à des centaines de millions de ses appareils a une valeur égale ou supérieure à celle des paiements monétaires », explique le média tenant l’information de sources anonymes.

Mastodon : les chercheurs n’ont finalement pas migré en masse

13 juin 2024 à 07:01
Comme un Mammouth sans aile
Chute de mastodons par Flock

D’après des chercheurs de l’université de Pennsylvanie, la migration de Twitter vers Mastodon tant attendue par les thuriféraires du pachyderme n’a pas vraiment eu lieu dans le milieu de la recherche scientifique. Au contraire, les deux tiers des chercheurs étudiés ayant eu la curiosité d’y mettre les pieds ont vite abandonné le réseau décentralisé.

Il y a un peu plus d’un an, certains chercheurs excédés par le rachat de Twitter par Elon Musk, par ses positions politiques et ses décisions erratiques sur le fonctionnement de son nouveau réseau social espéraient pousser leurs collègues vers le réseau social décentralisé Mastodon (basé sur le Fediverse).

« L’échec de la migration du Twitter académique »

Certains y ont pointé leur nez dès ce rachat, mais ont-ils persévéré en troquant les « tweets » du désormais X d’Elon Musk contre les « pouets » de Mastodon ? « Dans quelle mesure les universitaires ont-ils participé à la migration de Twitter vers Mastodon, et comment peut-on évaluer le succès ou l’échec de cette migration ? » se sont demandé Xinyu Wang, Sai Koneru et Sarah Rajtmajer, chercheurs à l’Université de Pennsylvanie dans un article mis en ligne sur la plateforme de prépublications scientifiques arXiv sous le titre explicite : « L’échec de la migration du Twitter académique ».

Cet article n’étudie pas la qualité des échanges entre chercheurs ainsi qu’avec le grand public sur les deux réseaux. Mais dans leurs conclusions, ils expliquent qu’ « alors que la plateforme décentralisée offrait une alternative prometteuse, les communautés établies et l’engagement clair du public sur Twitter se sont avérés trop importants pour être surmontés ».

Deux tiers sont inactifs


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Elon Musk abandonne le procès qu’il a intenté contre OpenAI

12 juin 2024 à 07:00

Alors que ce procès devait se tenir ce mercredi à San Francisco, Elon Musk a décidé mardi 11 juin d’abandonner les poursuites qu’il avait déclenchées contre OpenAI et les deux autres co-fondateurs de l’entreprise, Sam Altman, Greg Brockman, explique CNBC.

En février, Elon Musk avait déposé une plainte les accusant d’avoir violé l’engagement pris à la création d’OpenAI, à laquelle il a participé, selon lequel elle resterait une organisation à but non lucratif et garderait un esprit d’ « ouverture » des technologies.

The Verge expliquait en mars dernier que le cas était « malicieusement hilarant » :

« Musk prétend carrément qu’OpenAI a rompu un contrat qui n’existe pas. Ce contrat n’existe tout simplement pas ! La plainte fait référence à un « accord de fondation », mais aucun accord de ce type n’est joint en tant que pièce à conviction, et l’allégation de rupture de contrat admet que l' »accord de fondation » est essentiellement une atmosphère que tout le monde a partagée dans quelques emails ».

L’entreprise avait aussi affirmé qu’il n’y avait « aucun accord de fondation, ou aucun autre accord avec Elon Musk ».

☕️ Elon Musk abandonne le procès qu’il a intenté contre OpenAI

12 juin 2024 à 07:00

Alors que ce procès devait se tenir ce mercredi à San Francisco, Elon Musk a décidé mardi 11 juin d’abandonner les poursuites qu’il avait déclenchées contre OpenAI et les deux autres co-fondateurs de l’entreprise, Sam Altman, Greg Brockman, explique CNBC.

En février, Elon Musk avait déposé une plainte les accusant d’avoir violé l’engagement pris à la création d’OpenAI, à laquelle il a participé, selon lequel elle resterait une organisation à but non lucratif et garderait un esprit d’ « ouverture » des technologies.

The Verge expliquait en mars dernier que le cas était « malicieusement hilarant » :

« Musk prétend carrément qu’OpenAI a rompu un contrat qui n’existe pas. Ce contrat n’existe tout simplement pas ! La plainte fait référence à un « accord de fondation », mais aucun accord de ce type n’est joint en tant que pièce à conviction, et l’allégation de rupture de contrat admet que l' »accord de fondation » est essentiellement une atmosphère que tout le monde a partagée dans quelques emails ».

L’entreprise avait aussi affirmé qu’il n’y avait « aucun accord de fondation, ou aucun autre accord avec Elon Musk ».

LAION-5B : des photos d’enfants brésiliens utilisées sans consentement pour entrainer des IA

11 juin 2024 à 15:22
IA pas de consentement
Laion

Human Right Watch a analysé une partie de la base de données LAION-5B très utilisée pour entrainer des outils d’IA générateurs d’images et s’est rendu compte qu’elle contiendrait des liens vers des photos d’enfants brésiliens sans leur consentement.

L’ONG Human right watch explique avoir repéré des photos personnelles d’enfants brésiliens dans la base de données LAION-5B. Créée par le professeur de lycée allemand Christoph Schuhmann, celle-ci a été notamment utilisée par Stable Diffusion et par Google pour entrainer leurs modèles d’IA génératives de text-to-image.

Une toute petite partie de la base de données explorée

Ces photos ne figurent pas en tant que telles dans la base de données. LAION-5B liste notamment des liens vers diverses photos qui ont été mises en ligne qu’elle associe à du texte. Elle s’appuie sur l’autre base de données Common Crawl qui parcourt internet et stocke les contenus trouvés.

La chercheuse de l’ONG, Hye Jung Han, a examiné une toute petite partie de LAION-5B (moins de 0,0001 % des 5,85 milliards d’images) mais a trouvé 170 photos d’enfants brésiliens venant d’au moins 10 États du pays.

Des photos de moments intimes

La plupart de ces photos n’ont été vues que par très peu de personne et « semblent avoir bénéficié auparavant d’une certaine intimité » explique Human Rights Watch, qui a vérifié en utilisant des moteurs de recherche.

L’ONG affirme que LAION, l’association allemande fondée par Schuhmann pour gérer la base de données, a confirmé l’existence des liens vers ces photos dans sa base de données et a promis de les supprimer. Mais elle a ajouté qu’il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l’internet, ce qui, selon elle, constitue la protection la plus efficace contre les abus.

Dans une réponse à Wired, LAION a affirmé avoir supprimé les liens vers les contenus signalés par Human Right Watch. Mais un de ses représentants a ajouté que « la suppression des liens d’un ensemble de données LAION ne supprime pas ce contenu du web […] il s’agit d’un problème plus vaste et très préoccupant, et en tant qu’organisation bénévole à but non lucratif, nous ferons notre part pour y remédier ».

Selon l’association, les photos listées par LAION représentaient « des moments intimes comme des bébés naissant entre les mains gantées de médecins, des jeunes enfants soufflant les bougies de leur gâteau d’anniversaire ou dansant en sous-vêtements à la maison, d’élèves faisant un exposé à l’école et d’adolescents posant pour des photos à carnaval du lycée ».

Hye Jung Han explique à Wired que « leur vie privée est violée en premier lieu lorsque leur photo est récupérée et intégrée dans ces ensembles de données. Ensuite, ces outils d’intelligence artificielle sont entrainés à partir de ces données et peuvent donc créer des images réalistes d’enfants ». Elle ajoute que « la technologie est développée de telle sorte que tout enfant qui possède une photo ou une vidéo de lui en ligne est désormais en danger, car n’importe quel acteur malveillant pourrait prendre cette photo, puis utiliser ces outils pour la manipuler à sa guise ».

LAION-5B plus accessible publiquement

Depuis décembre dernier, LAION-5B n’est plus accessible publiquement. L’association a pris cette décision car des chercheurs de Stanford ont identifié 3 226 liens vers des images pédocriminelles potentielles. « La plupart d’entre elles ont été identifiées comme telles par des tierces parties » expliquaient-ils.

Dans un communiqué sur son site, LAION affirmait qu’elle appliquait «  une politique de tolérance zéro à l’égard des contenus illégaux et, dans un souci de prudence, nous retirons temporairement les jeux de données de LAION pour nous assurer qu’ils sont sûrs avant de les republier ».

LAION-5B : des photos d’enfants brésiliens utilisées sans consentement pour entrainer des IA

11 juin 2024 à 15:22
IA pas de consentement
Laion

Human Right Watch a analysé une partie de la base de données LAION-5B très utilisée pour entrainer des outils d’IA générateurs d’images et s’est rendu compte qu’elle contiendrait des liens vers des photos d’enfants brésiliens sans leur consentement.

L’ONG Human right watch explique avoir repéré des photos personnelles d’enfants brésiliens dans la base de données LAION-5B. Créée par le professeur de lycée allemand Christoph Schuhmann, celle-ci a été notamment utilisée par Stable Diffusion et par Google pour entrainer leurs modèles d’IA génératives de text-to-image.

Une toute petite partie de la base de données explorée

Ces photos ne figurent pas en tant que telles dans la base de données. LAION-5B liste notamment des liens vers diverses photos qui ont été mises en ligne qu’elle associe à du texte. Elle s’appuie sur l’autre base de données Common Crawl qui parcourt internet et stocke les contenus trouvés.

La chercheuse de l’ONG, Hye Jung Han, a examiné une toute petite partie de LAION-5B (moins de 0,0001 % des 5,85 milliards d’images) mais a trouvé 170 photos d’enfants brésiliens venant d’au moins 10 États du pays.

Des photos de moments intimes

La plupart de ces photos n’ont été vues que par très peu de personne et « semblent avoir bénéficié auparavant d’une certaine intimité » explique Human Rights Watch, qui a vérifié en utilisant des moteurs de recherche.

L’ONG affirme que LAION, l’association allemande fondée par Schuhmann pour gérer la base de données, a confirmé l’existence des liens vers ces photos dans sa base de données et a promis de les supprimer. Mais elle a ajouté qu’il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l’internet, ce qui, selon elle, constitue la protection la plus efficace contre les abus.

Dans une réponse à Wired, LAION a affirmé avoir supprimé les liens vers les contenus signalés par Human Right Watch. Mais un de ses représentants a ajouté que « la suppression des liens d’un ensemble de données LAION ne supprime pas ce contenu du web […] il s’agit d’un problème plus vaste et très préoccupant, et en tant qu’organisation bénévole à but non lucratif, nous ferons notre part pour y remédier ».

Selon l’association, les photos listées par LAION représentaient « des moments intimes comme des bébés naissant entre les mains gantées de médecins, des jeunes enfants soufflant les bougies de leur gâteau d’anniversaire ou dansant en sous-vêtements à la maison, d’élèves faisant un exposé à l’école et d’adolescents posant pour des photos à carnaval du lycée ».

Hye Jung Han explique à Wired que « leur vie privée est violée en premier lieu lorsque leur photo est récupérée et intégrée dans ces ensembles de données. Ensuite, ces outils d’intelligence artificielle sont entrainés à partir de ces données et peuvent donc créer des images réalistes d’enfants ». Elle ajoute que « la technologie est développée de telle sorte que tout enfant qui possède une photo ou une vidéo de lui en ligne est désormais en danger, car n’importe quel acteur malveillant pourrait prendre cette photo, puis utiliser ces outils pour la manipuler à sa guise ».

LAION-5B plus accessible publiquement

Depuis décembre dernier, LAION-5B n’est plus accessible publiquement. L’association a pris cette décision car des chercheurs de Stanford ont identifié 3 226 liens vers des images pédocriminelles potentielles. « La plupart d’entre elles ont été identifiées comme telles par des tierces parties » expliquaient-ils.

Dans un communiqué sur son site, LAION affirmait qu’elle appliquait «  une politique de tolérance zéro à l’égard des contenus illégaux et, dans un souci de prudence, nous retirons temporairement les jeux de données de LAION pour nous assurer qu’ils sont sûrs avant de les republier ».

☕️ [Màj] Tesla : la rémunération de 56 milliards de dollars pour Elon Musk validée

14 juin 2024 à 06:21

Le conseil d’administration de Tesla s’est prononcé et a validé jeudi 13 juin un plan de rémunération d’une hauteur de 56 milliards de dollars pour Elon Musk, explique Reuters. Ils ont aussi permis le déménagement du siège de l’entreprise du Delaware vers le Texas.

Pourtant, d’importants actionnaires, comme le fonds souverain de la Norvège, s’étaient prononcés contre.

Elon Musk tenait à sa rémunération de 56 milliards de dollars en tant que CEO de Tesla. Fin janvier, celui-ci a vu cette rémunération remise en question par la justice du Delaware qui a donné raison (pdf de la décision) à un actionnaire qui demandait l’annulation du plan décidé en 2018.

En conséquence, Elon Musk a demandé à son conseil de voter de nouveau une rémunération du même montant ainsi que le déménagement du siège de Tesla. Selon The Verge, il aurait envoyé une lettre aux actionnaires « lourde de sous-entendus » sur le fait qu’il pourrait quitter Tesla si cette rémunération n’était pas acceptée.

Si Ron Baron, un des actionnaires importants de l’entreprise, s’est prononcé en sa faveur, d’autres, comme le fonds souverain de Norvège, mais aussi Christopher Ailman, responsable du fonds de pensions des enseignants de l’État de Californie, s’y opposaient.

Le fonds souverain de Norvège, le plus important au monde avec près de 1 500 milliards d’euros de capitaux et 0,98 % des actions (et donc des voix) de Tesla, s’est aussi prononcé pour l’adoption d’une politique de liberté d’association et de négociation collective dans l’entreprise, « une victoire pour les syndicats qui cherchent à affirmer leur influence sur le constructeur automobile américain », juge CNBC.

☕️ [Màj] Tesla : la rémunération de 56 milliards de dollars pour Elon Musk validée

14 juin 2024 à 06:21

Le conseil d’administration de Tesla s’est prononcé et a validé jeudi 13 juin un plan de rémunération d’une hauteur de 56 milliards de dollars pour Elon Musk, explique Reuters. Ils ont aussi permis le déménagement du siège de l’entreprise du Delaware vers le Texas.

Pourtant, d’importants actionnaires, comme le fonds souverain de la Norvège, s’étaient prononcés contre.

Elon Musk tenait à sa rémunération de 56 milliards de dollars en tant que CEO de Tesla. Fin janvier, celui-ci a vu cette rémunération remise en question par la justice du Delaware qui a donné raison (pdf de la décision) à un actionnaire qui demandait l’annulation du plan décidé en 2018.

En conséquence, Elon Musk a demandé à son conseil de voter de nouveau une rémunération du même montant ainsi que le déménagement du siège de Tesla. Selon The Verge, il aurait envoyé une lettre aux actionnaires « lourde de sous-entendus » sur le fait qu’il pourrait quitter Tesla si cette rémunération n’était pas acceptée.

Si Ron Baron, un des actionnaires importants de l’entreprise, s’est prononcé en sa faveur, d’autres, comme le fonds souverain de Norvège, mais aussi Christopher Ailman, responsable du fonds de pensions des enseignants de l’État de Californie, s’y opposaient.

Le fonds souverain de Norvège, le plus important au monde avec près de 1 500 milliards d’euros de capitaux et 0,98 % des actions (et donc des voix) de Tesla, s’est aussi prononcé pour l’adoption d’une politique de liberté d’association et de négociation collective dans l’entreprise, « une victoire pour les syndicats qui cherchent à affirmer leur influence sur le constructeur automobile américain », juge CNBC.

❌
❌