Vue lecture

☕️ Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.

En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.

Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.

Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.

Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.

OpenAI explique notamment que, selon ses conditions d’utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.

Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.

L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».

  •  

L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

♩♫♩ ‎We don't need no thought control ♪ ♩ ♩
L’IA dans l’éducation, un cadrage par le ministère… sans réel cadre pour les enseignants

En septembre dernier, les enseignants et les élèves entamaient la quatrième année scolaire avec l’IA générative dans toutes les mains. Le ministère a proposé un « Cadre d’usage de l’IA en éducation » mais celui-ci est critiqué pour son manque de clarté et de praticité.

En novembre 2022, OpenAI lançait ChatGPT et, dès ce moment, beaucoup d’élèves et d’étudiants ont utilisé les nouvelles applications pour générer des réponses à leurs devoirs sans qu’ils ne reçoivent de réelle formation à propos de ces outils. Que ce soit pour en connaître leurs fonctionnements, leurs limites ou la façon de les utiliser. En tout cas, dans le cadre d’une structuration claire des savoirs pensée au sein de l’Éducation nationale.

En mai dernier, le ministère de l’Éducation nationale publiait un « Cadre d’usage de l’IA en éducation ». Celui-ci a pour objectif, selon le ministère, « d’apporter des réponses claires aux interrogations légitimes de l’ensemble de la communauté éducative et des agents sur l’usage de l’IA en éducation ». Dans sa présentation, l’institution ajoutait : « l’usage de l’IA est autorisé en éducation dès lors qu’il respecte le cadre défini ».

Pas de consignes claires sauf l’interdiction avant la quatrième

Le Cadre du ministère est un document d’une quinzaine de pages. Mais les premières pages sont surtout composées d’explications sur le pourquoi de ce document, de définitions de l’IA et d’un constat sur les potentialités et les risques dans l’usage de l’IA et évoquent des interrogations que soulèvent certains usages sans entrer dans les détails.

De réponses claires, le document en semble peu pourvu pour faire comprendre aux enseignants comment et quand utiliser l’IA de façon concrète.

Enfin, une chose y est quand même claire : pas d’utilisation pédagogique de l’IA à l’école avant la quatrième. Avant cette classe, les élèves doivent être sensibilisés mais ne peuvent toucher aux outils en classe. Après, l’utilisation de l’IA est autorisée « en lien avec les objectifs des programmes scolaires et du CRCN » (le « cadre de référence des compétences numériques » qui met en place des évaluations des compétences, notamment via les parcours Pix à passer en ligne).

Le ministère « se positionne dans un monde idéal »

Mais, « dans ce cadre d’usage, il n’y a pas de cadre », estime Amélie Hart, secrétaire nationale du syndicat SNES-FSU et enseignante en lycée en Histoire-Géographie, interrogée par Next. Pour elle, ce document devrait expliquer plus précisément les restrictions d’utilisation de l’IA dans l’enseignement.


Il reste 65% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.

En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.

Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.

Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.

Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.

OpenAI explique notamment que, selon ses conditions d’utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.

Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.

L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».

  •  

NASA Reduces Flights on Boeing's Starliner After Botched Astronaut Mission

An anonymous reader shares a report: NASA has slashed the number of astronaut missions on Boeing's Starliner contract and said the spacecraft's next mission to the International Space Station will fly without a crew, reducing the scope of a program hobbled by engineering woes and outpaced by SpaceX. The most recent mishap occurred during Starliner's first crewed test flight in 2024, carrying NASA astronauts Butch Wilmore and Suni Williams. Several thrusters on Starliner's propulsion system shut down during its approach to the ISS.

Read more of this story at Slashdot.

  •  

ChatControl : le compromis du Conseil européen soulève de nouveaux problèmes

One Step Beyond...
ChatControl : le compromis du Conseil européen soulève de nouveaux problèmes

Si la surveillance des messageries chiffrées a été abandonnée, les plateformes devront scanner les messages privés à l’aide d’IA, introduire des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet, et des conditions strictes risquant d’exclure les adolescents des applications dotées de fonctions de chat.

Après des années de débats, le Conseil européen est parvenu à une position commune sur le projet de « règles en vue de prévenir et de combattre les abus sexuels sur enfants » (Child Sexual Abuse Regulation, CSAR).

Il avait avant tout été retardé par la controverse liée à son pan numérique, et à la gestion des contenus numériques d’abus sexuels sur mineurs (Child Sexual Abuse Material, CSAM). Surnommé ChatControl par ses opposants, le projet de surveillance des messageries a finalement été abandonné au mois d’octobre.

À l’origine, il prévoyait que les forces de l’ordre puissent demander aux entreprises du numérique, plateformes chiffrées de bout en bout comprises, de scanner les échanges sur leurs outils pour repérer du CSAM.

Ce mercredi, les pays de l’Union européenne se sont finalement mis d’accord sur un texte qui supprime les ordonnances de détection obligatoire et met plutôt l’accent sur des mesures renforcées d’atténuation des risques, note Euractiv.

« Chat Control n’est pas mort, il est simplement privatisé »

Le scan volontaire de plateformes à la recherche de CSAM reste néanmoins cité comme outil possible, ce qui inquiète les défenseurs de la vie privée. L’ex-eurodéputé pirate Patrick Breyer avance en effet que « les gros titres sont trompeurs : Chat Control n’est pas mort, il est simplement privatisé » :

« Si le Conseil a supprimé l’obligation de scan, le texte convenu crée un cadre juridique toxique qui incite les géants technologiques américains à scanner sans discernement les communications privées, introduit des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet et menace d’exclure les adolescents de la vie numérique. »

Il souligne que le mandat du Conseil « contraste fortement avec la position du Parlement européen, qui exige que la surveillance ne vise que les suspects et que les contrôles d’âge restent volontaires ». Cela permettra à des fournisseurs tels que Meta ou Google de « scanner tous les chats privés, sans distinction et sans mandat judiciaire », déplore l’ex-eurodéputé.

« Vous aurez besoin d’une carte d’identité pour envoyer un message »

Le mandat autorise en outre le « scan de messages privés, d’images inconnues et de métadonnées à l’aide d’algorithmes et d’une intelligence artificielle ». Et ce, alors que la police fédérale allemande (BKA) a reconnu que 50 % des rapports générés dans le cadre d’un programme volontaire étaient sans intérêt sur le plan pénal, souligne Patrick Breyer :

« Nous sommes confrontés à un avenir où vous aurez besoin d’une carte d’identité pour envoyer un message et où une intelligence artificielle étrangère décidera si vos photos privées sont suspectes. Ce n’est pas une victoire pour la vie privée, c’est un désastre annoncé. »

Patrick Breyer relève en effet que pour se conformer à l’exigence du Conseil d’« identifier de manière fiable les mineurs », les fournisseurs « seront contraints de vérifier l’âge de chaque utilisateur », ce qui repose le problème du partage de documents d’identité avec des entreprises privées (au surplus états-uniennes), et du recours à la reconnaissance faciale.

Une « assignation à résidence numérique » pour les moins de 17 ans

Le texte du Conseil propose de plus d’interdire aux utilisateurs de moins de 17 ans d’utiliser des applications dotées de fonctions de chat, notamment WhatsApp, Instagram et les jeux en ligne populaires, « à moins que des conditions strictes ne soient remplies ».

Cela revient à une « assignation à résidence numérique », isolant les jeunes de leurs cercles sociaux et de l’éducation numérique, déplore Patrick Breyer : « La protection par l’exclusion est un non-sens pédagogique. Au lieu de responsabiliser les adolescents, le Conseil veut les exclure complètement du monde numérique ».

Les négociations (« trilogues ») débuteront prochainement, dans le but de finaliser le texte avant avril 2026, entre la Commission, le Conseil et le Parlement européen. Adoptée en novembre 2023, la position de ce dernier avait supprimé toute mention d’ordonnance de détection sur les plateformes chiffrées.

  •  

ChatControl : le compromis du Conseil européen soulève de nouveaux problèmes

One Step Beyond...
ChatControl : le compromis du Conseil européen soulève de nouveaux problèmes

Si la surveillance des messageries chiffrées a été abandonnée, les plateformes devront scanner les messages privés à l’aide d’IA, introduire des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet, et des conditions strictes risquant d’exclure les adolescents des applications dotées de fonctions de chat.

Après des années de débats, le Conseil européen est parvenu à une position commune sur le projet de « règles en vue de prévenir et de combattre les abus sexuels sur enfants » (Child Sexual Abuse Regulation, CSAR).

Il avait avant tout été retardé par la controverse liée à son pan numérique, et à la gestion des contenus numériques d’abus sexuels sur mineurs (Child Sexual Abuse Material, CSAM). Surnommé ChatControl par ses opposants, le projet de surveillance des messageries a finalement été abandonné au mois d’octobre.

À l’origine, il prévoyait que les forces de l’ordre puissent demander aux entreprises du numérique, plateformes chiffrées de bout en bout comprises, de scanner les échanges sur leurs outils pour repérer du CSAM.

Ce mercredi, les pays de l’Union européenne se sont finalement mis d’accord sur un texte qui supprime les ordonnances de détection obligatoire et met plutôt l’accent sur des mesures renforcées d’atténuation des risques, note Euractiv.

« Chat Control n’est pas mort, il est simplement privatisé »

Le scan volontaire de plateformes à la recherche de CSAM reste néanmoins cité comme outil possible, ce qui inquiète les défenseurs de la vie privée. L’ex-eurodéputé pirate Patrick Breyer avance en effet que « les gros titres sont trompeurs : Chat Control n’est pas mort, il est simplement privatisé » :

« Si le Conseil a supprimé l’obligation de scan, le texte convenu crée un cadre juridique toxique qui incite les géants technologiques américains à scanner sans discernement les communications privées, introduit des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet et menace d’exclure les adolescents de la vie numérique. »

Il souligne que le mandat du Conseil « contraste fortement avec la position du Parlement européen, qui exige que la surveillance ne vise que les suspects et que les contrôles d’âge restent volontaires ». Cela permettra à des fournisseurs tels que Meta ou Google de « scanner tous les chats privés, sans distinction et sans mandat judiciaire », déplore l’ex-eurodéputé.

« Vous aurez besoin d’une carte d’identité pour envoyer un message »

Le mandat autorise en outre le « scan de messages privés, d’images inconnues et de métadonnées à l’aide d’algorithmes et d’une intelligence artificielle ». Et ce, alors que la police fédérale allemande (BKA) a reconnu que 50 % des rapports générés dans le cadre d’un programme volontaire étaient sans intérêt sur le plan pénal, souligne Patrick Breyer :

« Nous sommes confrontés à un avenir où vous aurez besoin d’une carte d’identité pour envoyer un message et où une intelligence artificielle étrangère décidera si vos photos privées sont suspectes. Ce n’est pas une victoire pour la vie privée, c’est un désastre annoncé. »

Patrick Breyer relève en effet que pour se conformer à l’exigence du Conseil d’« identifier de manière fiable les mineurs », les fournisseurs « seront contraints de vérifier l’âge de chaque utilisateur », ce qui repose le problème du partage de documents d’identité avec des entreprises privées (au surplus états-uniennes), et du recours à la reconnaissance faciale.

Une « assignation à résidence numérique » pour les moins de 17 ans

Le texte du Conseil propose de plus d’interdire aux utilisateurs de moins de 17 ans d’utiliser des applications dotées de fonctions de chat, notamment WhatsApp, Instagram et les jeux en ligne populaires, « à moins que des conditions strictes ne soient remplies ».

Cela revient à une « assignation à résidence numérique », isolant les jeunes de leurs cercles sociaux et de l’éducation numérique, déplore Patrick Breyer : « La protection par l’exclusion est un non-sens pédagogique. Au lieu de responsabiliser les adolescents, le Conseil veut les exclure complètement du monde numérique ».

Les négociations (« trilogues ») débuteront prochainement, dans le but de finaliser le texte avant avril 2026, entre la Commission, le Conseil et le Parlement européen. Adoptée en novembre 2023, la position de ce dernier avait supprimé toute mention d’ordonnance de détection sur les plateformes chiffrées.

  •  

Claude l'avait prédit lui aussi : comme d'habitude, le record de fréquence de DDR5 a été battu d'un pwal !

Il faut croire que les derniers batchs de puces DDR5 chez les constructeurs sont dociles comme un teckel sous prozac. Après GIGABYTE et Patriot, puis ASUS et G.Skill, voici le nouveau binôme vainqueur du Rocco's Challenge 2025, alias GIGABYTE et Corsair. Le point commun à tous ces records est la pré...

  •  

AI Can Technically Perform 12% of US Labor Market's Wage Value, MIT Simulation Finds

Researchers at MIT and Oak Ridge National Laboratory have built a simulation that models all 151 million American workers and their skills, then maps those skills against the capabilities of over 13,000 AI tools currently in production to see where the two overlap. The answer, according to their analysis: 11.7% of the US labor market's total wage value, or about $1.2 trillion, sits in tasks that AI systems can technically perform [PDF]. The researchers call this the Iceberg Index, and the name is deliberate. The visible AI disruption happening in tech jobs right now accounts for only 2.2% of labor market wage value. The remaining exposure lurks in cognitive and administrative work across finance, healthcare administration, and professional services, and unlike tech-sector disruption, it's spread across all fifty states rather than concentrated on the coasts. Delaware and South Dakota show higher Iceberg Index values than California because their economies lean heavily on administrative and financial work. Ohio and Tennessee register modest tech-sector exposure but substantial hidden risk in the white-collar functions that support their manufacturing bases. To validate the framework, the researchers compared their predictions against Anthropic's Economic Index tracking real-world AI usage from millions of Claude users. The two measures agreed on state categorizations 69% of the time, with particularly strong alignment at the extremes. The Iceberg Index doesn't predict job losses or adoption timelines. It measures technical capability, the overlap between what AI can do and what occupations require. Traditional economic indicators like GDP and unemployment explain less than five percent of the variation in this skill-based exposure, which is partly why the researchers argue workforce planners need new metrics.

Read more of this story at Slashdot.

  •  

UK Police To Trial AI 'Agents' Responding To Non-Emergency Calls

An anonymous reader quotes a report from the BBC: Call-handling agents powered by AI are to be trialled by Staffordshire Police in a bid to cut waiting times for the non-emergency 101 service. The force is set to become the third in the country to take part in the scheme testing the use of artificial "agents" to deal with calls. Under the system, the AI agent would deal with simple queries like requests for information without the need for human involvement, freeing up call handlers and reducing answering times. Acting Chief Constable Becky Riggs confirmed the force would be looking to launch the AI pilot early in the new year. "It's a piece of technology called Agentforce. It will help with our response to the public, which historically we know we haven't done well." The senior officer said that sometimes people are not calling to report a crime, but want more information, which the technology could help with. However, if the system detects keywords suggesting vulnerability or risk or emergency, then it will be able to divert the call to a human being.

Read more of this story at Slashdot.

  •  

☕️ Des informaticiens créent Jmail, une boîte mail remplie des correspondances de J. Epstein

Comment simplifier l’exploration du jeu de correspondances de Jeffrey Epstein rendues publiques par la United States House Committee on Oversight sous la forme de PDF difficiles à trier ?

À cette question, les informaticiens Riley Walz et Luke Igel ont proposé une réponse simple : permettre aux internautes de naviguer dans ces informations en les présentant sous la forme d’une boîte mail, en beaucoup de points similaires au service de Google qu’1,8 milliard de personnes utilisent chaque mois.

Capture d’écran de la correspondance de Jeffrey Esptein marquée d’une étoile par les internautes sur Jmail.

C’est ainsi qu’est née Jmail, la fausse boîte mail de Jeffrey Epstein, riche de plus de 2 000 messages, dans laquelle tout internaute peut marquer un message comme important (avec une étoile).

La messagerie permet aussi d’identifier des contacts réguliers, parmi lesquels l’ex-conseiller de Donald Trump Steve Bannon, l’associée d’Epstein désormais derrière les barreaux Ghislaine Maxwell, l’ancien directeur du laboratoire de recherche dédié aux nouvelles technologies MIT Media Lab Joichi Ito, ou encore le linguiste Noam Chomsky.

Pour produire cet outil, Riley Walz et Luke Igel ont notamment recouru au LLM de Google Gemini, avec lequel ils ont récupéré le contenu des pdf par reconnaissance optique des caractères (OCR), détaille PC Gamer.

Derrière chaque résultat fourni par le robot, ils permettent aux internautes de cliquer pour voir le document source.

  •  

☕️ Des informaticiens créent Jmail, une boîte mail remplie des correspondances de J. Epstein

Comment simplifier l’exploration du jeu de correspondances de Jeffrey Epstein rendues publiques par la United States House Committee on Oversight sous la forme de PDF difficiles à trier ?

À cette question, les informaticiens Riley Walz et Luke Igel ont proposé une réponse simple : permettre aux internautes de naviguer dans ces informations en les présentant sous la forme d’une boîte mail, en beaucoup de points similaires au service de Google qu’1,8 milliard de personnes utilisent chaque mois.

Capture d’écran de la correspondance de Jeffrey Esptein marquée d’une étoile par les internautes sur Jmail.

C’est ainsi qu’est née Jmail, la fausse boîte mail de Jeffrey Epstein, riche de plus de 2 000 messages, dans laquelle tout internaute peut marquer un message comme important (avec une étoile).

La messagerie permet aussi d’identifier des contacts réguliers, parmi lesquels l’ex-conseiller de Donald Trump Steve Bannon, l’associée d’Epstein désormais derrière les barreaux Ghislaine Maxwell, l’ancien directeur du laboratoire de recherche dédié aux nouvelles technologies MIT Media Lab Joichi Ito, ou encore le linguiste Noam Chomsky.

Pour produire cet outil, Riley Walz et Luke Igel ont notamment recouru au LLM de Google Gemini, avec lequel ils ont récupéré le contenu des pdf par reconnaissance optique des caractères (OCR), détaille PC Gamer.

Derrière chaque résultat fourni par le robot, ils permettent aux internautes de cliquer pour voir le document source.

  •  

Comment les patch Windows 11 Octobre/Novembre 2025 ont tué les performances en jeu, et comment le HotFix NVIDIA a rétabli les choses ?

Il y a quelques jours, NVIDIA publiait le hotfix 581.94 basé sur les pilotes 581.80, et qui avait pour seul but de corriger les performances en berne des GeForce sous Windows 11 ayant fait la mise à jour KB5066835 d'octobre 2025 et KB5068861 de novembre 2025. Nous ne sommes pas à une Microsofterie p...

  •  

Valve-Backed Color Pipeline API For Linux Is Finally Ready For Upstream

For those Linux desktop users in the US needing another reason to be thankful this Thanksgiving, a huge and long-awaited accomplishment is ready for merging to the kernel: the Color Pipeline API that is important for HDR is ready for merging! As of last night the code is queued in DRM-Misc-Next for this years-in-the-making effort...
  •  

Test alimentation FSP MEGA TI 1350 : Bien, bien et bien ?

Après une souris, nous nous intéressons à une alimentation, avec la version 1350 watts de la MEGA TI de FSP, une alimentation que l'on connait déjà, car nous avons déjà testé sa version 1650 watts. C'est ici : Test alimentation FSP MEGA TI 1350 ou en cliquant sur la source. […]

Lire la suite
  •  

☕️ Le Parlement européen soutient l’âge minimal de 16 ans pour accéder aux réseaux sociaux

Les parlementaires européens ont voté mercredi en faveur d’un seuil minimal de 16 ans pour accéder aux réseaux sociaux à travers l’Union.

Ils ont aussi voté en faveur de tenir Mark Zuckerberg, Elon Musk et les autres patrons de la tech personnellement responsables si leurs entreprises persistent à ne pas respecter les règles européennes en matière de protection des mineurs en ligne, rapporte Politico.

Drapeau de l'Europe

Ces positions ont été tranchées dans le cadre de la production d’un rapport sur la protection des mineurs en ligne. Les parlementaires y appellent la Commission européenne à harmoniser les limites d’âge à travers l’Union européenne, alors que de nombreux pays travaillent à mettre en place leurs propres seuils, comme la France.

Les décisions du Parlement européen pourraient aussi influencer deux textes européens à venir : la directive sur les services de médias audiovisuels et le règlement sur l’équité numérique (Digital Fairness Act).

  •  

Cookies sans consentement : Condé Nast écope de 750 000 euros d’amende

Le consentement, c’est important !
Cookies sans consentement : Condé Nast écope de 750 000 euros d’amende

La CNIL vient de prononcer une sanction 750 000 euros à l’encontre de la société française Les publications Condé Nast, éditrice de Vanity Fair, Vogue, GQ et AD. En cause, « le non-respect des règles applicables en matière de traceurs (cookies) ». C’est la conclusion d’une très (très) longue procédure, en plusieurs rounds.

L’histoire débute en 2019 par une plainte publique de l’association noyb pour des cookies déposés par le site vanityfair.fr, édité par Les publications Condé Nast. Une mise en demeure est prononcée en septembre 2021 et la procédure est finalement fermée en juillet 2022.

Le consentement c’est important, comme la clarté de l’information

Deux fois en 2023, puis à nouveau en février 2025, la CNIL a effectué des contrôles supplémentaires et constaté que Condé Nast « avait manqué aux obligations prévues par l’article 82 de la loi Informatique et Libertés », en conséquence de quoi elle annonce avoir « prononcé à son encontre une amende de 750 000 euros ».

La CNIL reproche trois principaux griefs : « absence de recueil du consentement des utilisateurs avant dépôt des cookies », « absence de clarté de l’information mise à disposition des utilisateurs » et enfin des « mécanismes de refus et de retrait du consentement défaillants ».

La délibération a été publiée, permettant d’en apprendre davantage sur cette affaire. Tout d’abord, les publications Condé Nast ne conteste pas les observations de la CNIL, à savoir la nécessité de recueillir le consentement dans ce genre de cas ainsi que le dépôt du cookie. Néanmoins, l’entreprise explique « que cette action est due à une erreur technique et avoir procédé à des corrections pour supprimer ce cookie de son site le 12 janvier 2024 ».

Sur le manquement à l’information des personnes, la CNIL pointe du doigt trois cookies « toujours actifs » dont le but est de « mettre en correspondance et combiner des sources de données hors ligne », de « relier différents terminaux » et de « recevoir et utiliser des caractéristiques d’identification d’appareil envoyées automatiquement ».

Ils sont présentés comme des « cookies strictement nécessaires au fonctionnement du site web » ; il n’est donc pas possible de les supprimer. De son côté, « le rapporteur considère au contraire que ces cookies ne sont pas strictement nécessaires au fonctionnement du site web et que l’information délivrée aux personnes est erronée ».

Condé Nast agite le Transparency and Consent Framework (TCF) de l’Internet Advertising Bureau (IAB) pour justifier son choix. « La société considère qu’en étant liée par le TCF de l’IAB, elle n’a pas le pouvoir de définir les finalités des cookies de fonctionnalités », sous-titre la CNIL.

Argument balayé d’un revers de la main par la Commission : « à supposer que l’adhésion au TCF ait constitué une contrainte professionnelle pour la société, il n’en demeure pas moins que l’information transmise à l’utilisateur restait insuffisante dans la mesure où elle ne renvoyait pas vers les règles de l’IAB ».

Autre grief, sur l’« effectivité du refus par l’utilisateur du dépôt et de la lecture de cookies », puisque retirer son consentement doit être aussi simple que le donner. L’entreprise confirme de nouveau les dépôts malgré le refus, mais explique que c’est encore un problème de paramétrage : : « l’un des cookies a été déposé en raison d’un paramétrage incorrect et a été désactivé en deux semaines. Elle indique pour un deuxième cookie qu’il avait également été désactivé rapidement et n’aborde pas le cas du troisième cookie identifié par le rapporteur ». La CNIL prend acte, mais note tout de même que la société ne tient pas compte du choix de l’utilisateur et « trompe son consentement ».

Des cookies encore lus après retrait du consentement

Enfin dernier point constaté en février 2025 : « des opérations de lecture d’informations dans le terminal de l’utilisateur après que celui-ci a accepté dans un premier temps des opérations de lecture et d’écriture puis retiré son consentement en continuant sa navigation sur le site ».

La CNIL détaille le parcours réalisé par la délégation en charge de l’analyse :

« Elle a d’abord accepté les cookies via le bandeau relatif aux cookies puis s’est rendue, via un lien hypertexte présent sur la page d’accueil, sur la page web comportant l’interface de choix relative aux cookies. Elle a alors constaté l’enregistrement de cinquante cookies sur son navigateur. Puis elle a procédé au retrait de son consentement en cliquant sur le bouton  » Tout refuser  » de l’interface de choix et constaté l’effacement de douze cookies et le maintien de trente-huit cookies sur son terminal ».

Là encore, la société ne conteste pas, mais précise avoir appliqué des changements depuis le contrôle. Notamment, que le cookie _ga_9C8GH73ZS1 « a été désactivé par la société et qu’aucune donnée ne peut être ni collectée ni partagée avec la société Google », indique la Commission.

La CNIL prend note pour Google, mais précise qu’il « ressort de l’instruction que les données continuent d’être associées aux requêtes envoyées vers le domaine de la société, et donc lues par la société, sans qu’elle justifie d’aucune finalité exemptée à ce titre ».

La CNIL retient la gravité du manquement

Dans son délibéré, la formation restreinte de la CNIL retient « la gravité du manquement compte tenu de la nature, de la portée ou de la finalité du traitement, ainsi que du nombre de personnes concernées affectées et du niveau de dommage qu’elles ont subi ». Le site vanityfair.fr revendique, entre juin et octobre 2023, 7,43 millions de visiteurs, dont plus de 6 millions en France.

Autre point important à prendre en compte : la durée des échanges qui ont débuté en 2019, avec encore des manquements début 2025. La formation considère aussi qu’il y a eu négligence aggravée puisque la CNIL a expliqué les règles à l’éditeur à de nombreuses reprises. Si des mesures correctives ont été prises, la formation restreinte ajoute « que cette mise en conformité n’est intervenue qu’après les opérations de contrôle et après échanges avec la délégation, et non de manière autonome et spontanée ».

Enfin, l’avantage financier obtenu suite à ces manquements doit être pris en compte : « la régie publicitaire et l’activité commerciale en vue de la vente d’espaces publicitaires apparaissent comme des activités centrales de la société, au même titre que son activité d’édition. Les cookies font partie de l’écosystème publicitaire sur le web et génèrent ainsi des revenus pour la société ».

Le montant de l’amende tient aussi compte des capacités financières de l’entreprise. Le chiffre d’affaires net de Les publications Condé Nast pour 2023 en France est de 26,4 millions d’euros pour un résultat net de 0,9 million d’euros, contre respectivement 47,6 millions et 3,6 millions d‘euros en 2022.

Au final, le montant de l’amende administrative est de 750 000 euros.

Condé Nast affirme que « la publicité de la sanction n’est pas justifiée », elle ne souhaite ainsi pas que son nom apparaisse. La CNIL n’est pas du même avis : « une telle mesure se justifie compte tenu de la visibilité du site en cause, de la gravité, de la durée des manquements constitués et du nombre de personnes concernées, lesquelles doivent être informées ».

Comme toujours, cette décision peut faire l’objet d’un recours devant le Conseil d’État.

  •  

☕️ Chez Plex, l’accès distant payant sera généralisé en 2026

Fin mars, Plex annonçait à la fois une hausse des prix et un changement d’approche pour la diffusion des contenus médias en dehors de son réseau domestique. En clair, il s’agissait de faire passer les utilisateurs à la caisse.

Sans toucher à la diffusion domestique, il était proposé deux manières de payer, selon le contexte. Pour la personne ayant le serveur et les contenus, une formule Plex Pass (6,99 dollars par mois ou 69,99 dollars par an) déverrouillait la possibilité de streamer vers des personnes extérieures au réseau, par internet donc. Dans l’autre sens, une personne peut payer 1,99 dollar par mois (ou 19,99 dollars par an) pour un Remote Watch Pass, permettant l’accès à un serveur Plex distant, sans que son possesseur ait besoin d’un Plex Pass.

Il était prévu que ces règles entrent en vigueur à compter du 29 avril, mais l’application ne se fait réellement que cette semaine, en commençant par l’application Roku. L’équipe a confirmé le changement dans un message dans son forum le 20 novembre et repéré par How-To Geek le 25.

Si cette obligation est limitée pour l’instant, elle sera généralisée l’année prochaine à toutes les autres applications (Android TV, Apple TV, FireTV…) « ainsi qu’à tout client tiers utilisant l’API pour proposer le streaming à distance ».

Rappelons que ces changements concernent l’accès distant pour les serveurs Plex. Les personnes utilisant cette solution de streaming pour de la diffusion locale ne sont pas concernées.

  •