Vue normale

Reçu — 5 mars 2026 Actualités numériques

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

5 mars 2026 à 12:13
Psychose augmentée par IA
Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.

Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.

« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].

Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».

Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.

Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu

Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.

Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.

Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.

Gemini est conçue pour ne pas sortir de son personnage

Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.

Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».

La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».

Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».

Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

5 mars 2026 à 12:13
Psychose augmentée par IA
Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.

Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.

« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].

Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».

Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.

Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu

Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.

Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.

Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.

Gemini est conçue pour ne pas sortir de son personnage

Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.

Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».

La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».

Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».

Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».

☕️ Le Conseil d’État déboute Criteo et confirme l’amende de 40 millions d’euros de la CNIL

5 mars 2026 à 11:35


Dans une décision prise ce mercredi 4 mars, le Conseil d’État a rejeté la demande de Criteo d’annuler l’amende de 40 millions d’euros que lui a infligée la CNIL en 2023.

L’autorité avait sanctionné Criteo pour avoir violé le RGPD sur plusieurs points et notamment sur le consentement, l’information et le droit d’accès des personnes dont l’entreprise a utilisé des données personnelles. Elle avait cependant réduit le montant de l’amende d’un tiers par rapport à ce que proposait son rapporteur.

L’entreprise a porté cette décision devant le Conseil d’État, considérant notamment qu’elle se basait sur des déclarations obtenues sans qu’il soit indiqué au représentant légal interrogé le droit de se taire. Pour le Conseil d’État, « le droit de se taire ne s’applique pas lors des contrôles ou enquêtes » de la CNIL pour les vérifications « diligentées antérieurement à la notification des griefs ».

Le Conseil d’État a aussi rejeté l’argument de l’entreprise qui considérait avoir pseudonymisé les données concernées. Il explique « qu’une donnée ne peut être considérée comme ayant été rendue anonyme par une pseudonymisation que si le risque d’identification est insignifiant, une telle identification étant irréalisable en pratique, notamment parce qu’elle impliquerait un effort démesuré en termes de temps, de coût et de main-d’œuvre ».

Criteo a fait valoir « que les données qu’elle traite n’ont pas le caractère de données personnelles, au motif qu’elle attribue à chaque personne dont elle collecte les données un identifiant sous forme de pseudonyme, lié à l’adresse IP du terminal ».

Mais le Conseil d’État souligne qu’après instruction, le constat est que « sont notamment associés à cet identifiant, non seulement l’adresse IP elle-même, mais des données telles que l’emplacement géographique lié à cette adresse IP, l’identifiant du terminal, les identifiants, propres aux partenaires de Criteo, des personnes se rendant sur le site de ces partenaires, ainsi que de très nombreux éléments liés à l’activité de navigation de ces personnes, comme les sites visités, les achats faits, les publicités consultées et celles ayant donné lieu à un achat ».

☕️ Le Conseil d’État déboute Criteo et confirme l’amende de 40 millions d’euros de la CNIL

5 mars 2026 à 11:35

Dans une décision prise ce mercredi 4 mars, le Conseil d’État a rejeté la demande de Criteo d’annuler l’amende de 40 millions d’euros que lui a infligée la CNIL en 2023.

L’autorité avait sanctionné Criteo pour avoir violé le RGPD sur plusieurs points et notamment sur le consentement, l’information et le droit d’accès des personnes dont l’entreprise a utilisé des données personnelles. Elle avait cependant réduit le montant de l’amende d’un tiers par rapport à ce que proposait son rapporteur.

L’entreprise a porté cette décision devant le Conseil d’État, considérant notamment qu’elle se basait sur des déclarations obtenues sans qu’il soit indiqué au représentant légal interrogé le droit de se taire. Pour le Conseil d’État, « le droit de se taire ne s’applique pas lors des contrôles ou enquêtes » de la CNIL pour les vérifications « diligentées antérieurement à la notification des griefs ».

Le Conseil d’État a aussi rejeté l’argument de l’entreprise qui considérait avoir pseudonymisé les données concernées. Il explique « qu’une donnée ne peut être considérée comme ayant été rendue anonyme par une pseudonymisation que si le risque d’identification est insignifiant, une telle identification étant irréalisable en pratique, notamment parce qu’elle impliquerait un effort démesuré en termes de temps, de coût et de main-d’œuvre ».

Criteo a fait valoir « que les données qu’elle traite n’ont pas le caractère de données personnelles, au motif qu’elle attribue à chaque personne dont elle collecte les données un identifiant sous forme de pseudonyme, lié à l’adresse IP du terminal ».

Mais le Conseil d’État souligne qu’après instruction, le constat est que « sont notamment associés à cet identifiant, non seulement l’adresse IP elle-même, mais des données telles que l’emplacement géographique lié à cette adresse IP, l’identifiant du terminal, les identifiants, propres aux partenaires de Criteo, des personnes se rendant sur le site de ces partenaires, ainsi que de très nombreux éléments liés à l’activité de navigation de ces personnes, comme les sites visités, les achats faits, les publicités consultées et celles ayant donné lieu à un achat ».

Reçu — 4 mars 2026 Actualités numériques

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

4 mars 2026 à 07:41
Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

4 mars 2026 à 07:41
Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

Reçu — 3 mars 2026 Actualités numériques

Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

3 mars 2026 à 14:15
« Le passage à Linux, c’est quand même un peu le boss de fin de niveau »
Municipales : « passer aux logiciels libres, c’est faisable, on l’a fait », mais…

Comment les mairies peuvent-elles s’emparer des questions de souveraineté numérique ? À l’occasion des municipales qui auront lieu les 15 et 22 mars 2026, Next vous propose un entretien avec Nicolas Vivant, directeur de la stratégie numérique embauché par la ville d’Échirolles en 2021 pour mettre en œuvre une politique du numérique prenant en compte une volonté d’autonomie.

Les élections municipales approchent et les questions sur la souveraineté et l’utilisation des logiciels libres sont de nouveau sur le devant de la scène. Next a voulu savoir comment ça se passait concrètement dans une ville qui a choisi de passer au libre.

La ville d’Échirolles (dont la maire est Amandine Demore, PCF), près de Grenoble, est connue depuis quelques années pour avoir mis en place une politique du numérique tournée vers le logiciel libre. Next a interrogé Nicolas Vivant qui travaille pour la ville en tant que directeur de la stratégie numérique depuis 2021.

>> Quand la ville d’Échirolles a vraiment eu une politique tournée vers les logiciels libres ?

C’est difficile à dire. En 2014, l’élu en charge du sujet, Aurélien Farge, a signé la charte des logiciels libres et a cette volonté d’avancer sur le sujet. Mais, il n’y a pas grand-chose d’autre qui est structuré à ce moment-là. Le lien avec le service informatique n’est pas vraiment établi. C’est une prise de parole politique mais qui, sur le mandat 2014 - 2020, n’est pas vraiment déclinée au niveau opérationnel.

Mais, en 2020, il y a, de la part du même élu, une volonté d’avancer concrètement sur le sujet en disant qu’il y a des enjeux politiques autour du numérique et qu’il faut les travailler.

Il y a donc deux périodes, 2014 - 2020 puis 2020 - 2025, avec cette fois-là, la direction générale qui affirme que si on veut vraiment avancer sur ce sujet, il faut se structurer. Ça passe par la commande d’une étude sur le numérique à un cabinet local. Mais aussi par la création d’un groupe de travail des élus sur le numérique.

Ça, c’est vraiment très intéressant, j’ai rarement vu ça : cet adjoint réunit 5 ou 6 autres adjoints (celui aux CCAS, aux RH,…) et ils réfléchissent ensemble sur ce que représente le numérique chacun dans leur délégation. Et, ils rédigent une feuille de route du numérique pour la ville. En parallèle, avec l’appui de la direction générale des services, il crée un poste de directeur de la stratégie et de la culture numérique. Un très bon réflexe qu’ils ont, c’est de mettre le service informatique interne sous ma responsabilité hiérarchique, ce qui me donne les moyens d’influer sur ce qui peut se passer.


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 13:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Dagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 13:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Dagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

Reçu — 2 mars 2026 Actualités numériques

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

2 mars 2026 à 14:12

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

2 mars 2026 à 14:12

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

2 mars 2026 à 13:41
Fausse bonne idée
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.

Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.

Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.

Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.

Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.

Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne

Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.

« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].

Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.

Besoin d’un consensus scientifique avant de s’y aventurer

Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».

« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.

Les systèmes d’estimation d’âge, trop intrusifs

Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».

Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».

Une infrastructure mondiale ?

Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.

De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.

« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.

Des dangers sur le contrôle de l’information et de l’expression en ligne

La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».

Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

2 mars 2026 à 13:41
Fausse bonne idée
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.

Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.

Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.

Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.

Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.

Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne

Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.

« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].

Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.

Besoin d’un consensus scientifique avant de s’y aventurer

Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».

« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.

Les systèmes d’estimation d’âge, trop intrusifs

Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».

Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».

Une infrastructure mondiale ?

Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.

De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.

« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.

Des dangers sur le contrôle de l’information et de l’expression en ligne

La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».

En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

2 mars 2026 à 08:40
Dont la contraception, le VIH et l'avortement
En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

Meta met en place des filtres pour l’usage de ses services par les mineurs, qui bloquent toute discussion mettant en jeu des actes sensuels ou sexuels, et ajoute des protections à propos des troubles alimentaires et la dépression. L’entreprise a aussi décidé de restreindre les discussions de ses chatbots avec les mineurs sur la santé sexuelle, l’éducation à la sexualité, la contraception, la prévention des MST (notamment le VIH et le SIDA) ainsi que l’avortement.

Pour Meta, la gestion de ses utilisateurs mineurs est un sujet sensible en ce moment. La semaine dernière, Mark Zuckerberg était pressé devant la justice états-unienne de justifier la politique de Meta relative aux préados dans le procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans, Kaley G. M. Au cours de ce même procès, on a appris que l’entreprise avait enterré une recherche qui ne lui convenait pas à propos de l’addiction aux réseaux sociaux des adolescents.

Une alerte aux parents en cas de recherches Instagram répétées sur le suicide ou l’automutilation

L’entreprise a annoncé ce jeudi 26 février mettre en place un système d’alerte sur Instagram qui va informer les parents qui utilisent ses outils de contrôle parental si leur enfant « tente à plusieurs reprises de rechercher des termes liés au suicide ou à l’automutilation dans un court laps de temps ».

L’alerte sera envoyée par e-mail, SMS ou WhatsApp, en fonction des coordonnées disponibles, ainsi que par le biais d’une notification dans l’application. Le système sera mis en place dès les prochaines semaines aux États-Unis, au Royaume-Uni, en Australie et au Canada et sera déployé pendant l’année dans d’autres pays.

Cette fonctionnalité est possible car l’entreprise a mis en place, sur Instagram depuis septembre 2024 et sur Facebook et Messenger depuis avril 2025, un nouveau type de compte « adolescent » avec un contrôle parental renforcé.

« Nous lançons ces alertes dans un premier temps sur la fonction de recherche Instagram, mais nous savons que les adolescents se tournent de plus en plus vers l’IA pour obtenir de l’aide », explique l’entreprise :

« Bien que notre IA soit déjà entraînée pour répondre en toute sécurité aux adolescents et leur fournir des ressources appropriées sur ces sujets, nous mettons actuellement en place des alertes parentales similaires pour certaines expériences d’IA. Celles-ci avertiront les parents si un adolescent tente d’engager certains types de conversations liées au suicide ou à l’automutilation avec notre IA. »

Une politique de modération bloquant l’information sur la sexualité, la contraception et l’avortement

Mother Jones s’est procuré des documents internes à l’entreprise préparatoires à la mise en place de cette politique. Ainsi, « les contenus qui discutent, décrivent, permettent, encouragent ou approuvent les actes sensuels, les actes sexuels, l’excitation sexuelle ou le plaisir sexuel » sont maintenant bloqués si l’utilisateur est mineur. Ils sont orientés vers des informations sur la santé mentale s’ils posent des questions liées au suicide ou à l’automutilation et vers un numéro vert sur les questions de troubles alimentaires et la dépression.

Mais ces documents, selon notre confrère, interdisent que les chatbots de Meta génèrent aux mineurs « des contenus fournissant des conseils ou des avis sur la santé sexuelle », notamment « l’anatomie et la physiologie des organes reproducteurs, l’éducation à la puberté, la santé menstruelle, la fécondation et la reproduction, la prévention des IST et du VIH, les méthodes contraceptives, l’éducation au consentement et l’abstinence ». L’entreprise interdit aussi la génération de messages encourageant les adolescents à utiliser des préservatifs ou des produits d’hygiène menstruelle.

Mother Jones affirme que ces politiques de Meta vis-à-vis des contenus générés par IA pour les adolescents interdisent explicitement de donner des informations qui les aident à obtenir ou à pratiquer un avortement comme « vous pouvez aller dans un centre de planification familiale pour avorter ».

« Nos IA sont entraînées pour engager des discussions adaptées à l’âge des adolescents et pour les mettre en relation avec des ressources spécialisées et un soutien lorsque cela est nécessaire. Elles fournissent des informations factuelles sur la santé sexuelle, mais s’abstiennent de donner des conseils ou des avis » a répondu Meta à Mother Jones. « Nous révisons et améliorons continuellement nos protections afin que les adolescents aient accès à des informations utiles avec des mesures de sécurité par défaut en place » , ajoute l’entreprise.

En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

2 mars 2026 à 08:40
Dont la contraception, le VIH et l'avortement
En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

Meta met en place des filtres pour l’usage de ses services par les mineurs, qui bloquent toute discussion mettant en jeu des actes sensuels ou sexuels, et ajoute des protections à propos des troubles alimentaires et la dépression. L’entreprise a aussi décidé de restreindre les discussions de ses chatbots avec les mineurs sur la santé sexuelle, l’éducation à la sexualité, la contraception, la prévention des MST (notamment le VIH et le SIDA) ainsi que l’avortement.

Pour Meta, la gestion de ses utilisateurs mineurs est un sujet sensible en ce moment. La semaine dernière, Mark Zuckerberg était pressé devant la justice états-unienne de justifier la politique de Meta relative aux préados dans le procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans, Kaley G. M. Au cours de ce même procès, on a appris que l’entreprise avait enterré une recherche qui ne lui convenait pas à propos de l’addiction aux réseaux sociaux des adolescents.

Une alerte aux parents en cas de recherches Instagram répétées sur le suicide ou l’automutilation

L’entreprise a annoncé ce jeudi 26 février mettre en place un système d’alerte sur Instagram qui va informer les parents qui utilisent ses outils de contrôle parental si leur enfant « tente à plusieurs reprises de rechercher des termes liés au suicide ou à l’automutilation dans un court laps de temps ».

L’alerte sera envoyée par e-mail, SMS ou WhatsApp, en fonction des coordonnées disponibles, ainsi que par le biais d’une notification dans l’application. Le système sera mis en place dès les prochaines semaines aux États-Unis, au Royaume-Uni, en Australie et au Canada et sera déployé pendant l’année dans d’autres pays.

Cette fonctionnalité est possible car l’entreprise a mis en place, sur Instagram depuis septembre 2024 et sur Facebook et Messenger depuis avril 2025, un nouveau type de compte « adolescent » avec un contrôle parental renforcé.

« Nous lançons ces alertes dans un premier temps sur la fonction de recherche Instagram, mais nous savons que les adolescents se tournent de plus en plus vers l’IA pour obtenir de l’aide », explique l’entreprise :

« Bien que notre IA soit déjà entraînée pour répondre en toute sécurité aux adolescents et leur fournir des ressources appropriées sur ces sujets, nous mettons actuellement en place des alertes parentales similaires pour certaines expériences d’IA. Celles-ci avertiront les parents si un adolescent tente d’engager certains types de conversations liées au suicide ou à l’automutilation avec notre IA. »

Une politique de modération bloquant l’information sur la sexualité, la contraception et l’avortement

Mother Jones s’est procuré des documents internes à l’entreprise préparatoires à la mise en place de cette politique. Ainsi, « les contenus qui discutent, décrivent, permettent, encouragent ou approuvent les actes sensuels, les actes sexuels, l’excitation sexuelle ou le plaisir sexuel » sont maintenant bloqués si l’utilisateur est mineur. Ils sont orientés vers des informations sur la santé mentale s’ils posent des questions liées au suicide ou à l’automutilation et vers un numéro vert sur les questions de troubles alimentaires et la dépression.

Mais ces documents, selon notre confrère, interdisent que les chatbots de Meta génèrent aux mineurs « des contenus fournissant des conseils ou des avis sur la santé sexuelle », notamment « l’anatomie et la physiologie des organes reproducteurs, l’éducation à la puberté, la santé menstruelle, la fécondation et la reproduction, la prévention des IST et du VIH, les méthodes contraceptives, l’éducation au consentement et l’abstinence ». L’entreprise interdit aussi la génération de messages encourageant les adolescents à utiliser des préservatifs ou des produits d’hygiène menstruelle.

Mother Jones affirme que ces politiques de Meta vis-à-vis des contenus générés par IA pour les adolescents interdisent explicitement de donner des informations qui les aident à obtenir ou à pratiquer un avortement comme « vous pouvez aller dans un centre de planification familiale pour avorter ».

« Nos IA sont entraînées pour engager des discussions adaptées à l’âge des adolescents et pour les mettre en relation avec des ressources spécialisées et un soutien lorsque cela est nécessaire. Elles fournissent des informations factuelles sur la santé sexuelle, mais s’abstiennent de donner des conseils ou des avis » a répondu Meta à Mother Jones. « Nous révisons et améliorons continuellement nos protections afin que les adolescents aient accès à des informations utiles avec des mesures de sécurité par défaut en place » , ajoute l’entreprise.

☕️ Paramount va racheter Warner et verser 2,8 milliards de dollars à Netflix

2 mars 2026 à 08:30

La semaine dernière, Netflix annonçait l’abandon de son offre de rachat des studios de cinéma et télévision Warner Bros ainsi que du service HBO Max.

Quelques heures plus tard, Paramount Skydance publiait un communiqué expliquant que c’était finalement elle qui allait s’en emparer, comme c’était devenu prévisible. Rachetée il y a quelques mois par Larry Ellison et sa famille, l’entreprise s’empare donc d’un autre studio mythique d’Hollywood.

Le château d’eau de Warner Bros, par Silas Lundquist, Licence Unsplash

Pour rassurer les régulateurs de la concurrence, Paramount s’engage notamment à produire au moins 30 films pour les salles de cinéma par an, avec une fenêtre de 45 jours minimum avant qu’ils ne soient accessibles en VOD (et de 60 à 90 jours ou plus pour ceux qui rassemblent le plus de spectateurs en salle). L’accord doit être finalisé à la fin de l’année au maximum.

D’autre part, dans un document remis à la SEC (Securities and Exchange Commission, l’organisme de réglementation et de contrôle des marchés financiers des États-Unis), Warner Bros et Paramount se sont engagés à payer 2,8 milliards de dollars à Netflix pour avoir cassé l’accord de fusion qui avait été mis en place en décembre.

☕️ Paramount va racheter Warner et verser 2,8 milliards de dollars à Netflix

2 mars 2026 à 08:30

La semaine dernière, Netflix annonçait l’abandon de son offre de rachat des studios de cinéma et télévision Warner Bros ainsi que du service HBO Max.

Quelques heures plus tard, Paramount Skydance publiait un communiqué expliquant que c’était finalement elle qui allait s’en emparer, comme c’était devenu prévisible. Rachetée il y a quelques mois par Larry Ellison et sa famille, l’entreprise s’empare donc d’un autre studio mythique d’Hollywood.

Le château d’eau de Warner Bros, par Silas Lundquist, Licence Unsplash

Pour rassurer les régulateurs de la concurrence, Paramount s’engage notamment à produire au moins 30 films pour les salles de cinéma par an, avec une fenêtre de 45 jours minimum avant qu’ils ne soient accessibles en VOD (et de 60 à 90 jours ou plus pour ceux qui rassemblent le plus de spectateurs en salle). L’accord doit être finalisé à la fin de l’année au maximum.

D’autre part, dans un document remis à la SEC (Securities and Exchange Commission, l’organisme de réglementation et de contrôle des marchés financiers des États-Unis), Warner Bros et Paramount se sont engagés à payer 2,8 milliards de dollars à Netflix pour avoir cassé l’accord de fusion qui avait été mis en place en décembre.

Reçu — 27 février 2026 Actualités numériques

☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI

27 février 2026 à 15:27

Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

LPLT, licence Creative Commons by-sa 3.0

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».

Les données concernées sont les suivantes :

  • Civilité, nom et prénom d’usage.
  • Courriel pro, et éventuellement personnel s’il a été renseigné.
  • Données d’identification: nom d’utilisateur, mais pas le mot de passe.
  • Fonction et affectation.
  • Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
  • Permissions d’accès aux services et aux locaux.
  • Abonnements aux listes de diffusion.
  • Pour les étudiants: inscriptions pédagogiques.
  • Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
  • Pour le personnel salarié de la régie: corps, date de fin de contrat.
  • Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.

Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».

Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.

☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI

27 février 2026 à 15:27

Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

LPLT, licence Creative Commons by-sa 3.0

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».

Les données concernées sont les suivantes :

  • Civilité, nom et prénom d’usage.
  • Courriel pro, et éventuellement personnel s’il a été renseigné.
  • Données d’identification: nom d’utilisateur, mais pas le mot de passe.
  • Fonction et affectation.
  • Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
  • Permissions d’accès aux services et aux locaux.
  • Abonnements aux listes de diffusion.
  • Pour les étudiants: inscriptions pédagogiques.
  • Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
  • Pour le personnel salarié de la régie: corps, date de fin de contrat.
  • Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.

Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».

Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.

Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

27 février 2026 à 13:30
And chill?
Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

Netflix retire finalement sa proposition de rachat des studios de la Warner Bros, l’offre initiale atteignait près de 83 milliards de dollars et visait l’intégralité des studios de cinéma et de télévision ainsi que le service HBO Max. Et c’est la Paramount Skydance, dirigée par David Ellison, qui devrait en profiter alors qu’elle a récemment formulé une offre pour 110 milliards de dollars.

Le montant est trop cher, selon Netflix. Le géant du streaming abandonne finalement son projet de rachat de Warner Bros annoncé début décembre.

« La transaction que nous avons négociée aurait créé de la valeur pour les actionnaires et aurait ouvert la voie à l’obtention de l’autorisation réglementaire », affirme l’entreprise dans un communiqué. « Cependant, nous avons toujours fait preuve de discipline, et au prix requis pour égaler la dernière offre de Paramount Skydance, l’opération n’est plus intéressante sur le plan financier. Nous refusons donc d’égaler l’offre de Paramount Skydance ».

En effet, juste après l’annonce de la signature de l’accord entre Netflix et Warner Bros, Paramount a lancé sa contre-attaque. L’entreprise rachetée quelques mois auparavant par Skydance grâce aux financements du patron d’Oracle, Larry Ellison, et dirigée par son fils, David, s’est rapidement positionnée pour contrer l’offre de Netflix avec une offre à 30 dollars par action.

Pressions de Donald Trump

La proposition de Paramount Skydance était soutenue par Donald Trump. Rappelons que Larry Ellison est un de ses soutiens financiers importants, organisant une levée de fonds pour sa campagne de 2020. Le dirigeant états-unien avait, dès l’annonce de la volonté de Netflix de racheter Warner Bros, exprimé ses réticences. Il avait souligné dès décembre 2025 que Netflix avait déjà « une très grosse part de marché » et que ça « pourrait poser un problème ». Samedi dernier, Donald Trump s’était attaqué à l’une des membres du conseil d’administration de Netflix, Susan Rice, demandant qu’elle en soit exclue. Celle-ci avait affirmé dans un podcast que les entreprises qui ont « mis genou à terre face à Trump » auront à rendre des comptes si les démocrates gagnaient les élections de mi-mandat aux États-Unis.

Et mercredi, la famille Ellison en a remis une couche et a relevé son offre à 31 dollars par action. Cette offre inclut la reprise de la dette de Warner Bros et valorise l’entreprise autour de 110 milliards de dollars. Paramount Skydance jugeait de plus que son offre avait davantage de possibilités d’être autorisée par les régulateurs. « Nous sommes ravis que le conseil d’administration de Warner Bros ait unanimement confirmé la valeur supérieure de notre offre, qui apporte aux actionnaires de Warner Bros une valeur supérieure, une certitude et une rapidité de clôture », affirmait David Ellison dans le communiqué de l’entreprise.

Le texte précisait aussi que « le fonds Ellison Trust s’engage à fournir 45,7 milliards de dollars de capitaux propres, et Larry Ellison garantit cet engagement, y compris l’obligation d’apporter des fonds propres supplémentaires à Paramount dans la mesure nécessaire pour soutenir le certificat de solvabilité exigé par les banques prêteuses de Paramount ».

Une acquisition pas « indispensable » pour Netflix

Netflix déclare finalement que « cette transaction a toujours été considérée comme  » intéressante » à un prix raisonnable, et non comme « indispensable » à n’importe quel prix » dans son communiqué. Elle s’affiche comme « saine, solide et en pleine croissance organique, alimentée par [sa] plateforme et [son] service de streaming haut de gamme ».

Les investisseurs semblent avoir plutôt bien accueilli cette décision puisque, dans les échanges après-marché, les actions de Netflix bondissaient de 9 %. Du côté de la Paramount, le titre a augmenté de 6 % après une hausse de 10 % dans la journée.

David Zaslav, le CEO de Warner Bros, s’est rapidement affiché enthousiaste à l’idée de fusionner finalement avec l’entreprise dirigée par David Ellison : « Une fois que notre conseil d’administration aura voté en faveur de l’accord de fusion avec Paramount, cela créera une valeur considérable pour nos actionnaires », affirme-t-il au média spécialisé dans le business hollywoodien, Deadline. « Nous sommes motivés par le potentiel d’une alliance entre Paramount Skydance et Warner Bros. Discovery et sommes impatients de commencer à travailler ensemble pour raconter des histoires qui touchent le monde entier. »

❌