Vue normale

Reçu aujourd’hui — 5 décembre 2025

Les ONG coincées par la lecture que Meta fait du règlement sur les publicités politiques

5 décembre 2025 à 10:43
Ungiving day
Les ONG coincées par la lecture que Meta fait du règlement sur les publicités politiques

Depuis le début du mois d’octobre, plusieurs ONG constatent des difficultés d’une ampleur inégalée dans la diffusion de leurs publicités sur les réseaux sociaux de Meta. L’entreprise a adopté une lecture très extensive du règlement européen sur la publicité politique.

« En octobre, on avait une grosse campagne pour Gaza. On s’est aperçus qu’une de nos publications emblématiques, qui évoquait la réalité de Gaza, avec des mots comme « guerre », ou « souffrance », ne passait pas. » Marie-Charlotte Brun est directrice Marketing et Développement de l’Unicef France. Et depuis le début du mois, elle constate que promouvoir les campagnes du Fonds des Nations unies pour l’enfance est devenu nettement plus difficile sur les plateformes de Meta. « On a fait des tests, on l’a expurgée, et finalement la publication est passée. Mais évoquer Gaza sans parler de guerre ou de souffrance, ça dévoie la communication. »

En avril 2024, le règlement européen sur la transparence et le ciblage de la publicité à caractère politique (TTPA) entrait en vigueur. Depuis, les déclarations de géants numériques se sont succédé. En novembre 2024, la responsable des relations publiques de Google annonçait que l’entreprise cesserait de « diffuser de la publicité politique dans l’UE avant l’entrée en vigueur de la nouvelle réglementation en octobre 2025 ». En juillet 2025, Meta déclarait la fin de la publicité « politique, électorale et sur les sujets sociaux » pour se plier au texte. Quelque part entre le mois de septembre et début octobre, Google supprimait l’accès à sept ans d’archives des publicités politiques en Europe, sans faire de commentaires.

Et puis le 10 octobre dernier, le texte est entré en application. En quelques semaines à peine, plusieurs organisations non gouvernementales d’envergure ont vu le changement : du côté de Meta, la décision de cesser toute publicité « politique, électorale et sur les sujets sociaux » touchait un périmètre très large, et elles se retrouvaient prises dans le filet.

Plus du quart des publicités de l’UNICEF France rejetées

Pour preuve, le 6 octobre, « toutes nos publicités ont été rejetées et supprimées », explique la directrice de l’engagement de la Fondation des Femmes Lise Gallard. « On avait connaissance des mesures qu’ils comptaient prendre, on se préoccupait de ne plus pouvoir sponsoriser nos campagnes, mais sur le coup, toutes les publicités ont été supprimées, y compris des textes qui se contentaient de dire « tendons-leur la main ». »


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu hier — 4 décembre 2025

LinkedIn favorise-t-il les profils masculins ?

4 décembre 2025 à 15:16
LinkedIneuses en colère
LinkedIn favorise-t-il les profils masculins ?

Un groupe d’internautes a mené une nouvelle expérimentation sur LinkedIn pour tenter d’observer si, oui ou non, la plateforme promouvait davantage les publications des hommes. LinkedIn réfute prendre le genre en considération parmi les éléments permettant de hiérarchiser les différents messages et déclare mener des « contrôles d’équité » avant de déployer ses outils.

L’enquête crowdsourcée sur les potentiels biais sexistes de LinkedIn continue. Courant novembre, pour tenter d’objectiver la visibilité que LinkedIn donne aux publications selon le genre de leurs autrices et auteurs, un groupe d’internautes a lancé une expérience : modifier leur nom – Simone Bonnett, par exemple, est devenue Simon E-, voire adapter le genre indiqué à LinkedIn depuis les paramètres du profil.

Certaines femmes ont aussi adapté la présentation de leur profil pour les rendre plus « masculines » ou « bro-coded », parfois à l’aide de modèles génératifs. En pratique, explique la communicante Megan Cornish, autrice d’une publication devenue virale sur le sujet, il s’agit notamment de choisir des mots orientés sur l’action dans le monde économique, comme « dynamiser », « transformer » ou « accélérer ». Un vocabulaire très inhabituel pour Megan Cornish, dont l’expertise concerne la santé mentale, un domaine où le langage est plus souvent « compris comme « féminin », car anglé sur la collaboration, le soin, et moins agressif ».

Extrait de la publication de Megan Cornish

Au bout d’à peine une semaine, plusieurs femmes ont rapporté des hausses de l’engagement autour de leurs publications :+ 1 600 % de vues de profils,+ 1 300 % d’impressions pour le compte de la consultante en réseaux sociaux Simone Bonnett ;+ 116 % impressions sur celui de l’autrice et entrepreneuse féministe Felice Ayling,+ 244 % impressions pour l’investisseuse Jo Dalton. Des hommes ayant « féminisé » leur profil pour tester la logique inverse ont rapporté des chutes d’impressions. Les débats ont pris une telle ampleur que Megan Cornish a obtenu quelques réponses de la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper.

Le double système de diffusion de contenu de LinkedIn

Il ne s’agit pas de la première enquête citoyenne de ce type. Cet été, un groupe d’utilisatrices et utilisateurs, principalement anglophones, menaient de premières expérimentations sur le sujet. Depuis des profils féminins et masculins choisis pour présenter une variété de tailles de communautés (des hommes et des femmes très suivis, d’autres possédant de plus petits comptes) postaient le même message et la même image à la même heure, puis, au bout de 72 heures, collectaient les données d’exposition des publications.

Les premiers résultats obtenus convainquaient les initiatrices de ce projet, dont les entrepreneuses Jane Evans et Cindy Gallop, de continuer leurs tests à plus large échelle.

Megan Cornish, elle, a commencé ses expérimentations dans son coin, après avoir vu son reach chuter drastiquement au fil de l’année. Auprès de Next, la consultante en stratégie de contenu Émilie Houdou expliquait en septembre que les outils de recommandations de LinkedIn s’appuient principalement sur deux dynamiques : un système observe la réaction des contacts dans les premières 90 minutes (à Megan Cornish, Laura Lorenzetti Soper précise même : au cours de la « première heure »), et un autre, plus affinitaire, promeut les publications en fonction des intérêts des internautes.

Émilie Houdou précisait que, courant 2025, « les deux systèmes ont beaucoup bougé ». Parmi ses clients, indépendamment du genre, elle constatait que certains profils avaient vu leur reach « divisé par deux ».

LinkedIn réfute utiliser le genre comme signal

Dans le monde anglophone, les expérimentations de Megan Cornish, Simone Bennett et d’autres ont animé tellement de discussions que la responsable sécurité de l’IA, vie privée et gouvernance de LinkedIn, Sakshi Jain, a publié un article dédié au sujet.

Megan Cornish a par ailleurs obtenu un entretien avec la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper. Parmi les éléments principaux de cette conversation, que la première rapporte dans une newsletter, la directrice exécutive de Linkedin déclare : « nous n’utilisons pas le genre comme élément de hiérarchisation [ranking, ndlr] ».

Cela ne signifie évidemment pas que LinkedIn n’ait pas notion du genre des usagers. Dans son propre centre d’aide, l’entreprise indique :

« LinkedIn peut déduire votre âge et votre sexe d’après les informations de votre profil. Par exemple, nous pouvons déduire votre sexe d’après votre prénom ou les pronoms utilisés lorsque d’autres personnes recommandent vos compétences. Nous pouvons déduire votre âge d’après l’année à laquelle vous avez obtenu un diplôme. (…) Nous utilisons l’âge et le sexe déduits afin de fournir des informations agrégées sur les audiences LinkedIn pour les membres de LinkedIn, nos clients et nos partenaires, et de personnaliser le contenu tel que les publicités. Vous pouvez désactiver ce ciblage dans vos préférences. Nous utilisons ces informations agrégées pour mener des études de recherche et développement concernant, par exemple, l’équité et la diversité des services. »

Ce dernier élément est d’ailleurs cité par Laura Lorenzetti Soper : outre le genre, l’entreprise teste aussi l’équité (fairness check) en fonction de la couleur de peau aux États-Unis. La directrice éditoriale de la plateforme précise par ailleurs que les grands modèles de langage ne sont pas utilisés pour des tâches de hiérarchisation, mais plutôt pour des logiques de classification des publications, du côté des équipes de modération. À la question « utilisez-vous des termes propres au monde des affaires, ou le ton assertif (c’est-à-dire plutôt masculins) comme signaux positifs ? », Laura Lorenzetti Soper répond encore : « non ».

La cadre de LinkedIn admet en revanche que l’entreprise constate, elle aussi, un nombre important d’utilisateurs et utilisatrices rapportant des chutes de reach sur le courant de la dernière année. La « production globale de l’écosystème a augmenté », indique-t-elle, ce qui pourrait provoquer une compétition croissante pour la visibilité, donc des statistiques de vues en baisse.

L’insoluble question des biais indirects

Dans sa newsletter, Megan Cornish remercie par ailleurs – ironiquement – les hommes lui ayant envoyé des commentaires, voire des mails, pour lui souligner qu’il « n’existe pas de bouton secret pour faire taire les femmes ». S’ils s’arrêtent à cette idée, estime-t-elle, « peut-être ne [sont-ils] pas prêts pour la conversation » concernant les biais indirects susceptibles de se retrouver dans les systèmes informatiques aux dépens de leurs constructeurs.

Et de détailler, en prenant l’exemple de son domaine d’expertise : « Les femmes et les domaines relationnels, comme la santé mentale, sont invités à s’adapter à un système qui, que ce soit sur le plan culturel ou algorithmique, est calibré sur une vision étroite de ce que signifie « affaires » [business]. Même si la machine est neutre vis-à-vis du genre en tant que variable, elle n’est pas neutre vis-à-vis des modèles qui profitent aux personnes qui correspondent déjà à la norme. »

Or, quand bien même LinkedIn distribuerait les publications de manière strictement égale, « si la culture dit : « Je prends les hommes plus au sérieux en tant que voix du monde des affaires », alors les femmes sont perdantes bien avant que l’algorithme n’entre en jeu. » Autrement dit, les usages en ligne ne feront que reproduire des inégalités présentes hors ligne, et le public participera directement à la sur-promotion de certains profils au détriment d’autres.

En définitive, l’entrepreneuse appelle la plateforme à opérer une forme de « transparence radicale là où c’est possible », mais aussi à faire de l’espace « pour les industries relationnelles ». En d’autres termes, elle demande à ce que LinkedIn offre plus de souplesse pour les industries et personnes dont le mode de communication le plus courant ne correspond pas aux canons très business et très orientés productivité devenus si fréquents, sur le réseau professionnel, que des comptes entiers sont dédiés à s’en moquer (mais plutôt depuis X ou Facebook).

Dans la même logique, et toujours en réaction aux expérimentations des dernières semaines, des internautes ont créé une pétition pour demander plus de visibilité sur le fonctionnement du réseau social professionnel. Entre autres requêtes, le texte formule celles d’un « processus formel pour expliquer toute chute inexpliquée du reach », de « transparence sur la manière dont les publications sont catégorisées et hiérarchisées » ou encore d’un « audit indépendant de l’algorithme et de son impact sur les voix marginalisées ».

LinkedIn favorise-t-il les profils masculins ?

4 décembre 2025 à 15:16
LinkedIneuses en colère
LinkedIn favorise-t-il les profils masculins ?

Un groupe d’internautes a mené une nouvelle expérimentation sur LinkedIn pour tenter d’observer si, oui ou non, la plateforme promouvait davantage les publications des hommes. LinkedIn réfute prendre le genre en considération parmi les éléments permettant de hiérarchiser les différents messages et déclare mener des « contrôles d’équité » avant de déployer ses outils.

L’enquête crowdsourcée sur les potentiels biais sexistes de LinkedIn continue. Courant novembre, pour tenter d’objectiver la visibilité que LinkedIn donne aux publications selon le genre de leurs autrices et auteurs, un groupe d’internautes a lancé une expérience : modifier leur nom – Simone Bonnett, par exemple, est devenue Simon E-, voire adapter le genre indiqué à LinkedIn depuis les paramètres du profil.

Certaines femmes ont aussi adapté la présentation de leur profil pour les rendre plus « masculines » ou « bro-coded », parfois à l’aide de modèles génératifs. En pratique, explique la communicante Megan Cornish, autrice d’une publication devenue virale sur le sujet, il s’agit notamment de choisir des mots orientés sur l’action dans le monde économique, comme « dynamiser », « transformer » ou « accélérer ». Un vocabulaire très inhabituel pour Megan Cornish, dont l’expertise concerne la santé mentale, un domaine où le langage est plus souvent « compris comme « féminin », car anglé sur la collaboration, le soin, et moins agressif ».

Extrait de la publication de Megan Cornish

Au bout d’à peine une semaine, plusieurs femmes ont rapporté des hausses de l’engagement autour de leurs publications :+ 1 600 % de vues de profils,+ 1 300 % d’impressions pour le compte de la consultante en réseaux sociaux Simone Bonnett ;+ 116 % impressions sur celui de l’autrice et entrepreneuse féministe Felice Ayling,+ 244 % impressions pour l’investisseuse Jo Dalton. Des hommes ayant « féminisé » leur profil pour tester la logique inverse ont rapporté des chutes d’impressions. Les débats ont pris une telle ampleur que Megan Cornish a obtenu quelques réponses de la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper.

Le double système de diffusion de contenu de LinkedIn

Il ne s’agit pas de la première enquête citoyenne de ce type. Cet été, un groupe d’utilisatrices et utilisateurs, principalement anglophones, menaient de premières expérimentations sur le sujet. Depuis des profils féminins et masculins choisis pour présenter une variété de tailles de communautés (des hommes et des femmes très suivis, d’autres possédant de plus petits comptes) postaient le même message et la même image à la même heure, puis, au bout de 72 heures, collectaient les données d’exposition des publications.

Les premiers résultats obtenus convainquaient les initiatrices de ce projet, dont les entrepreneuses Jane Evans et Cindy Gallop, de continuer leurs tests à plus large échelle.

Megan Cornish, elle, a commencé ses expérimentations dans son coin, après avoir vu son reach chuter drastiquement au fil de l’année. Auprès de Next, la consultante en stratégie de contenu Émilie Houdou expliquait en septembre que les outils de recommandations de LinkedIn s’appuient principalement sur deux dynamiques : un système observe la réaction des contacts dans les premières 90 minutes (à Megan Cornish, Laura Lorenzetti Soper précise même : au cours de la « première heure »), et un autre, plus affinitaire, promeut les publications en fonction des intérêts des internautes.

Émilie Houdou précisait que, courant 2025, « les deux systèmes ont beaucoup bougé ». Parmi ses clients, indépendamment du genre, elle constatait que certains profils avaient vu leur reach « divisé par deux ».

LinkedIn réfute utiliser le genre comme signal

Dans le monde anglophone, les expérimentations de Megan Cornish, Simone Bennett et d’autres ont animé tellement de discussions que la responsable sécurité de l’IA, vie privée et gouvernance de LinkedIn, Sakshi Jain, a publié un article dédié au sujet.

Megan Cornish a par ailleurs obtenu un entretien avec la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper. Parmi les éléments principaux de cette conversation, que la première rapporte dans une newsletter, la directrice exécutive de Linkedin déclare : « nous n’utilisons pas le genre comme élément de hiérarchisation [ranking, ndlr] ».

Cela ne signifie évidemment pas que LinkedIn n’ait pas notion du genre des usagers. Dans son propre centre d’aide, l’entreprise indique :

« LinkedIn peut déduire votre âge et votre sexe d’après les informations de votre profil. Par exemple, nous pouvons déduire votre sexe d’après votre prénom ou les pronoms utilisés lorsque d’autres personnes recommandent vos compétences. Nous pouvons déduire votre âge d’après l’année à laquelle vous avez obtenu un diplôme. (…) Nous utilisons l’âge et le sexe déduits afin de fournir des informations agrégées sur les audiences LinkedIn pour les membres de LinkedIn, nos clients et nos partenaires, et de personnaliser le contenu tel que les publicités. Vous pouvez désactiver ce ciblage dans vos préférences. Nous utilisons ces informations agrégées pour mener des études de recherche et développement concernant, par exemple, l’équité et la diversité des services. »

Ce dernier élément est d’ailleurs cité par Laura Lorenzetti Soper : outre le genre, l’entreprise teste aussi l’équité (fairness check) en fonction de la couleur de peau aux États-Unis. La directrice éditoriale de la plateforme précise par ailleurs que les grands modèles de langage ne sont pas utilisés pour des tâches de hiérarchisation, mais plutôt pour des logiques de classification des publications, du côté des équipes de modération. À la question « utilisez-vous des termes propres au monde des affaires, ou le ton assertif (c’est-à-dire plutôt masculins) comme signaux positifs ? », Laura Lorenzetti Soper répond encore : « non ».

La cadre de LinkedIn admet en revanche que l’entreprise constate, elle aussi, un nombre important d’utilisateurs et utilisatrices rapportant des chutes de reach sur le courant de la dernière année. La « production globale de l’écosystème a augmenté », indique-t-elle, ce qui pourrait provoquer une compétition croissante pour la visibilité, donc des statistiques de vues en baisse.

L’insoluble question des biais indirects

Dans sa newsletter, Megan Cornish remercie par ailleurs – ironiquement – les hommes lui ayant envoyé des commentaires, voire des mails, pour lui souligner qu’il « n’existe pas de bouton secret pour faire taire les femmes ». S’ils s’arrêtent à cette idée, estime-t-elle, « peut-être ne [sont-ils] pas prêts pour la conversation » concernant les biais indirects susceptibles de se retrouver dans les systèmes informatiques aux dépens de leurs constructeurs.

Et de détailler, en prenant l’exemple de son domaine d’expertise : « Les femmes et les domaines relationnels, comme la santé mentale, sont invités à s’adapter à un système qui, que ce soit sur le plan culturel ou algorithmique, est calibré sur une vision étroite de ce que signifie « affaires » [business]. Même si la machine est neutre vis-à-vis du genre en tant que variable, elle n’est pas neutre vis-à-vis des modèles qui profitent aux personnes qui correspondent déjà à la norme. »

Or, quand bien même LinkedIn distribuerait les publications de manière strictement égale, « si la culture dit : « Je prends les hommes plus au sérieux en tant que voix du monde des affaires », alors les femmes sont perdantes bien avant que l’algorithme n’entre en jeu. » Autrement dit, les usages en ligne ne feront que reproduire des inégalités présentes hors ligne, et le public participera directement à la sur-promotion de certains profils au détriment d’autres.

En définitive, l’entrepreneuse appelle la plateforme à opérer une forme de « transparence radicale là où c’est possible », mais aussi à faire de l’espace « pour les industries relationnelles ». En d’autres termes, elle demande à ce que LinkedIn offre plus de souplesse pour les industries et personnes dont le mode de communication le plus courant ne correspond pas aux canons très business et très orientés productivité devenus si fréquents, sur le réseau professionnel, que des comptes entiers sont dédiés à s’en moquer (mais plutôt depuis X ou Facebook).

Dans la même logique, et toujours en réaction aux expérimentations des dernières semaines, des internautes ont créé une pétition pour demander plus de visibilité sur le fonctionnement du réseau social professionnel. Entre autres requêtes, le texte formule celles d’un « processus formel pour expliquer toute chute inexpliquée du reach », de « transparence sur la manière dont les publications sont catégorisées et hiérarchisées » ou encore d’un « audit indépendant de l’algorithme et de son impact sur les voix marginalisées ».

☕️ ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

4 décembre 2025 à 09:41

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

☕️ ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

4 décembre 2025 à 09:41

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

Reçu avant avant-hier

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

3 décembre 2025 à 10:42
Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

3 décembre 2025 à 10:42
Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

☕️ OpenAI conclut un nouvel accord financier circulaire

2 décembre 2025 à 15:08

OpenAI a annoncé prendre une participation dans la société de private equity Thrive Holdings, dont la maison mère Thrive Capital est l’un des principaux investisseurs d’OpenAI, aux côtés de SoftBank, Microsoft et Khosla Ventures.

Si la société de Sam Altman n’a pas dépensé d’argent pour obtenir cette participation, d’après le Financial Times, elle a annoncé fournir des employés, des modèles, et divers produits et services aux sociétés de Thrive Holdings.

En échange, OpenAI devrait obtenir l’accès aux données des entreprises qui recourront à ses services, et être rémunéré sur les futurs rendements financiers de Thrive Holdings.

Ce faisant, l’entreprise ajoute un nouvel accord circulaire à la liste de ses contrats à double sens déjà conclus avec AMD, Nvidia et une poignée d’autres acteurs de l’écosystème.

☕️ OpenAI conclut un nouvel accord financier circulaire

2 décembre 2025 à 15:08

OpenAI a annoncé prendre une participation dans la société de private equity Thrive Holdings, dont la maison mère Thrive Capital est l’un des principaux investisseurs d’OpenAI, aux côtés de SoftBank, Microsoft et Khosla Ventures.

Si la société de Sam Altman n’a pas dépensé d’argent pour obtenir cette participation, d’après le Financial Times, elle a annoncé fournir des employés, des modèles, et divers produits et services aux sociétés de Thrive Holdings.

En échange, OpenAI devrait obtenir l’accès aux données des entreprises qui recourront à ses services, et être rémunéré sur les futurs rendements financiers de Thrive Holdings.

Ce faisant, l’entreprise ajoute un nouvel accord circulaire à la liste de ses contrats à double sens déjà conclus avec AMD, Nvidia et une poignée d’autres acteurs de l’écosystème.

☕️ Le Sénat augmente la fiscalité des géants du numérique

2 décembre 2025 à 11:27

Pendant l’examen du projet de loi de finances (PLF) 2026, le Sénat a adopté le 29 novembre deux amendements ajoutant une nouvelle contribution à la taxe sur les services numériques et une nouvelle taxe exceptionnelle.


Déposé par le sénateur centriste Daniel Fargeot, le premier complète la taxe sur les services numériques en y intégrant les « revenus de la publicité ciblée diffusée en France » et les « recettes tirées de la valorisation des données des utilisateurs français, y compris lorsqu’elles ne relèvent pas directement de la publicité ». 


But affiché : s’assurer que la taxe sur les services numériques vise clairement les « entreprises exploitant un service de réseau social en ligne », et pas seulement les services d’intermédiation.

S’ils ont rejeté les amendements qui rehaussaient le taux et le seuil de cette taxe, les sénateurs ont en revanche adopté un amendement reprenant l’idée de « fair share », c’est-à-dire une contribution visant les acteurs qui prennent l’essentiel du trafic internet.

Auteur de la proposition, le sénateur Damien Michallet (LR) y souligne que 5 acteurs (Netflix, l’hébergeur Akamai, Google, Meta et Amazon) génèrent près de 47 % du trafic internet, « dont certains vendent leurs contenus en France en hors taxe ».

Le texte crée une taxe de 1 % du chiffre d’affaires national HT des « entreprises du secteur des services numériques (…) qui utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national et qui réalisent un chiffre d’affaires mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaire en France supérieur à 50 millions d’euros au titre des services numériques ».

Les recettes associées doivent contribuer au financement des infrastructures, une demande historique de l’industrie des télécoms. Le ministre de l’Économie Roland Lescure a souligné que ces sujets nécessitaient d’être travaillés au niveau européen.

☕️ Le Sénat augmente la fiscalité des géants du numérique

2 décembre 2025 à 11:27

Pendant l’examen du projet de loi de finances (PLF) 2026, le Sénat a adopté le 29 novembre deux amendements ajoutant une nouvelle contribution à la taxe sur les services numériques et une nouvelle taxe exceptionnelle.


Déposé par le sénateur centriste Daniel Fargeot, le premier complète la taxe sur les services numériques en y intégrant les « revenus de la publicité ciblée diffusée en France » et les « recettes tirées de la valorisation des données des utilisateurs français, y compris lorsqu’elles ne relèvent pas directement de la publicité ». 


But affiché : s’assurer que la taxe sur les services numériques vise clairement les « entreprises exploitant un service de réseau social en ligne », et pas seulement les services d’intermédiation.

S’ils ont rejeté les amendements qui rehaussaient le taux et le seuil de cette taxe, les sénateurs ont en revanche adopté un amendement reprenant l’idée de « fair share », c’est-à-dire une contribution visant les acteurs qui prennent l’essentiel du trafic internet.

Auteur de la proposition, le sénateur Damien Michallet (LR) y souligne que 5 acteurs (Netflix, l’hébergeur Akamai, Google, Meta et Amazon) génèrent près de 47 % du trafic internet, « dont certains vendent leurs contenus en France en hors taxe ».

Le texte crée une taxe de 1 % du chiffre d’affaires national HT des « entreprises du secteur des services numériques (…) qui utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national et qui réalisent un chiffre d’affaires mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaire en France supérieur à 50 millions d’euros au titre des services numériques ».

Les recettes associées doivent contribuer au financement des infrastructures, une demande historique de l’industrie des télécoms. Le ministre de l’Économie Roland Lescure a souligné que ces sujets nécessitaient d’être travaillés au niveau européen.

Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

2 décembre 2025 à 09:02
Faites comme chez vous
Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

Les liens que l’investisseur David Sacks maintient avec l’industrie technologique interrogent, alors que son pouvoir au sein de l’administration Trump s’étend.

Il fait partie de la « PayPal Mafia », il est milliardaire et depuis près d’un an, il tient le poste de « tsar de l’intelligence artificielle et de la crypto » au sein de l’administration des États-Unis en parallèle de son emploi principal au sein du fonds Craft Ventures… Tout va bien pour David Sacks.

Tout, ou presque : ces derniers jours, plusieurs médias américains ont publié des enquêtes sur un décret relatif à l’intelligence artificielle susceptible d’être pris par Donald Trump, et sur son principal instigateur, le fameux David Sacks. Car depuis quelques semaines, la rumeur enfle dans les couloirs de la Maison Blanche : Donald Trump pourrait signer un executive order qui empêcherait les États de passer leurs propres lois sur l’IA, la hissant mécaniquement parmi les attributions fédérales.

The Verge a obtenu le brouillon du texte. Dans la mesure où plus grand-chose ne filtre de la Maison Blanche sous la présidence actuelle, une telle fuite pourrait signifier que « quelqu’un au sein de l’administration méprise profondément David Sacks », estime la journaliste Tina Nguyen.

Elle braque en tout cas les projecteurs sur un individu qui, à l’instar d’Elon Musk lorsqu’il était à la tête du « ministère de l’Efficacité gouvernementale » (DOGE) récemment enterré, a obtenu un pouvoir important sans être élu ni nommé par les canaux habituels. Outre être un capital-risqueur influent dans la Silicon Valley, David Sacks est en effet devenu le conseiller spécial de Donald Trump sur tout ce qui touche à l’IA et à l’industrie des crypto. Et l’executive order, s’il était signé, lui donnerait encore plus de pouvoir.

Un décret anti-lois régionales sur l’IA

Si le décret était signé par le président des États-Unis, il créerait un « groupe de travail sur les contentieux relatifs à l’IA » dont la « seule responsabilité » consisterait à défier les lois étatiques sur l’IA. Autrement dit, l’équipe ainsi constituée obtiendrait le droit de poursuivre des états comme la Californie ou le Colorado, pour leurs récents textes portant respectivement sur l’ « AI safety » et contre la « discrimination algorithmique ».

Alors que Trump a répété à plusieurs reprises que son souhait de passer un moratoire sur les lois étatiques sur l’IA faisait partie intégrante de son combat contre l’ « idéologie woke », le brouillon d’executive order range la loi californienne dans la catégorie des « risques existentiels » (à comprendre ici comme : risque de freiner la course à l’IA). Surtout, le texte est parsemé de mentions selon lesquels la task force aurait à consulter ou rendre des comptes au conseiller spécial du gouvernement sur l’IA et les cryptos, David Sacks.

Cela dit, l’executive order n’est pas le seul élément incitant à suivre le parcours du financier. Pour la newsletter spécialisée Hard Reset, un signal faible a aussi été émis le 24 novembre, lorsque l’investisseur a écrit sur X : « D’après le Wall Street Journal du jour, les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait d’entraîner une récession. Nous ne pouvons pas nous permettre de faire marche arrière. »

Liens étroits avec l’industrie de l’IA

Alors que divers internautes établissent un parallèle entre la situation des sociétés d’IA et celles des banques sauvées par les États lors de la crise financière de 2008, le commentaire de David Sacks a soulevé diverses interrogations sur les bénéfices qu’il retirait concrètement du développement de l’IA et des cryptos aux États-Unis.

Si l’investisseur peut se maintenir conseiller sur l’IA et les cryptos, c’est parce que lui et son entreprise Craft Ventures ont vendu l’essentiel de leurs investissements dans les deux domaines. Fondée en 2017, Craft Ventures a investi dans des centaines de start-ups, dont certaines montées par des amis de David Sacks et ses collègues. En 2020, il créait le podcast All-Ins avec trois collègues investisseurs, avant de devenir l’un des acteurs clés du tournant républicain de la tech en versant un million de dollars à un comité d’action politique de soutien à J.D. Vance.

Depuis son accession à son poste actuel, début 2025, David Sacks a maintes fois répété être nouvellement indépendant des industries de l’IA et des crypto, affirmation théoriquement confirmée par ses déclarations financières et par l’évaluation par les services juridiques de la Maison Blanche. Le New-York Times rapporte pourtant que l’investisseur aurait 708 investissements dans des sociétés de la tech. 449 d’entre elles auraient soit un lien avec l’intelligence artificielle, soit seraient aidées au moins indirectement par les politiques défendues par David Sacks.

Le média constate par ailleurs que David Sacks a profité de son exposition nationale et internationale pour augmenter significativement le public de « All-In », qui enregistre 6 millions de téléchargements par mois et constitue un business à part entière. Surtout, l’investisseur a largement ouvert l’accès à l’administration des États-Unis à ses diverses relations, dont l’une des plus importantes est Jensen Huang, patron de NVIDIA.

Dans diverses réunions politiques, David Sacks s’est fait son porte-parole, argumentant en faveur de licences d’exportation pour NVIDIA malgré les inquiétudes que celles-ci pouvaient constituer en matière de sécurité nationale. Il s’est aussi rendu jusqu’aux Émirats Arabes Unis, pour signer un contrat portant sur 500 000 puces américaines – un tel volume que de nombreux membres de la Maison Blanche se sont inquiétés des implications géopolitiques, dans la mesure où la Chine est un allié proche des Émirats.

« Les techbros sont hors de contrôle » et le cas de David Sacks l’illustre parfaitement, a déclaré au New-York Times Steve Bannon. Grand critique des acteurs de la Silicon Valley, ce dernier est aussi l’ancien conseiller de Donald Trump.

Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

2 décembre 2025 à 09:02
Faites comme chez vous
Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

Les liens que l’investisseur David Sacks maintient avec l’industrie technologique interrogent, alors que son pouvoir au sein de l’administration Trump s’étend.

Il fait partie de la « PayPal Mafia », il est milliardaire et depuis près d’un an, il tient le poste de « tsar de l’intelligence artificielle et de la crypto » au sein de l’administration des États-Unis en parallèle de son emploi principal au sein du fonds Craft Ventures… Tout va bien pour David Sacks.

Tout, ou presque : ces derniers jours, plusieurs médias américains ont publié des enquêtes sur un décret relatif à l’intelligence artificielle susceptible d’être pris par Donald Trump, et sur son principal instigateur, le fameux David Sacks. Car depuis quelques semaines, la rumeur enfle dans les couloirs de la Maison Blanche : Donald Trump pourrait signer un executive order qui empêcherait les États de passer leurs propres lois sur l’IA, la hissant mécaniquement parmi les attributions fédérales.

The Verge a obtenu le brouillon du texte. Dans la mesure où plus grand-chose ne filtre de la Maison Blanche sous la présidence actuelle, une telle fuite pourrait signifier que « quelqu’un au sein de l’administration méprise profondément David Sacks », estime la journaliste Tina Nguyen.

Elle braque en tout cas les projecteurs sur un individu qui, à l’instar d’Elon Musk lorsqu’il était à la tête du « ministère de l’Efficacité gouvernementale » (DOGE) récemment enterré, a obtenu un pouvoir important sans être élu ni nommé par les canaux habituels. Outre être un capital-risqueur influent dans la Silicon Valley, David Sacks est en effet devenu le conseiller spécial de Donald Trump sur tout ce qui touche à l’IA et à l’industrie des crypto. Et l’executive order, s’il était signé, lui donnerait encore plus de pouvoir.

Un décret anti-lois régionales sur l’IA

Si le décret était signé par le président des États-Unis, il créerait un « groupe de travail sur les contentieux relatifs à l’IA » dont la « seule responsabilité » consisterait à défier les lois étatiques sur l’IA. Autrement dit, l’équipe ainsi constituée obtiendrait le droit de poursuivre des états comme la Californie ou le Colorado, pour leurs récents textes portant respectivement sur l’ « AI safety » et contre la « discrimination algorithmique ».

Alors que Trump a répété à plusieurs reprises que son souhait de passer un moratoire sur les lois étatiques sur l’IA faisait partie intégrante de son combat contre l’ « idéologie woke », le brouillon d’executive order range la loi californienne dans la catégorie des « risques existentiels » (à comprendre ici comme : risque de freiner la course à l’IA). Surtout, le texte est parsemé de mentions selon lesquels la task force aurait à consulter ou rendre des comptes au conseiller spécial du gouvernement sur l’IA et les cryptos, David Sacks.

Cela dit, l’executive order n’est pas le seul élément incitant à suivre le parcours du financier. Pour la newsletter spécialisée Hard Reset, un signal faible a aussi été émis le 24 novembre, lorsque l’investisseur a écrit sur X : « D’après le Wall Street Journal du jour, les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait d’entraîner une récession. Nous ne pouvons pas nous permettre de faire marche arrière. »

Liens étroits avec l’industrie de l’IA

Alors que divers internautes établissent un parallèle entre la situation des sociétés d’IA et celles des banques sauvées par les États lors de la crise financière de 2008, le commentaire de David Sacks a soulevé diverses interrogations sur les bénéfices qu’il retirait concrètement du développement de l’IA et des cryptos aux États-Unis.

Si l’investisseur peut se maintenir conseiller sur l’IA et les cryptos, c’est parce que lui et son entreprise Craft Ventures ont vendu l’essentiel de leurs investissements dans les deux domaines. Fondée en 2017, Craft Ventures a investi dans des centaines de start-ups, dont certaines montées par des amis de David Sacks et ses collègues. En 2020, il créait le podcast All-Ins avec trois collègues investisseurs, avant de devenir l’un des acteurs clés du tournant républicain de la tech en versant un million de dollars à un comité d’action politique de soutien à J.D. Vance.

Depuis son accession à son poste actuel, début 2025, David Sacks a maintes fois répété être nouvellement indépendant des industries de l’IA et des crypto, affirmation théoriquement confirmée par ses déclarations financières et par l’évaluation par les services juridiques de la Maison Blanche. Le New-York Times rapporte pourtant que l’investisseur aurait 708 investissements dans des sociétés de la tech. 449 d’entre elles auraient soit un lien avec l’intelligence artificielle, soit seraient aidées au moins indirectement par les politiques défendues par David Sacks.

Le média constate par ailleurs que David Sacks a profité de son exposition nationale et internationale pour augmenter significativement le public de « All-In », qui enregistre 6 millions de téléchargements par mois et constitue un business à part entière. Surtout, l’investisseur a largement ouvert l’accès à l’administration des États-Unis à ses diverses relations, dont l’une des plus importantes est Jensen Huang, patron de NVIDIA.

Dans diverses réunions politiques, David Sacks s’est fait son porte-parole, argumentant en faveur de licences d’exportation pour NVIDIA malgré les inquiétudes que celles-ci pouvaient constituer en matière de sécurité nationale. Il s’est aussi rendu jusqu’aux Émirats Arabes Unis, pour signer un contrat portant sur 500 000 puces américaines – un tel volume que de nombreux membres de la Maison Blanche se sont inquiétés des implications géopolitiques, dans la mesure où la Chine est un allié proche des Émirats.

« Les techbros sont hors de contrôle » et le cas de David Sacks l’illustre parfaitement, a déclaré au New-York Times Steve Bannon. Grand critique des acteurs de la Silicon Valley, ce dernier est aussi l’ancien conseiller de Donald Trump.

Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

2 décembre 2025 à 07:37
Données nitratées
Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

Le comté de Morrow, dans l’Oregon, accueille d’immenses fermes et des usines agroalimentaires, mais aussi plusieurs centres de données de très grande taille (hyperscales) d’Amazon. Pour certains experts, ce mélange mène à un taux très élevé de nitrate dans l’eau potable, avec des effets délétères sur la santé humaine.

Éleveur de bétail, ancien commissaire du comté, Jim Doherty n’était initialement pas tellement intéressé par les problématiques d’eau. C’est l’accumulation de récits de maladies étranges et d’interruptions spontanées de grossesses, depuis son élection au comité de commissaires en 2016, qui lui a mis la puce à l’oreille : les habitants liaient ces enjeux à la qualité de l’eau potable.

Dans le comté et autour, 45 000 personnes tirent leur eau du bassin inférieur de l’Umatilla. D’après les relevés du ministère de la qualité environnementale de l’Oregon, la qualité de son eau se dégrade régulièrement depuis 1991, à mesure que la concentration en nitrates y augmente.

Si, en France, l’essentiel des centres de données sont refroidis en circuit fermé, aux États-Unis la technique la plus courante consiste à utiliser de l’eau en circuit ouvert. Par ailleurs, depuis 2022, deux tiers des centres de données nouvellement construits le sont dans des zones subissant déjà des stress hydriques. Dans le comté de Morrow, cela dit, ce ne sont pas les conflits d’usage qui posent problème, mais bien la pollution de l’eau : certains nitrates et nitrites présentent des risques cancérogènes (notamment de cancer colorectal) et génotoxiques pour l’être humain, ce qui explique que l’Agence nationale de sécurité sanitaire (Anses) recommande à la population française d’en limiter la consommation.

Depuis l’installation de son premier data center de près de 1 000 mètres carrés dans le comté de Morrow, en 2011, Amazon en a créé sept autres dans la région, et a obtenu des accords pour en construire cinq autres. Soutenus par un abattement fiscal de 15 ans octroyé pour chaque hyperscale, ces centres de données démultiplieraient la pollution de l’aquifère qui approvisionne les populations, d’après une enquête de Rolling Stones.

Reins en moins et interruptions de grossesse

En 2022, Jim Dohertey a mené ses propres tests : sur six premiers échantillons d’eau potable prélevée dans six foyers choisis au hasard, les six présentaient une concentration de nitrate beaucoup plus élevée que celle autorisée au niveau fédéral. Le commissaire a reproduit l’expérience avec 70 échantillons supplémentaires, pour constater que 68 d’entre eux présentaient des concentrations trop fortes, souvent proches de quatre fois celle autorisée.

Accompagné par un représentant du bureau local de la santé, Jim Doherty a sonné aux portes pour demander si des membres des foyers présentaient certaines des problématiques liées à la surexposition au nitrate. Auprès du magazine, le commissaire indique que sur les 30 premières visites, 25 se sont traduites par des déclarations d’interruptions spontanées de grossesses et au moins six comptaient une personne vivant avec un seul rein.

Accélération de la concentration en nitrates

Depuis près de trente ans, la pollution de l’eau s’accroît à force de rejets dans la nature d’eau pleine du nitrate issu des engrais des mégafermes installées dans la région. Depuis quinze ans, l’ajout des centres de données accélérerait la problématique : en pratique, les hyperscales d’Amazon pompent des millions de litres d’eau de l’aquifère chaque année, qu’ils redirigent ensuite vers les bassins d’eaux usées déjà traitées par le port de Morrow.

Historiquement, le port s’occupe d’en extraire les résidus solides, de brûler le méthane, puis de rediriger vers les plantations les eaux riches en azote qui, au contact du sol, produiront du nitrate. Avant même l’arrivée des centres de données, cela dit, les plantes peinaient à absorber tout le nitrate, et l’excédent était absorbé par les sols puis par l’aquifère du sous-sol. Divers experts interrogés par Rolling Stones estiment que l’arrivée des centres de données d’Amazon a aggravé cette logique de concentration de nitrate, puis de pollution via les rejets dans les champs.

Les centres de données consomment en effet eux aussi des eaux pleines de nitrates pour refroidir leurs serveurs. Par l’évaporation provoquée par la chaleur des équipements, les relevés de certains centres ont constaté des concentrations de l’ordre de 56 ppm, soit huit fois la limite de sécurité établie par l’État de l’Oregon. Or, en bout de course, cette eau rejoint elle aussi les bassins d’eaux usées, accélère la concentration globale en nitrate, puis, par le jeu des arrosages dans les champs, celle du stock d’eau potable.

Amazon se défend d’avoir un rôle dans l’affaire : sa porte-parole Lisa Levandowski indique que l’entreprise n’utilise aucun additif à base de nitrates, et que « le volume d’eau utilisé et rejeté par nos installations ne représente qu’une infime partie du réseau d’approvisionnement en eau », donc a un impact insignifiant sur le circuit du comté.

Sur place, une partie de la population pense le contraire. La directrice du groupe de défense des droits liés à l’eau Oregon Rural Action, Kristine Octrom, souligne notamment l’écart de pouvoir entre les différentes industries et sociétés concernées dans la production et la concentration de nitrates dans l’eau et celle des populations impactées.

Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

2 décembre 2025 à 07:37
Données nitratées
Cancers : aux USA, des datacenters accusés d’amplifier l’exposition aux nitrates

Le comté de Morrow, dans l’Oregon, accueille d’immenses fermes et des usines agroalimentaires, mais aussi plusieurs centres de données de très grande taille (hyperscales) d’Amazon. Pour certains experts, ce mélange mène à un taux très élevé de nitrate dans l’eau potable, avec des effets délétères sur la santé humaine.

Éleveur de bétail, ancien commissaire du comté, Jim Doherty n’était initialement pas tellement intéressé par les problématiques d’eau. C’est l’accumulation de récits de maladies étranges et d’interruptions spontanées de grossesses, depuis son élection au comité de commissaires en 2016, qui lui a mis la puce à l’oreille : les habitants liaient ces enjeux à la qualité de l’eau potable.

Dans le comté et autour, 45 000 personnes tirent leur eau du bassin inférieur de l’Umatilla. D’après les relevés du ministère de la qualité environnementale de l’Oregon, la qualité de son eau se dégrade régulièrement depuis 1991, à mesure que la concentration en nitrates y augmente.

Si, en France, l’essentiel des centres de données sont refroidis en circuit fermé, aux États-Unis la technique la plus courante consiste à utiliser de l’eau en circuit ouvert. Par ailleurs, depuis 2022, deux tiers des centres de données nouvellement construits le sont dans des zones subissant déjà des stress hydriques. Dans le comté de Morrow, cela dit, ce ne sont pas les conflits d’usage qui posent problème, mais bien la pollution de l’eau : certains nitrates et nitrites présentent des risques cancérogènes (notamment de cancer colorectal) et génotoxiques pour l’être humain, ce qui explique que l’Agence nationale de sécurité sanitaire (Anses) recommande à la population française d’en limiter la consommation.

Depuis l’installation de son premier data center de près de 1 000 mètres carrés dans le comté de Morrow, en 2011, Amazon en a créé sept autres dans la région, et a obtenu des accords pour en construire cinq autres. Soutenus par un abattement fiscal de 15 ans octroyé pour chaque hyperscale, ces centres de données démultiplieraient la pollution de l’aquifère qui approvisionne les populations, d’après une enquête de Rolling Stones.

Reins en moins et interruptions de grossesse

En 2022, Jim Dohertey a mené ses propres tests : sur six premiers échantillons d’eau potable prélevée dans six foyers choisis au hasard, les six présentaient une concentration de nitrate beaucoup plus élevée que celle autorisée au niveau fédéral. Le commissaire a reproduit l’expérience avec 70 échantillons supplémentaires, pour constater que 68 d’entre eux présentaient des concentrations trop fortes, souvent proches de quatre fois celle autorisée.

Accompagné par un représentant du bureau local de la santé, Jim Doherty a sonné aux portes pour demander si des membres des foyers présentaient certaines des problématiques liées à la surexposition au nitrate. Auprès du magazine, le commissaire indique que sur les 30 premières visites, 25 se sont traduites par des déclarations d’interruptions spontanées de grossesses et au moins six comptaient une personne vivant avec un seul rein.

Accélération de la concentration en nitrates

Depuis près de trente ans, la pollution de l’eau s’accroît à force de rejets dans la nature d’eau pleine du nitrate issu des engrais des mégafermes installées dans la région. Depuis quinze ans, l’ajout des centres de données accélérerait la problématique : en pratique, les hyperscales d’Amazon pompent des millions de litres d’eau de l’aquifère chaque année, qu’ils redirigent ensuite vers les bassins d’eaux usées déjà traitées par le port de Morrow.

Historiquement, le port s’occupe d’en extraire les résidus solides, de brûler le méthane, puis de rediriger vers les plantations les eaux riches en azote qui, au contact du sol, produiront du nitrate. Avant même l’arrivée des centres de données, cela dit, les plantes peinaient à absorber tout le nitrate, et l’excédent était absorbé par les sols puis par l’aquifère du sous-sol. Divers experts interrogés par Rolling Stones estiment que l’arrivée des centres de données d’Amazon a aggravé cette logique de concentration de nitrate, puis de pollution via les rejets dans les champs.

Les centres de données consomment en effet eux aussi des eaux pleines de nitrates pour refroidir leurs serveurs. Par l’évaporation provoquée par la chaleur des équipements, les relevés de certains centres ont constaté des concentrations de l’ordre de 56 ppm, soit huit fois la limite de sécurité établie par l’État de l’Oregon. Or, en bout de course, cette eau rejoint elle aussi les bassins d’eaux usées, accélère la concentration globale en nitrate, puis, par le jeu des arrosages dans les champs, celle du stock d’eau potable.

Amazon se défend d’avoir un rôle dans l’affaire : sa porte-parole Lisa Levandowski indique que l’entreprise n’utilise aucun additif à base de nitrates, et que « le volume d’eau utilisé et rejeté par nos installations ne représente qu’une infime partie du réseau d’approvisionnement en eau », donc a un impact insignifiant sur le circuit du comté.

Sur place, une partie de la population pense le contraire. La directrice du groupe de défense des droits liés à l’eau Oregon Rural Action, Kristine Octrom, souligne notamment l’écart de pouvoir entre les différentes industries et sociétés concernées dans la production et la concentration de nitrates dans l’eau et celle des populations impactées.

Superintelligence, accélérationisme, doomers, AI slop… de quoi on parle ?

1 décembre 2025 à 15:20
B.a.bIA #4
Superintelligence, accélérationisme, doomers, AI slop… de quoi on parle ?

En novembre 2022, le grand public découvrait ChatGPT. Trois ans plus tard, retour sur les mots essentiels des débats autour de l’intelligence artificielle (générative, mais pas que).

Depuis trois ans, les intelligences artificielles génératives, dont le nom est quelquefois réduit en GenAI, chamboulent le paysage numérique. Alors que les créateurs de ChatGPT soufflent la troisième bougie de l’outil, Next revient sur une série de concepts manipulés par le secteur ou ses observateurs.

Le but : mieux appréhender ce champ économique et technologique dont le développement est plébiscité par beaucoup de programmeurs, utilisé par certaines entreprises pour justifier des plans de licenciements et le gel des embauches, ou encore débattu pour son impact sur l’économie américaine et mondiale.

Intelligence artificielle générale

L’intelligence artificielle générale (IAG) est un concept débattu, supposé désigner des modèles d’IA capables de réaliser des tâches aussi bien, voire mieux que les humains. C’est de l’hypothèse de la capacité humaine à créer ce type d’objet technique et potentiellement doué de conscience ou de sensibilité que découlent de nombreuses thématiques propres aux champ de l’intelligence artificielle, de celle de la sécurité de l’IA (AI safety) au risque existentiel (x-risk) qu’une telle entité pourrait poser à l’humanité.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt

27 novembre 2025 à 14:29

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.

En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.

Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.

Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.

Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.

OpenAI explique notamment que, selon ses conditions d’utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.

Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.

L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».

☕️ Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt

27 novembre 2025 à 14:29

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.

En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.

Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.

Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.

Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.

OpenAI explique notamment que, selon ses conditions d’utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.

Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.

L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».

❌