Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.
Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.
Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.
Création et diffusion de contenu d’exploitation sexuelle
Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.
Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.
L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.
Un phénomène récurrent
Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.
En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.
Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.
Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.
« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.
Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».
Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.
Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.
Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »
Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.
En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.
Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.
Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).
En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.
Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.
En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.
OpenAI a annoncé prendre une participation dans la société de private equity Thrive Holdings, dont la maison mère Thrive Capital est l’un des principaux investisseurs d’OpenAI, aux côtés de SoftBank, Microsoft et Khosla Ventures.
Si la société de Sam Altman n’a pas dépensé d’argent pour obtenir cette participation, d’après le Financial Times, elle a annoncé fournir des employés, des modèles, et divers produits et services aux sociétés de Thrive Holdings.
En échange, OpenAI devrait obtenir l’accès aux données des entreprises qui recourront à ses services, et être rémunéré sur les futurs rendements financiers de Thrive Holdings.
Pendant l’examen du projet de loi de finances (PLF) 2026, le Sénat a adopté le 29 novembre deux amendements ajoutant une nouvelle contribution à la taxe sur les services numériques et une nouvelle taxe exceptionnelle.
Déposé par le sénateur centriste Daniel Fargeot, le premier complète la taxe sur les services numériques en y intégrant les « revenus de la publicité ciblée diffusée en France » et les « recettes tirées de la valorisation des données des utilisateurs français, y compris lorsqu’elles ne relèvent pas directement de la publicité ».
But affiché : s’assurer que la taxe sur les services numériques vise clairement les « entreprises exploitant un service de réseau social en ligne », et pas seulement les services d’intermédiation.
S’ils ont rejeté les amendements qui rehaussaient le taux et le seuil de cette taxe, les sénateurs ont en revanche adopté un amendement reprenant l’idée de « fair share », c’est-à-dire une contribution visant les acteurs qui prennent l’essentiel du trafic internet.
Auteur de la proposition, le sénateur Damien Michallet (LR) y souligne que 5 acteurs (Netflix, l’hébergeur Akamai, Google, Meta et Amazon) génèrent près de 47 % du trafic internet, « dont certains vendent leurs contenus en France en hors taxe ».
Le texte crée une taxe de 1 % du chiffre d’affaires national HT des « entreprises du secteur des services numériques (…) qui utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national et qui réalisent un chiffre d’affaires mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaire en France supérieur à 50 millions d’euros au titre des services numériques ».
Les recettes associées doivent contribuer au financement des infrastructures, une demande historique de l’industrie des télécoms. Le ministre de l’Économie Roland Lescure a souligné que ces sujets nécessitaient d’être travaillés au niveau européen.
Les liens que l’investisseur David Sacks maintient avec l’industrie technologique interrogent, alors que son pouvoir au sein de l’administration Trump s’étend.
Il fait partie de la « PayPal Mafia », il est milliardaire et depuis près d’un an, il tient le poste de « tsar de l’intelligence artificielle et de la crypto » au sein de l’administration des États-Unis en parallèle de son emploi principal au sein du fonds Craft Ventures… Tout va bien pour David Sacks.
Tout, ou presque : ces derniers jours, plusieurs médias américains ont publié des enquêtes sur un décret relatif à l’intelligence artificielle susceptible d’être pris par Donald Trump, et sur son principal instigateur, le fameux David Sacks. Car depuis quelques semaines, la rumeur enfle dans les couloirs de la Maison Blanche : Donald Trump pourrait signer un executive order qui empêcherait les États de passer leurs propres lois sur l’IA, la hissant mécaniquement parmi les attributions fédérales.
The Verge a obtenu le brouillon du texte. Dans la mesure où plus grand-chose ne filtre de la Maison Blanche sous la présidence actuelle, une telle fuite pourrait signifier que « quelqu’un au sein de l’administration méprise profondément David Sacks », estime la journaliste Tina Nguyen.
Elle braque en tout cas les projecteurs sur un individu qui, à l’instar d’Elon Musk lorsqu’il était à la tête du « ministère de l’Efficacité gouvernementale » (DOGE) récemment enterré, a obtenu un pouvoir important sans être élu ni nommé par les canaux habituels. Outre être un capital-risqueur influent dans la Silicon Valley, David Sacks est en effet devenu le conseiller spécial de Donald Trump sur tout ce qui touche à l’IA et à l’industrie des crypto. Et l’executive order, s’il était signé, lui donnerait encore plus de pouvoir.
Si le décret était signé par le président des États-Unis, il créerait un « groupe de travail sur les contentieux relatifs à l’IA » dont la « seule responsabilité » consisterait à défier les lois étatiques sur l’IA. Autrement dit, l’équipe ainsi constituée obtiendrait le droit de poursuivre des états comme la Californie ou le Colorado, pour leurs récents textes portant respectivement sur l’ « AI safety » et contre la « discrimination algorithmique ».
Alors que Trump a répété à plusieurs reprises que son souhait de passer un moratoire sur les lois étatiques sur l’IA faisait partie intégrante de son combat contre l’ « idéologie woke », le brouillon d’executive order range la loi californienne dans la catégorie des « risques existentiels » (à comprendre ici comme : risque de freiner la course à l’IA). Surtout, le texte est parsemé de mentions selon lesquels la task force aurait à consulter ou rendre des comptes au conseiller spécial du gouvernement sur l’IA et les cryptos, David Sacks.
Cela dit, l’executive order n’est pas le seul élément incitant à suivre le parcours du financier. Pour la newsletter spécialisée Hard Reset, un signal faible a aussi été émis le 24 novembre, lorsque l’investisseur a écrit sur X : « D’après le Wall Street Journal du jour, les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait d’entraîner une récession. Nous ne pouvons pas nous permettre de faire marche arrière. »
Liens étroits avec l’industrie de l’IA
Alors que divers internautes établissent un parallèle entre la situation des sociétés d’IA et celles des banques sauvées par les États lors de la crise financière de 2008, le commentaire de David Sacks a soulevé diverses interrogations sur les bénéfices qu’il retirait concrètement du développement de l’IA et des cryptos aux États-Unis.
Si l’investisseur peut se maintenir conseiller sur l’IA et les cryptos, c’est parce que lui et son entreprise Craft Ventures ont vendu l’essentiel de leurs investissements dans les deux domaines. Fondée en 2017, Craft Ventures a investi dans des centaines de start-ups, dont certaines montées par des amis de David Sacks et ses collègues. En 2020, il créait le podcast All-Ins avec trois collègues investisseurs, avant de devenir l’un des acteurs clés du tournant républicain de la tech en versant un million de dollars à un comité d’action politique de soutien à J.D. Vance.
Depuis son accession à son poste actuel, début 2025, David Sacks a maintes fois répété être nouvellement indépendant des industries de l’IA et des crypto, affirmation théoriquement confirmée par ses déclarations financières et par l’évaluation par les services juridiques de la Maison Blanche. Le New-York Times rapporte pourtant que l’investisseur aurait 708 investissements dans des sociétés de la tech. 449 d’entre elles auraient soit un lien avec l’intelligence artificielle, soit seraient aidées au moins indirectement par les politiques défendues par David Sacks.
Le média constate par ailleurs que David Sacks a profité de son exposition nationale et internationale pour augmenter significativement le public de « All-In », qui enregistre 6 millions de téléchargements par mois et constitue un business à part entière. Surtout, l’investisseur a largement ouvert l’accès à l’administration des États-Unis à ses diverses relations, dont l’une des plus importantes est Jensen Huang, patron de NVIDIA.
Dans diverses réunions politiques, David Sacks s’est fait son porte-parole, argumentant en faveur de licences d’exportation pour NVIDIA malgré les inquiétudes que celles-ci pouvaient constituer en matière de sécurité nationale. Il s’est aussi rendu jusqu’aux Émirats Arabes Unis, pour signer un contrat portant sur 500 000 puces américaines – un tel volume que de nombreux membres de la Maison Blanche se sont inquiétés des implications géopolitiques, dans la mesure où la Chine est un allié proche des Émirats.
« Les techbros sont hors de contrôle » et le cas de David Sacks l’illustre parfaitement, a déclaré au New-York Times Steve Bannon. Grand critique des acteurs de la Silicon Valley, ce dernier est aussi l’ancien conseiller de Donald Trump.
Le comté de Morrow, dans l’Oregon, accueille d’immenses fermes et des usines agroalimentaires, mais aussi plusieurs centres de données de très grande taille (hyperscales) d’Amazon. Pour certains experts, ce mélange mène à un taux très élevé de nitrate dans l’eau potable, avec des effets délétères sur la santé humaine.
Éleveur de bétail, ancien commissaire du comté, Jim Doherty n’était initialement pas tellement intéressé par les problématiques d’eau. C’est l’accumulation de récits de maladies étranges et d’interruptions spontanées de grossesses, depuis son élection au comité de commissaires en 2016, qui lui a mis la puce à l’oreille : les habitants liaient ces enjeux à la qualité de l’eau potable.
Dans le comté et autour, 45 000 personnes tirent leur eau du bassin inférieur de l’Umatilla. D’après les relevés du ministère de la qualité environnementale de l’Oregon, la qualité de son eau se dégrade régulièrement depuis 1991, à mesure que la concentration en nitrates y augmente.
Si, en France, l’essentiel des centres de données sont refroidis en circuit fermé, aux États-Unis la technique la plus courante consiste à utiliser de l’eau en circuit ouvert. Par ailleurs, depuis 2022, deux tiers des centres de données nouvellement construits le sont dans des zones subissant déjà des stress hydriques. Dans le comté de Morrow, cela dit, ce ne sont pas les conflits d’usage qui posent problème, mais bien la pollution de l’eau : certains nitrates et nitrites présentent des risques cancérogènes (notamment de cancer colorectal) et génotoxiques pour l’être humain, ce qui explique que l’Agence nationale de sécurité sanitaire (Anses) recommande à la population française d’en limiter la consommation.
Depuis l’installation de son premier data center de près de 1 000 mètres carrés dans le comté de Morrow, en 2011, Amazon en a créé sept autres dans la région, et a obtenu des accords pour en construire cinq autres. Soutenus par un abattement fiscal de 15 ans octroyé pour chaque hyperscale, ces centres de données démultiplieraient la pollution de l’aquifère qui approvisionne les populations, d’après une enquête de Rolling Stones.
En 2022, Jim Dohertey a mené ses propres tests : sur six premiers échantillons d’eau potable prélevée dans six foyers choisis au hasard, les six présentaient une concentration de nitrate beaucoup plus élevée que celle autorisée au niveau fédéral. Le commissaire a reproduit l’expérience avec 70 échantillons supplémentaires, pour constater que 68 d’entre eux présentaient des concentrations trop fortes, souvent proches de quatre fois celle autorisée.
Accompagné par un représentant du bureau local de la santé, Jim Doherty a sonné aux portes pour demander si des membres des foyers présentaient certaines des problématiques liées à la surexposition au nitrate. Auprès du magazine, le commissaire indique que sur les 30 premières visites, 25 se sont traduites par des déclarations d’interruptions spontanées de grossesses et au moins six comptaient une personne vivant avec un seul rein.
Depuis près de trente ans, la pollution de l’eau s’accroît à force de rejets dans la nature d’eau pleine du nitrate issu des engrais des mégafermes installées dans la région. Depuis quinze ans, l’ajout des centres de données accélérerait la problématique : en pratique, les hyperscales d’Amazon pompent des millions de litres d’eau de l’aquifère chaque année, qu’ils redirigent ensuite vers les bassins d’eaux usées déjà traitées par le port de Morrow.
Historiquement, le port s’occupe d’en extraire les résidus solides, de brûler le méthane, puis de rediriger vers les plantations les eaux riches en azote qui, au contact du sol, produiront du nitrate. Avant même l’arrivée des centres de données, cela dit, les plantes peinaient à absorber tout le nitrate, et l’excédent était absorbé par les sols puis par l’aquifère du sous-sol. Divers experts interrogés par Rolling Stones estiment que l’arrivée des centres de données d’Amazon a aggravé cette logique de concentration de nitrate, puis de pollution via les rejets dans les champs.
Les centres de données consomment en effet eux aussi des eaux pleines de nitrates pour refroidir leurs serveurs. Par l’évaporation provoquée par la chaleur des équipements, les relevés de certains centres ont constaté des concentrations de l’ordre de 56 ppm, soit huit fois la limite de sécurité établie par l’État de l’Oregon. Or, en bout de course, cette eau rejoint elle aussi les bassins d’eaux usées, accélère la concentration globale en nitrate, puis, par le jeu des arrosages dans les champs, celle du stock d’eau potable.
Amazon se défend d’avoir un rôle dans l’affaire : sa porte-parole Lisa Levandowski indique que l’entreprise n’utilise aucun additif à base de nitrates, et que « le volume d’eau utilisé et rejeté par nos installations ne représente qu’une infime partie du réseau d’approvisionnement en eau », donc a un impact insignifiant sur le circuit du comté.
Sur place, une partie de la population pense le contraire. La directrice du groupe de défense des droits liés à l’eau Oregon Rural Action, Kristine Octrom, souligne notamment l’écart de pouvoir entre les différentes industries et sociétés concernées dans la production et la concentration de nitrates dans l’eau et celle des populations impactées.
En novembre 2022, le grand public découvrait ChatGPT. Trois ans plus tard, retour sur les mots essentiels des débats autour de l’intelligence artificielle (générative, mais pas que).
Depuis trois ans, les intelligences artificielles génératives, dont le nom est quelquefois réduit en GenAI, chamboulent le paysage numérique. Alors que les créateurs de ChatGPT soufflent la troisième bougie de l’outil, Next revient sur une série de concepts manipulés par le secteur ou ses observateurs.
Le but : mieux appréhender ce champ économique et technologique dont le développement est plébiscité par beaucoup de programmeurs, utilisé par certaines entreprises pour justifier des plans de licenciements et le gel des embauches, ou encore débattu pour son impact sur l’économie américaine et mondiale.
L’intelligence artificielle générale (IAG) est un concept débattu, supposé désigner des modèles d’IA capables de réaliser des tâches aussi bien, voire mieux que les humains. C’est de l’hypothèse de la capacité humaine à créer ce type d’objet technique et potentiellement doué de conscience ou de sensibilité que découlent de nombreuses thématiques propres aux champ de l’intelligence artificielle, de celle de la sécurité de l’IA (AI safety) au risque existentiel (x-risk) qu’une telle entité pourrait poser à l’humanité.
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir examiné les traces de ses activités numériques, ses parents ont déposé la première plainte connue contre OpenAI.
En cause : l’historique de conversation d’Adam Raine avec ChatGPT montrait que l’adolescent avait longuement échangé avec le robot conversationnel, et commencé à chercher des méthodes de suicide dès le mois de janvier.
Adam Raine a en particulier utilisé GPT-4o, une version de l’outil dont le ton est connu pour être très affirmatif et flagorneur.
Ce 25 novembre, OpenAI a déposé devant la Cour supérieure de Californie, à San Francisco, son argumentaire relatif à l’affaire.
Elle y indique que les dommages causés à la victime sont le fait du « mésusage, de l’usage non autorisé, non voulu, imprévisible et impropre de ChatGPT ». Autrement dit, selon l’entreprise, si problème il y a eu en lien avec ChatGPT, c’est parce qu’Adam Raine n’a pas utilisé la machine correctement.
OpenAI explique notamment que, selon ses conditions d’utilisation, les internautes de moins de 18 ans ne doivent normalement pas utiliser ses outils sans le consentement d’un parent ou dépositaire de l’autorité parentale, et que le document interdit aux usagers d’utiliser les termes « suicide », « automutilation » ou de contourner toute forme de garde-fou existant. Adam Raine avait, à plusieurs reprises, indiqué chercher des informations « pour créer un personnage » afin de contourner les blocages initiaux de ChatGPT.
Auprès de NBC, l’avocat de la famille Raine qualifie cet argumentaire de « dérangeant ». Depuis cette première plainte, sept autres ont été déposées contre OpenAI et Sam Altman pour des faits similaires.
L’entreprise a publié ce 25 novembre un article de blog dans lequel elle déclare vouloir traiter les litiges relatifs à la santé mentale avec « soin, transparence et respect ». Elle précise néanmoins que sa réponse à la plainte de la famille Raine inclut des « faits difficiles relatifs à la santé mentale et aux conditions de vie d’Adam Raine ».
Si la surveillance des messageries chiffrées serait abandonnée, les plateformes devraient scanner les messages privés à l’aide d’IA, introduire des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet, et des conditions strictes risquant d’exclure les adolescents des applications dotées de fonctions de chat. Les négociations (« trilogues ») débuteront prochainement, dans le but de finaliser le texte avant avril 2026, entre la Commission, le Conseil et le Parlement européen.
Après des années de débats, le Conseil européen est parvenu à une position commune sur le projet de « règles en vue de prévenir et de combattre les abus sexuels sur enfants » (Child Sexual Abuse Regulation, CSAR).
Il avait avant tout été retardé par la controverse liée à son pan numérique, et à la gestion des contenus numériques d’abus sexuels sur mineurs (Child Sexual Abuse Material, CSAM). Surnommé ChatControl par ses opposants, le projet de surveillance des messageries a finalement été abandonné au mois d’octobre.
À l’origine, il prévoyait que les forces de l’ordre puissent demander aux entreprises du numérique, plateformes chiffrées de bout en bout comprises, de scanner les échanges sur leurs outils pour repérer du CSAM.
Ce mercredi, les pays de l’Union européenne se sont finalement mis d’accord sur un texte qui supprime les ordonnances de détection obligatoire et met plutôt l’accent sur des mesures renforcées d’atténuation des risques, note Euractiv.
« Chat Control n’est pas mort, il est simplement privatisé »
Le scan volontaire de plateformes à la recherche de CSAM reste néanmoins cité comme outil possible, ce qui inquiète les défenseurs de la vie privée. L’ex-eurodéputé pirate Patrick Breyer avance en effet que « les gros titres sont trompeurs : Chat Control n’est pas mort, il est simplement privatisé » :
« Si le Conseil a supprimé l’obligation de scan, le texte convenu crée un cadre juridique toxique qui incite les géants technologiques américains à scanner sans discernement les communications privées, introduit des contrôles d’âge obligatoires pour tous les utilisateurs d’Internet et menace d’exclure les adolescents de la vie numérique. »
Il souligne que le mandat du Conseil « contraste fortement avec la position du Parlement européen, qui exige que la surveillance ne vise que les suspects et que les contrôles d’âge restent volontaires ». Cela permettrait à des fournisseurs tels que Meta ou Google de « scanner tous les chats privés, sans distinction et sans mandat judiciaire », déplore l’ex-eurodéputé.
« Vous aurez besoin d’une carte d’identité pour envoyer un message »
Le mandat autoriserait en outre le « scan de messages privés, d’images inconnues et de métadonnées à l’aide d’algorithmes et d’une intelligence artificielle ». Et ce, alors que la police fédérale allemande (BKA) a reconnu que 50 % des rapports générés dans le cadre d’un programme volontaire étaient sans intérêt sur le plan pénal, souligne Patrick Breyer :
« Nous sommes confrontés à un avenir où vous aurez besoin d’une carte d’identité pour envoyer un message et où une intelligence artificielle étrangère décidera si vos photos privées sont suspectes. Ce n’est pas une victoire pour la vie privée, c’est un désastre annoncé. »
Patrick Breyer relève en effet que pour se conformer à l’exigence du Conseil d’« identifier de manière fiable les mineurs », les fournisseurs « seront contraints de vérifier l’âge de chaque utilisateur », ce qui repose le problème du partage de documents d’identité avec des entreprises privées (au surplus états-uniennes), et du recours à la reconnaissance faciale.
Une « assignation à résidence numérique » pour les moins de 17 ans
Le texte du Conseil propose de plus d’interdire aux utilisateurs de moins de 17 ans d’utiliser des applications dotées de fonctions de chat, notamment WhatsApp, Instagram et les jeux en ligne populaires, « à moins que des conditions strictes ne soient remplies ».
Cela reviendrait à une « assignation à résidence numérique », isolant les jeunes de leurs cercles sociaux et de l’éducation numérique, déplore Patrick Breyer : « La protection par l’exclusion est un non-sens pédagogique. Au lieu de responsabiliser les adolescents, le Conseil veut les exclure complètement du monde numérique ».
Les négociations (« trilogues ») débuteront prochainement, dans le but de finaliser le texte avant avril 2026, entre la Commission, le Conseil et le Parlement européen. Adoptée en novembre 2023, la position de ce dernier avait supprimé toute mention d’ordonnance de détection sur les plateformes chiffrées.
Comment simplifier l’exploration du jeu de correspondances de Jeffrey Epstein rendues publiques par la United States House Committee on Oversight sous la forme de PDF difficiles à trier ?
À cette question, les informaticiens Riley Walz et Luke Igel ont proposé une réponse simple : permettre aux internautes de naviguer dans ces informations en les présentant sous la forme d’une boîte mail, en beaucoup de points similaires au service de Google qu’1,8 milliard de personnes utilisent chaque mois.
Capture d’écran de la correspondance de Jeffrey Esptein marquée d’une étoile par les internautes sur Jmail.
C’est ainsi qu’est née Jmail, la fausse boîte mail de Jeffrey Epstein, riche de plus de 2 000 messages, dans laquelle tout internaute peut marquer un message comme important (avec une étoile).
La messagerie permet aussi d’identifier des contacts réguliers, parmi lesquels l’ex-conseiller de Donald Trump Steve Bannon, l’associée d’Epstein désormais derrière les barreaux Ghislaine Maxwell, l’ancien directeur du laboratoire de recherche dédié aux nouvelles technologies MIT Media Lab Joichi Ito, ou encore le linguiste Noam Chomsky.
Pour produire cet outil, Riley Walz et Luke Igel ont notamment recouru au LLM de Google Gemini, avec lequel ils ont récupéré le contenu des pdf par reconnaissance optique des caractères (OCR), détaille PC Gamer.
Derrière chaque résultat fourni par le robot, ils permettent aux internautes de cliquer pour voir le document source.
Les parlementaires européens ont voté mercredi en faveur d’un seuil minimal de 16 ans pour accéder aux réseaux sociaux à travers l’Union.
Ils ont aussi voté en faveur de tenir Mark Zuckerberg, Elon Musk et les autres patrons de la tech personnellement responsables si leurs entreprises persistent à ne pas respecter les règles européennes en matière de protection des mineurs en ligne, rapporte Politico.
Ces positions ont été tranchées dans le cadre de la production d’un rapport sur la protection des mineurs en ligne. Les parlementaires y appellent la Commission européenne à harmoniser les limites d’âge à travers l’Union européenne, alors que de nombreux pays travaillent à mettre en place leurs propres seuils, comme la France.
Les décisions du Parlement européen pourraient aussi influencer deux textes européens à venir : la directive sur les services de médias audiovisuels et le règlement sur l’équité numérique (Digital Fairness Act).
Pour faire face aux psychoses générées chez certaines internautes par l’usage d’IA, des internautes canadiens et états-uniens s’organisent.
Comment faire face aux psychoses générées par l’utilisation intensive d’outils d’intelligence artificielle générative ? Alors que les plaintes pour incitation au suicide contre les constructeurs de ChatGPT, Gemini ou Replika s’accumulent, déposées par les proches de personnes qui se sont donné la mort après de longs échanges avec les robots conversationnels, la question se pose de manière toujours plus urgente.
En ligne, et depuis les États-Unis et le Canada, un groupe informel s’est construit en quelques mois pour apporter des réponses, aussi bien aux personnes victimes de ces fantasmes alimentés par les machines génératives que pour leurs proches. Son nom : « groupe de soutien Spirale » (Spiral Support Group), en référence aux « spirales » d’échanges dans lesquelles tombent certains internautes (le terme a émergé au creux des échanges en ligne, sur divers forums ou subreddit). En quelques mois, le groupe de soutien s’est formalisé, pour être administré par la récente ONG canadienne The Human Line Project, dont nous avions déjà parlé dans un précédent article.
Un serveur Discord pour « spiralers » et proches de « spiralers »
À l’origine, le groupe a été créé par quatre personnes, dont Allan Brooks, un Canadien lui-même tombé dans une spirale d’IA dont il a publiquement témoigné, et le Québécois Étienne Brisson. Ce dernier est passé à l’action après qu’un de ses proches a été hospitalisé pendant plusieurs semaines sur ordre de la Justice, après d’intenses échanges avec ChatGPT.
Auprès de Futurism, les deux hommes témoignent de l’évolution de ce groupe informel vers une organisation plus officielle réunissant désormais plus de 200 personnes, dont l’essentiel échange quotidiennement sur un serveur Discord.
Parmi elles, d’anciens « spiralers », voire des personnes hésitant encore entre croire leurs échanges avec les chatbots d’IA générative et en sortir ; la « famille et les amis », des proches de personnes tombées dans ce genre de trou du lapin (rabbit hole) d’échanges si crédibles, avec les robots, qu’ils s’en isolent du monde extérieur ; et quelques scientifiques ou professionnels de la santé mentale.
Dans un sens, l’initiative ressemble à celle de QAnon Casualties, cette communauté Reddit dédiée au soutien entre proches de personnes tombées dans la théorie QAnon. Comme du côté des mécaniques complotistes, des récits de familles déchirées par la chute progressive d’un de leurs membres dans des échanges avec un outil d’IA émergent, des proches cherchent de l’aide pour tenter de percer la carapace de récits faux ou fantasmagoriques de leurs partenaires, enfants, amis.
Dans ce contexte-ci, cela dit, difficile de ne pas penser aux récits des proches d’Adam Reine, qui s’est suicidé à 16 ans après avoir passé des semaines à échanger avec ChatGPT, de ce chercheur belge en proie à l’écoanxiété, qui, de même, s’est donné la mort après plusieurs semaines d’échanges avec la machine, ou de Sophie Riley, qui s’est suicidée à 29 ans sans qu’aucun signe avant-coureur n’ait été détecté par ses proches, mais dont les échanges avec la machine ont révélé un profond mal-être.
Ces quelques exemples le dévoilent déjà : n’importe qui peut tomber dans une spirale inquiétante d’échanges avec un robot génératif, quels que soient son genre, son âge, sa catégorie socioprofessionnelle. Le plus souvent, l’internaute utilise d’abord Claude, Gemini ou ChatGPT à des fins utilitaires, puis la discussion évolue, jusqu’à ce que la machine devienne une sorte de confident.
À force d’accueillir les naufragés de ces drames psychologiques, les modérateurs du groupe de soutien Spirale discernent deux grands types de récits chez ceux qui se retrouvent emprisonnés dans leurs échanges.
Certains internautes tombent plutôt dans des délires très axés vers les sciences, technologies et mathématiques. Les discussions avec les chatbots les rendent obsédés par de potentielles découvertes mathématiques et scientifiques, qu’ils ou elles seraient seuls à avoir identifiées. Les internautes sont renforcés dans cette idée par le ton aussi affirmatif que flagorneur des machines utilisées, dont le langage mêle par ailleurs propos plausibles et références supposément savantes.
Si ce type de thèses peuvent être réfutées, l’autre grand axe de délires récurrent est plus complexe à manipuler, dans la mesure où il repose plutôt sur des mécaniques d’ordre spirituel, religieux, voire conspirationniste.
Dans tous les cas, les membres les plus actifs du groupe de soutien ont monté un groupe de discussion. L’une de leurs convictions : les personnes qui tombent dans ce type de psychoses vivent une grande solitude – et dans la plupart des cas, les retours qu’ils ou elle reçoivent en ligne tendent, trop facilement, à les décrire comme « stupides » ou « malades mentaux », ce qui n’aide pas à recréer le moindre lien.
Ni le serveur The Spiral ni son organisation mère The Human Line Project ne proposent de soutien psychologique en tant que tel. À force de travailler sur la question de ces comportements psychotiques produits par l’exposition aux IA génératives, en revanche, ils collectent des récits, des outils concrets, des articles scientifiques aussi, qui permettent, peu à peu, d’améliorer leurs réponses et leur argumentaire.
« Nous voulons simplement nous assurer que [les robots conversationnels] sont conçus de manière à ce que la sécurité, la protection et le bien-être de l’utilisateur priment sur l’engagement et la monétisation », indique Etienne Brisson.
Poursuivi en justice par plusieurs proches de personnes qui se sont donné la mort, OpenAI a indiqué plusieurs mesures et mises à jour dédiées à améliorer la sécurité des utilisateurs depuis la fin de l’été. D’après les propres chiffres de l’entreprise, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.
Vous ou vos proches rencontrez des problématiques de santé mentale liés à l’usage de ChatGPT ou d’autres outils d’IA ? Écrivez-nous à mathilde@next.ink ou actu@next.ink
Des employés de tous les départements d’Amazon sont concernés par la vague historique de 14 000 licenciements que celle-ci annonçait fin octobre.
Si tous les détails ne sont pas encore publics, CNBC constate que parmi les 4 700 personnes qui devraient se retrouver privées de leur emploi dans les États américains de New York, de Californie, du New Jersey et de Washington, plus de 40 % occupent des postes d’ingénieurs.
Le CEO d’Amazon Andy Jassy se décrit en mission pour faire de l’entreprise fondée par Jeff Bezos la « plus grande startup du monde ».
Il déclare compter sur ces licenciements pour rendre le groupe moins bureaucratique et plus rapide.
L’entreprise a par ailleurs indiqué allouer une large part de ses ressources à l’investissement dans l’intelligence artificielle.
Outre les emplois d’ingénieurs logiciels, Amazon a notamment visé son département dédié au jeu vidéo. L’entreprise réduit aussi ses équipes dédiées à la recherche visuelle (Amazon Lens et Lens Live), des services pourtant récents qui permettent d’identifier des produits à partir de la caméra de son téléphone ou de photos prises au préalable.
Même les équipes spécialisées dans la publicité en ligne, l’une des activités les plus rentables d’Amazon, ont vu leurs équipes partiellement réduites.
Par ces licenciements, Amazon rejoint la liste des sociétés de l’industrie numérique qui réduisent leurs effectifs depuis la fin des confinements liés à la pandémie de Covid-19.
Aux États-Unis, le site Layoffs.fyi a repéré plus de 114 000 licenciements depuis le début de l’année 2025.
Sur X, l’influenceuse pro-Trump Candace Owens et le cofondateur de Telegram Pavel Durov diffusent des thèses complotistes relatives au couple Macron, sur fond de démêlés avec la Justice.
Depuis qu’il a été arrêté à la sortie de l’avion, à l’été 2024, pour douze chefs d’accusation, le patron de Telegram a une dent contre la France. Cette irritation s’était jusqu’ici traduite surtout par des prises de parole sur son propre réseau social, quelquefois au prix de notifications intempestives sur les appareils d’usagers n’ayant rien demandé.
En cette fin novembre, la prise de position de Pavel Durov prend un nouveau tour, dans la mesure où il relaie les thèses de Candace Owens.
Forte de 7,4 millions d’abonnés sur X, l’influenceuse pro-Trump est poursuivie par le couple Macron devant la Justice américaine pour avoir donné une résonance internationale aux thèses transphobes et misogynes visant Brigitte Macron.
La thèse des tueurs du couple Macron
Dans une publication du 22 novembre, celle-ci affirme avoir « été contactée par un employé haut placé du gouvernement » dont elle ne donne pas le nom, selon lequel le couple Macron aurait payé pour qu’une petite équipe du GIGN l’assassine. Ce faisant, elle reprend une thèse complotiste préexistante, selon laquelle le couple Macron aurait constitué une « armée de tueurs à gages » de « 40 à 50 assassins professionnels » dédiés à supprimer leurs opposants politiques.
Le média Les Surligneurs retrace l’origine de cette théorie à une publication de la Foundation to Battle Injustice, dont l’acronyme FBI peut prêter à confusion. D’après des travaux de l’université de Clemson et de Viginum sur l’opération de désinformation russe Storm-1516, cette entité a été créée par l’ex-directeur de la milice privée russe Wagner, Evgueni Prigojine.
Parmi les autres éléments de sa publication, Candace Owens affirme que l’assassin du soutien de Trump Charlie Kirk aurait été entraîné au sein de la Légion étrangère. Elle déclare enfin que la vie de Xavier Poussard serait elle aussi en danger. Ne rentrant plus en France depuis son signalement pour « appel à la haine en raison de la race ou de la religion », ce dernier est l’auteur du livre de désinformation Devenir Brigitte auquel Candace Owens a donné une audience internationale.
En appelant ses lecteurs à « RETWEET et partager », Candace Owens cultive la circulation de ses propos : au 24 novembre, sa publication dépassait les 95 000 retweets, 211 000 likes et 30 000 sauvegardes.
Suivi par 2,6 millions de personnes sur X, et aux prises avec ses propres démêlés avec la Justice française, Pavel Durov participe de manière non négligeable à cette circulation.
« Après avoir repris tout ce que Charlie Kirk a jamais dit sur la France de Macron, je trouve l’information de Candace sur l’implication de la France dans sa mort entièrement plausible », déclare-t-il. Et de citer, en guise de preuve, le fait que l’activiste d’extrême droite s’était prononcé en faveur de taxes douanières de 300 % contre la France – dans un contexte où l’essentiel des pays du monde étaient ciblés par les menaces de taxes de Donald Trump. Plus loin, Pavel Durov qualifie Charlie Kirk de « héros ».
Cette saillie fait suite à une série de prises de parole de l’entrepreneur, notamment depuis sa propre application, dans lesquelles il mettait en cause les capacités de la Justice ou du gouvernement français. Fin octobre, il alimentait même cette communication par le partage d’un mini-jeu dans lequel les internautes devaient incarner Pavel Durov s’échappant d’une prison française.
Ce 13 novembre, la Justice française levait l’interdiction de voyager qui empêchait Pavel Durov de se déplacer ailleurs qu’entre son logement dubaïote et le commissariat de police de Nice.
Une nouvelle fonctionnalité de X présentant les informations de création et de localisation des comptes semble dévoiler l’ampleur de l’ingérence à l’œuvre derrière, notamment, les discussions MAGA et d’extrême droite. Mais les informations présentées par le réseau social restent à prendre avec des pincettes.
Le 21 novembre, X publiait une nouvelle fonctionnalité dédiée à fournir plus de transparence sur les usagers. Nommé « À propos de ce compte », l’outil permet, en cliquant ou survolant la date d’inscription d’un compte X, d’obtenir plus d’informations sur son nombre de modifications de nom d’utilisateur, via quel outil (web ou magasin d’applications) l’internaute se connecte, et, au moins théoriquement, la région du monde d’où il ou elle se connecte.
Dans les heures qui ont suivi sa mise en ligne, de nombreuses personnes se sont lancées dans la vérification de divers comptes très actifs sur le réseau social d’Elon Musk. Depuis les États-Unis, ceci a notamment permis de constater que certains comptes MAGA (Make America Great Again, le mouvement de soutien à Donald Trump) très suivis étaient localisés en Russie, en Inde ou au Nigeria. De même en France, des comptes d’apparence « patriote », ou d’extrême droite, parfois suivis par plusieurs dizaines de milliers de comptes, apparaissent localisés au Sénégal.
Pour autant, chacune de ces informations reste à prendre avec des pincettes. Comme le montrent nos tests réalisés sur les comptes de journalistes de la rédaction, le fonctionnement de l’outil déployé par X reste fragile.
Des VPN et des magasins d’applications
Commençons donc par le compte de Jean-Marc Manach. Depuis sa bio, nous apprenons qu’il a rejoint Twitter en 2008, qu’il utilise l’application téléchargée depuis un smartphone sous Android, et que son compte est basé en France. Jean-Marc souligne que dans les faits, il consulte « d’abord et avant tout X en mode desktop web ».
Le petit « i », pour « information », à la droite de sa géolocalisation ? En cliquant, nous obtenons le message suivant.
Capture d’écran des informations de localisation fournies par X : « Le pays ou la région dans lequel un compte est installé peut être touché par de récents voyages ou une relocalisation temporaire. Ces données peuvent être inexactes et changer périodiquement. »
Le compte de l’autrice de ces lignes présente des informations un peu plus atypiques. D’une part, on y apprend que j’ai changé trois fois de handle. La localisation indique quant à elle « États-Unis », alors même que j’écris ces lignes depuis la France métropolitaine.
Ceci s’explique probablement par le fait que je ne recours à X que depuis mon navigateur, lui-même derrière un VPN (virtual private network) en France qui me permet d’accéder à différents outils de travail. À côté de la géolocalisation faussée, le symbole « information » n’est d’ailleurs plus entouré d’un simple cercle, mais d’un symbole de bouclier. Lorsqu’on clique, le message n’est pas exactement le même que dans le cas précédent.
Capture d’écran des informations de localisation fournies par X : « L’un de nos partenaires a indiqué que ce compte se connecter peut-être via un proxy – comme un VPN (…) Ces données peuvent être inexactes. Certains fournisseurs internet utilisent des proxies automatiquement, sans action de leurs utilisateurs. (…) »
Comptes d’extrême droite pilotés depuis l’extérieur ?
Malgré ces aléas, l’exposition des informations d’un autre compte a permis de suggérer que des comptes MAGA très suivis étaient pilotés depuis divers pays étrangers, à commencer par la Russie, l’Inde et le Nigeria. De fait, ces différents pays sont connus pour leurs opérations d’ingérence ou pour héberger des fermes à trolls, dont l’objet consiste à simuler des activités légitimes en ligne à des fins financières, politiques, ou les deux à la fois.
Tous n’ont pas nécessairement une très forte audience. Mais quelques-uns, comme le compte @MAGANationX, suivi par plus de 392 000 comptes, ou @IvankaNews_, suivi par plus d’un million de comptes, attirent particulièrement l’attention. Créé en avril 2024, le premier serait localisé en Europe de l’Est, « (hors de l’Union européenne) », selon les informations présentées par X. Vieux de 15 ans, le second serait quant à lui installé au Nigeria.
Dans le même ordre d’idées, @America_First0, suivi par plus de 67 000 comptes X, a beau donner l’image d’une Américaine convaincue par Trump, ses informations le localisent au Bangladesh.
Après ces premiers exemples, la pratique d’exposition des informations de compte s’est répandue à toute vitesse, comme une de ces tendances (trends) classiques des cultures numériques. Elle a donné lieu à des passes d’armes pleines d’insinuations entre, par exemple, le « lobby américain pro-israël » AIPAC et divers internautes. À ses 187 000 followers, le premier publie l’information selon laquelle le compte @palestine serait installé en Australie, avec pour simple légende « Oh. ». En réponse, de petits comptes comme @crawlings13 répondent, ironiquement : « Vous ne devinerez jamais la raison pour laquelle tant de comptes palestiniens sont situés en dehors de la Palestine. »
En France, de même, quantité d’utilisateurs explorent les comptes des uns et des autres. D’après X, « @cestpasdeslol_x » (84,3 K abonnés) est par exemple basé au Maroc. Autodécrit comme « spécialisé dans les faits divers en France », le profil est qualifié de « compte favori de la patriosphère xénophobe » par le maître de conférences spécialiste des cultures numériques Tristan Mendès-France, qui s’amuse de sa potentielle localisation outre-Méditerranée. Plus radical, le compte @Henri2Turenne, suivi par plus de 20 000 personnes et affichant les drapeaux français, russe et du Vatican, a été pris à parti après que X a indiqué sa localisation au Sénégal. Ce 24 novembre, le compte avait été supprimé, quand bien même divers utilisateurs plaidaient son possible recours à un VPN.
Directeur produit chez X, Nikita Bier décrivait le 22 novembre au soir le déploiement de la fonction « à propos de ce compte » comme « un premier pas important pour sécuriser l’intégrité de cet espace public mondial ». Dans les jours qui précédaient le lancement de la fonctionnalité, divers défenseurs des droits numériques avaient critiqué le projet de X, considérant le nouvel outil comme une attaque contre les internautes qui recouraient à la plateforme depuis des VPN.
Mais plutôt que de se pencher sur cette question, nombreux sont les usagers qui se sont emparés de la fonctionnalité pour tenter de démontrer l’ampleur des ingérences étrangères dans leurs débats en ligne. Tant que la stabilité de l’outil n’est pas assurée, cela dit, difficile de dresser des conclusions solides.
Alors que plusieurs usagers se plaignaient de l’inexactitude des informations relatives à leur compte, Nikita Bier convenait d’ailleurs que « les informations ne sont pas 100 % exactes pour les vieux comptes » et prévoyait que certains dysfonctionnements devraient être résolus « d’ici mardi », c’est-à-dire, a priori, ce 25 novembre.
Il précise par ailleurs : « Si des données sont incorrectes, elles seront mises à jour périodiquement en s’appuyant sur les meilleures données disponibles. » Un processus qu’il déclare organisé de manière « différée et aléatoire », pour « préserver la vie privée ».
La Commission européenne publie ce 19 novembre un paquet législatif « digital omnibus » déjà largement critiqué. Next fait le point.
Fin janvier 2025, la Commission européenne présentait sa « boussole pour la compétitivité ». Inspirée du rapport de l’économiste italien et ex-président de la Banque centrale européenne (BCE) Mario Draghi sur la compétitivité européenne, la feuille de route prévoyait d’emblée de provoquer un « choc de simplification » administrative pour les entreprises européennes. But affiché : « réduire de 25 % les charges administratives, et de 35 % celles pesant sur les petites et moyennes entreprises » d’ici 2029, sans préciser la manière de calculer cet allégement.
Ce 19 novembre, la Commission publie donc son paquet législatif « digital omnibus », dédié au numérique. Concrètement, elle publie un jeu de propositions dédié à amender des textes déjà en vigueur, dont le Règlement général sur la protection des données (RGPD), la directive e-Privacy (pour simplifier l’utilisation des bandeaux de consentement aux cookies), celle sur la sécurité des réseaux et des systèmes d’information (NIS 2) ou encore le règlement sur la résilience opérationnelle numérique (DORA). Celui-ci s’accompagne d’une proposition d’« omnibus numérique sur le règlement sur l’intelligence artificielle », dédié à l’implémentation encore en cours du règlement sur l’intelligence artificielle (RIA ou AI Act) – le texte est entré en vigueur en août 2024, mais certaines de ses dispositions ne doivent devenir applicables qu’à partir de 2026 voire 2027.
Mais les propositions se font dans un contexte électrique. Le 13 novembre, une alliance inédite de la droite et de l’extrême-droite au Parlement européen a voté la réduction de plusieurs autres mesures (réunies au sein du paquet législatif « Omnibus I »), plus directement liées au Pacte vert (Green deal) européen, mais susceptibles de concerner aussi divers acteurs numériques. Le contenu du digital omnibus, lui, a fuité depuis une dizaine de jours, suscitant les critiques de multiples défenseurs des droits numériques ainsi que des groupes politiques de gauche et du centre.
Attaque « accélérée » du RGPD
Au cœur de leurs préoccupations : l’« attaque accélérée », comme la qualifie l’association noyb, portée contre des éléments essentiels du RGPD, à commencer par la définition des données à caractère personnel.
« Nous sommes aussi inquiets du processus législatif adopté que de son contenu », déclare la spécialiste de la protection des données auprès de la European Digital Rights (EDRi) Itxaso Domínguez. Aux côtés de 126 organisations de la société civile, l’EDRi publiait la semaine passée une lettre ouverte appelant la Commission à « protéger des libertés numériques durement gagnées ».
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
À l’occasion de son passage à Strasbourg, Next s’est entretenu avec Fred Turner, historien et auteur de Design d’une démocratie et Politique des machines, (ré-)édités aux éditions C&F.
Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 31 octobre 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !
Historien, professeur de communication à l’université de Stanford, Fred Turner est l’auteur de l’influent Aux sources de l’utopie numérique, publié en France en 2012 chez C&F éditions, dans lequel il détaille comment les pensées issues de la contre-culture et le monde de la cybernétique se sont rencontrés au sein de la Silicon Valley. Présent en France à l’occasion de la (ré-)édition de deux autres de ses ouvrages, Design d’une démocratie et Politique des machines, le chercheur était à Strasbourg pour les rencontres Numérique en Commun(s). Next l’y a rencontré.
>> « L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre », écrivez-vous dans Politique des machines. Comment ce retournement a-t-il été possible ?
Il s’est opéré sur soixante-dix ans. Au milieu des années 40, nous croyions que les médias de masse étaient la cause du fascisme, que le cinéma, la radio avaient donné à Hitler et Mussolini le pouvoir de transformer la société d’individus vers une société de masse. En pleine Deuxième Guerre mondiale, la question est donc : comment opérer notre propre propagande, comment construire un système de communication démocratique, qui ne transforme pas le peuple des États-Unis en masse.
Au fil du temps, les technologies de l’information ont semblé apporter une réponse. L’idée des cybernéticiens, c’était d’éviter les communications du haut vers le bas, de proposer une solution pour permettre à chaque citoyen de communiquer. Chacun deviendrait son propre diffuseur, un nouvel ordre pourrait apparaître de manière organique… tel était le fantasme qui a irrigué les années 1960. L’idée, c’était de créer un monde en dehors de la politique, où toutes les difficultés inhérentes au fait d’être humain, les problématiques liées au genre, au racisme, à la pauvreté, disparaîtraient avec la bonne technologie, que ce soit le LSD ou la cybernétique. Tout cela était encore parfaitement admis dans les années 1990.
Le problème de ce mode de pensée, c’est qu’il ignore un élément : quand on outrepasse les règles existantes, les institutions, la bureaucratie, ce qui apparaît pour organiser le groupe, ce n’est pas une organisation mutuelle. Ce qui remonte, ce sont toutes les normes culturelles qui avaient été tenues à distance jusque là.
Dans les communautés hippies que j’ai étudiées, l’ambiance était franchement hostile. Très souvent, des hommes charismatiques prenaient le pouvoir, les femmes se retiraient dans des rôles très conservateurs, ces communautés étaient très anti LGBT et très racistes sans le dire ouvertement. Un des participants que j’ai interviewé m’a ainsi expliqué : « C’est juste tellement plus simple de travailler avec des gens qui vous ressemblent. »
Or, cette idée de « créer des réseaux de gens comme vous » a largement imprégné les réseaux sociaux. Le rêve d’un monde ouvert, avec plein d’individus et peu d’institutions, ouvre en réalité la porte à d’autres institutions de pouvoir, capables de s’imposer dans un monde vulnérable. Quand les réseaux sociaux arrivent, ils proposent de donner corps à ce rêve cybernétique… mais le font de manière commerciale.
Le rêve des années 1960 a oublié l’existence des gouvernements, des entreprises, le fait que la technologie a ses propres impératifs… et tout cela est revenu dans les années 2000 et 2010, par l’intermédiaire d’entreprises autoritaires. Si vous étudiez la structure financière de l’entreprise, où Mark Zuckerberg a, dans les faits, tous les pouvoirs, on se croirait franchement devant un vieux leader de communauté hippie. Dans les bureaux de Facebook, le bureau de Mark Zuckerberg est dans un bloc de verre, au milieu d’un vaste plateau, si bien que tout le monde le voit, et lui voit tout le monde. L’écho avec le panoptique de Foucault est étonnant.
Pendant que tous ces événements se déroulent du côté de l’industrie numérique, l’Amérique chrétienne organise ses réseaux pour obtenir du pouvoir politique. Elle a ses propres raisons, qui n’ont rien à voir avec Internet. Mais dans les années 2010, le premier gouvernement Trump est le théâtre d’une collision entre ce monde des réseaux sociaux, très vulnérable aux leaders charismatiques, et un mouvement politique de chrétiens nationalistes très bien organisés, qui célèbrent les dirigeants charismatiques et autoritaires. Trump est un mélange de ces deux mouvements.
Les états-uniens chrétiens pensent qu’il leur parle, et ceux du numérique pensent qu’il est un génie des médias. Il s’exprime avec charisme, il a un langage parfaitement approprié aux réseaux sociaux, mais aussi franchement fasciste.
« L’IA répond à deux projets autoritaires : la propagande et la surveillance »
>> Le premier chapitre de Design d’une démocratie (initialement publié en 2013) est titré « d’où viennent tous ces fascistes ? ». C’est l’interrogation que se posaient les chercheurs des années 1930 et 1940 pour comprendre la bascule de l’Allemagne vers le nazisme. Puis-je vous poser la même question au sujet des États-Unis aujourd’hui ?
Le fascisme est un terme provocant, mais il est exact, quand on observe le recours à un passé mythique, les logiques de boucs émissaires, les normes sociales très conservatrices… Actuellement, on célèbre la modernité technologique pour nous emmener vers le passé, c’est fascinant.
Certains des fascistes actuels viennent des mêmes endroits que ceux des années 1940. On parle de groupes religieux fondamentalistes, de groupes politiques racistes du sud des États-Unis, auxquels se joint le soutien d’hommes d’affaires riches, à la tête de grands groupes industriels.
Si elle était plus petite, cette combinaison existait dans les années 1940. Mais le mélange actuel a commencé à émerger dans les années 1980, au sein de groupes politiques religieux comme la communauté baptiste. Une fois que ces groupes se sont constitués, Internet est venu verser de l’huile sur le feu de conflits préexistants.
Il me semble que le point essentiel modifié par Internet, c’est la personnification du débat. Autrefois, quand vous n’aviez que la télévision, la radio, le cinéma, l’essentiel de ce que vous voyiez était plutôt formel, on ne savait pas grand-chose de la vie des personnes qui apparaissaient à l’écran. Avec internet, nous devenons tous des diffuseurs, nous projetons notre personnalité authentique dans les espaces de discussion – du moins nous affirmons le faire –, et c’est ce qui donne à une personne comme Trump une forme d’autorité. Cet homme fait des choses horribles, illégales, corrompues, mais il le fait d’une manière perçue comme authentique.
Ce que je trouve étonnant, c’est que ce niveau de comportements problématiques soit toléré, et même interprété comme une démonstration de son pouvoir.
>> Dans quelle mesure l’apparition d’un nouveaux type de média, en l’occurrence les productions générées par IA, vient influencer cette dynamique ? Dans quelle mesure la proposition d’un réseau social comme Sora, d’OpenAI, vient-il la modifier ?
Ces nouvelles technologies répondent à deux projets autoritaires : un de propagande, et un de surveillance. Sur l’aspect de la propagande, l’IA permet d’« inonder la zone » [comme l’avait suggéré Steve Bannon à Donald Trump en 2018, ndlr], de remplir l’espace avec des mensonges. Si suffisamment de vidéos d’IA sont créées pour que vous ne puissiez plus faire confiance à vos propres yeux, cela rend d’autant plus difficile le fait d’entendre la vérité. Votre confiance dans vos gouvernements et dans vos représentants va donc se détériorer, ce qui ouvre la porte à toujours plus de dirigeants autoritaires.
Sur la surveillance, c’est vraiment inquiétant. Car c’est une chose de vérifier un passeport dans un aéroport lorsque vous arrivez dans un pays ; de collecter des informations relatives à votre taux d’imposition ; ou encore de stocker vos données de santé. Si vous mélangez ces trois éléments, ce que le gouvernement étatsunien est en train d’essayer de faire, vous donnez à un dirigeant autoritaire le pouvoir de surveiller ses ennemis.
« Certains veulent accélérer la fin du monde commun »
>> Vous avez mentionné le rôle de groupes religieux fondamentalistes dans le moment technopolitique actuel. On a vu Peter Thiel, récemment, tenir des conférences sur la potentielle survenue d’un « Antéchrist ». Pouvez-vous nous donner quelques clés pour comprendre le paysage religieux étatsunien, et la manière dont il vient s’immiscer dans l’industrie technologique et le contexte politique ?
Premier élément : la France est un pays catholique, les États-Unis sont un pays protestant. On y trouve différentes variétés de protestantisme, et les courants qui seraient perçus comme relativement normaux par des Allemands, par exemple, sont plutôt implantés au nord du pays. Le sud accueille des communautés beaucoup plus traditionalistes, voire fondamentalistes. Citons la Convention baptiste du Sud, par exemple, ou encore les églises indépendantes qui se qualifient de « christianisme sans dénomination », c’est-à-dire ni presbytérien, ni catholique, etc.
Ces deux types de courant pensent profondément qu’il est possible d’accéder à Dieu directement, à travers la Bible. Il y a la croyance que le monde physique est la traduction directe de la parole de Dieu, que Dieu a créé le monde en l’énonçant. La difficulté, c’est que cette croyance s’accompagne de l’idée selon laquelle Dieu doit revenir sur Terre pour sauver celles et ceux qui lisent le monde de cette manière très littérale, et pas tellement les autres.
Concrètement, dans la vision des chrétiens conservateurs, si le monde a été construit par Dieu, alors les catégories du monde doivent rester stables : les hommes sont des hommes, les femmes, des femmes, les gens biens sont des gens biens, les mauvais restent mauvais. C’est une vision très binaire. Dans les années 1980 et depuis, cette vision du monde est devenue un programme politique, mélangeant l’idée du retour de Dieu avec l’idée du progrès Américain.
Aujourd’hui, les nationalistes chrétiens pensent que les États-Unis ont été créés par Dieu, et que celui-ci reviendra sur son territoire élu : les États-Unis, aux côtés d’Israël. Et là, vous commencez à comprendre pourquoi le pays soutient autant Israël. Ça vient d’une idée profondément religieuse, surtout présente dans le sud du pays, mais pas seulement.
On parle vraiment d’idées qui sont si vieilles, dans la tradition étatsunienne, qu’on ne les exprime même plus. C’est l’idée que nous, Américains, sommes les nouveaux Israélites, que comme les Israélites, nous avons été exilés d’Égypte, sauf que notre Égypte, c’était l’Europe, que depuis ce nouveau territoire, nous allons être sauvés par Dieu… C’est très difficile à comprendre depuis Paris ou Strasbourg, mais c’est vraiment une idée dont beaucoup d’étatsuniens sont convaincus. Dans les années 1980, un sondage avait montré qu’au moins 35 % de la population croyaient au « ravissement », c’est-à-dire à l’enlèvement des croyants vers le paradis. Ça s’est traduit dans des livres et des films qui sont titrés « Left behind », ou ce genre de chose [voir aussi la série the Leftovers, ndlr]… Ça imprègne notre culture.
>> Si le monde est créé par la parole de Dieu, pourquoi si peu de préoccupation pour l’état de la planète ?
Pour les chrétiens fondamentalistes et conservateurs, le fait que le monde aille mal est un signe que Dieu va bientôt arriver. C’est une vision apocalyptique, nihiliste même. Certains, parmi eux, veulent même accélérer l’arrivée de la fin du monde commun.
« La fusion entre la richesse et la conviction religieuse d’être élus explique que les Américains adorent Steve Jobs ou Elon Musk »
>> Comment comprendre le mélange entre ces thèses et l’industrie technologique ?
L’industrie est dans une position très différente de celle qu’elle occupait il y a vingt ans. À l’époque, nous nous intéressions aux idées de connexion, les histoires que nous racontions dessus étaient héritées des courants psychédéliques, on parlait de laisser notre corps derrière nous, d’être libres en entrant dans le cyberespace…
Aujourd’hui, nous sommes dans une époque de l’extraction. L’intelligence artificielle, les réseaux sociaux et le reste extraient des données de nos mondes sociaux, et pour ce faire, ils extraient des ressources, de l’eau, de l’énergie, des écosystèmes naturels… Si des entreprises comme Tesla, Oracle et d’autres ont déplacé leur siège au Texas, plutôt qu’en Californie, c’est parce que le Texas a de l’espace, de l’énergie, et le climat dérégulé qui permet à l’industrie minière de fonctionner.
Au XIXᵉ siècle, les grandes industries du Texas étaient le bétail et l’esclavage. C’est un des derniers États de l’Union à avoir renoncé à l’esclavage. Au XXᵉ siècle, sa grande industrie a été le pétrole. Bref, en matière d’extraction, le Texas a une longue histoire. Dans le contexte religieux, utiliser les ressources disponibles au Texas est une obligation divine. Dieu veut que vous prospériez, donc utilisez les ressources aussi vite que possible. Aucun besoin de préserver, protéger, conserver : Dieu s’en occupe.
Dernier élément pour comprendre cette conjonction entre religion, politique et technologie : quand les premiers protestants sont arrivés d’Angleterre vers les États-Unis, ils croyaient en la prédestination. L’idée, c’est que Dieu a déjà décidé qui serait sauvé, qui ne le serait pas, mais impossible de le savoir à l’avance. Cette idée n’est jamais exprimée, mais elle est partout dans la culture américaine. Depuis le XVIIᵉ siècle, ces protestants ont commencé à se dire : comment savoir si on sera sauvé ou pas ? Si Dieu m’aime suffisamment, alors il me rendra riche sur Terre.
À la fin du XVIIIᵉ siècle, la richesse était devenue un signe que l’on serait sauvé. Cette fusion entre la richesse et le fait d’être spécial, élu, choisi par Dieu, est partout dans notre culture. C’est l’une des raisons pour lesquelles nous adorons Steve Jobs, Mark Zuckerberg ou Elon Musk. Ils semblent être déjà sauvés.
>> Peter Thiel a été élevé dans la religion, Elon Musk pas du tout… Est-ce qu’ils sont réellement impliqués dans ces courants ?
Peter Thiel est croyant, il se qualifie de chrétien orthodoxe, il a ces discours sur l’antéchrist… je le placerais quelque part dans la zone des néo-catholiques, sachant qu’il y a beaucoup de néo-catholiques dans le monde de la tech, désormais. Elon Musk, en revanche, il me semble qu’il est complètement opportuniste. Il n’est pas chrétien, c’est un néo-eugéniste à l’ancienne, il aime promouvoir les « bébés intelligents », des enfants qui, bizarrement, ne pourraient être conçus que par lui. Ça résonne vraiment beaucoup avec l’Allemagne des années 1930.
« La France a une opportunité que les États-Unis n’ont pas su saisir »
>> Comment lutter contre ces mouvements autoritaires ?
L’une des idées qu’Elon Musk, Donald Trump, Mark Zuckerberg et d’autres promeuvent, c’est celle selon laquelle le monde des réseaux sociaux privés est inévitable. Rien de tout cela n’est vrai. La production d’inévitabilité, c’est ce que font les dirigeants fascistes. Mais si vous regardez le Brésil, Bolsonaro est en prison. Si vous regardez la Pologne, qui était tombée dans l’autoritarisme, elle en est en partie revenue.
Les régimes autoritaires n’existent pas pour toujours, ils sont défaits par la résistance de masse, le refus massif d’obéir. Quand bien même les dictateurs ont l’armée pour eux, quand bien même ils tuent, si la population refuse de les suivre, si elle s’organise, si elle crée les moyens de mettre en œuvre une solidarité de long terme, les dictateurs disparaissent.
>> Que peut l’Europe en la matière ?
L’Europe est un espace démocratique imparfait, mais reste un modèle pour les États-Unis. Je suis toujours frappé par le fort sentiment civique exprimé en France. Vous savez pourquoi vous êtes Français, et c’est pour cette raison que vous formulez des demandes sur le fonctionnement démocratique. Aux États-Unis, cette idée a disparu au profit de l’individu. Il faudrait faire revenir cette notion de citoyenneté.
Plus concrètement, l’Europe reste un grand marché. Ses choix de réglementations ont un vrai impact sur les sociétés américaines. Le pouvoir militaire, dans un contexte de confrontation larvée avec la Russie, est aussi important. Aux États-Unis, l’armée est une force traditionnellement démocratique, au sens où elle a été l’un des premiers corps à mettre fin à la ségrégation, par exemple, où les militaires prêtent serment à la Constitution. Si elles gardent ce point de vue, nos armées pourraient se coordonner pour rendre le monde plus démocratique.
>> Un dernier mot ?
Nous vivons dans une ère saturée de médias et d’histoires. Rien ne donne plus de pouvoir que la capacité à contrôler le récit. En la matière, Donald Trump, c’est un drame dans lequel chaque Américain a une chance de jouer un rôle. C’est ce drame qui structure la réalité.
La démocratie, elle, je la définis comme un processus de redistribution des ressources d’une société, argent, ressources matérielles, territoires, pour avoir des effets égalitaires. Mais nous sommes en plein mouvement autoritaire.
Si la France est là où les États-Unis étaient en 2022, disons, alors elle a une opportunité que nous n’avons pas su saisir. Vous pouvez construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques. Vous pouvez commencer à parler du monde que vous voulez construire. De cette manière, si l’autoritarisme arrive à votre porte, vous aurez déjà une autre histoire à proposer.