Vue lecture

États-Unis : une enquête parlementaire sur de supposés biais anti-Israël de Wikipédia

"If freedom of speech is taken away, then dumb and silent we may be led"
États-Unis : une enquête parlementaire sur de supposés biais anti-Israël de Wikipédia

Deux représentants du Congrès américains ont ouvert une enquête relative à la façon dont des « efforts organisés » viseraient à orienter idéologiquement le contenu des pages de Wikipédia, notamment sur les questions liées à Israël. Leur démarche s’appuie sur les rapports de l’Anti-Defamation League, qui vilipende régulièrement l’encyclopédie en ligne pour de supposés biais antisémites.

La Commission de surveillance et de réforme gouvernementale du Congrès des États-Unis a ouvert une enquête relative au fonctionnement de Wikipédia. La démarche est lancée par deux représentants républicains, qui s’en expliquent dans une lettre officielle, adressée à Maryana Iskander, la directrice générale de la Wikimedia Foundation.

Elle prend la forme d’une demande d’information (PDF), formulée dans le cadre des missions générales de cette commission d’enquête, notamment chargée d’étudier les « efforts déployés par des entités et des individus étrangers au sein d’établissements universitaires subventionnés par l’argent des contribuables américains pour influencer l’opinion publique américaine ».

Des actions coordonnées anti-israéliennes ?

La démarche, repérée par The Hill, est initiée par le président de la Commission, James Comer (Kentucky), et par la responsable de la sous-commission dédiée à la cybersécurité, Nancy Mace (Caroline du Sud). « Nous sollicitons votre aide pour obtenir des documents et des communications concernant des personnes (ou des comptes spécifiques) agissant comme éditeurs bénévoles sur Wikipédia et ayant enfreint les règles de la plateforme Wikipédia, ainsi que vos propres efforts pour contrecarrer les tentatives intentionnelles et organisées visant à introduire des préjugés dans des sujets importants et sensibles », écrivent les deux représentants.

Parmi ces sujets sensibles, la demande concerne tout particulièrement la question israélienne. « Un rapport récent a soulevé des questions troublantes concernant les efforts potentiellement systématiques visant à diffuser des informations antisémites et anti-israéliennes dans les articles de Wikipédia relatifs aux conflits avec l’État d’Israël ».

Sur ce volet, les deux parlementaires sourcent leur interrogation : celle-ci découle d’un rapport émis en mars 2025 par l’Anti-Defamation League (ADL), une association de lutte contre l’antisémitisme basée à New York.

Dans ce rapport, l’ADL affirme notamment avoir découvert qu’au moins 30 contributeurs de l’encyclopédie en circonvenaient les règles d’édition « pour introduire des récits antisémites, des préjugés anti-israéliens et des informations trompeuses ». Leur action se serait notamment concentrée sur les pages liées à Israël, à la Palestine et au conflit en cours, avec des efforts intensifiés depuis le 7 octobre 2023.

« Ce rapport montre clairement que Wikipédia doit redoubler d’efforts pour lutter contre les préjugés et la coordination antijuifs et anti-israéliens. En attendant, ceux qui comptent sur Wikipédia – de la recherche Google aux grands modèles linguistiques comme ChatGPT – doivent reléguer au second plan les contenus de Wikipédia sur les questions liées aux Juifs, à Israël et au conflit au Moyen-Orient afin de ne pas perpétuer ces préjugés », appelle l’ADL dans le propos liminaire de son rapport.

Un message entendu, semble-t-il, dans le camp républicain, puisque l’enquête doit, sur cette base, permettre de déterminer « comment Wikipédia répond à de telles menaces », en étudiant notamment les outils et méthodes mis en œuvre « pour identifier et mettre un terme aux conduites malveillantes qui consistent à injecter des préjugés ou compromettre la neutralité de point de vue ».

La commission d’enquête demande ainsi à la fondation Wikimedia de lui fournir, pour une période allant du 1er janvier 2023 au 10 septembre 2025, tous les documents susceptibles de témoigner d’une forme d’ingérence organisée dans l’édition des contenus, qu’elle émane d’un État ou d’autres institutions.

Outre des explications sur les mécaniques de modération de l’encyclopédie, elle réclame également les enregistrements du comité d’arbitrage, l’ArbCom, chargé de trancher les litiges entre éditeurs, mais aussi toutes les données personnelles liées aux éditeurs concernés par une sanction découlant d’un arbitrage.

La fondation Wikimedia, établie pour mémoire aux États-Unis, a accusé réception de la demande. « Nous sommes heureux d’avoir l’occasion de répondre aux questions de la Commission et de discuter de l’importance de préserver l’intégrité des informations sur notre plateforme », a répondu un porte-parole cité par USA Today.

« Early Life Check »

Outre ces accusations de noyautage mises au crédit de ce que l’ADL qualifie de « bad-faith editors » (éditeurs de mauvaise foi), l’association a par ailleurs décrit, en juillet, un autre phénomène qui n’incrimine pas directement l’encyclopédie, mais la concerne tout de même.

La pratique, baptisée Early Life Check, consisterait à suggérer d’aller vérifier la section Early Life (littéralement, les débuts dans la vie, soit le début de la notice biographique de la fiche consacrée à une personnalité) pour vérifier si quelqu’un est d’ascendance juive et, le cas échéant, chercher à lui nuire en ligne.

Le rapprochement entre l’ouverture de cette enquête et la parution de cette explication liée à l’Early Life Check a conduit, jeudi, un certain Dominic Michael Tripi, qui se présente comme un analyste politique et publie sur X de nombreux messages aux accents conservateurs, à suggérer que l’ADL cherchait à obtenir la suppression de la section Early Life sur les pages de Wikipédia. L’hypothèse, non confirmée, met en joie les internautes de 4chan, forum d’où aurait pu partir cette tendance…

Des accusations récurrentes

C’est peu dire que la célèbre encyclopédie collaborative, fondée en 2003, n’en est pas à sa première accusation de partialité : l’hypothèse d’un noyautage de ses pages au nom d’une idéologie politique revient régulièrement dans le débat public.

En début d’année, Next a par exemple chroniqué dans le détail la vendetta lancée par le magazine Le Point en direction de l’édition francophone de Wikipédia, qu’il accuse d’un parti pris négatif à son égard visant à le délégitimer comme source fiable.

Quelques semaines plus tôt, c’est Elon Musk qui menait la charge, à grand renfort de posts sur son réseau social X, pour appeler à cesser le financement de l’encyclopédie tant que cette dernière n’a pas rétabli un « équilibre ».

Le sujet est en définitive aussi ancien que l’encyclopédie, dont les principes fondateurs posent que c’est la recherche du consensus, et la fourniture d’un contexte aussi complet et sourcé que possible qui lui permettent de tendre vers la neutralité de point de vue. Les sujets clivants donnent ainsi parfois lieu à des débats homériques dans l’espace de discussion des fiches qui leur sont dédiés, comme l’a bien illustré, début 2024, la polémique autour du deadname des personnes trans.

Les questions liées à la judéité, à Israël, et aux suites des attaques terroristes du 7 octobre, constituent de ce fait une poudrière virtuelle au sein des pages de l’encyclopédie, et ce dans de nombreuses communautés linguistiques.

Placées sous un statut protégé particulier, les entrées relatives connaissent néanmoins un rythme d’édition élevé, et la zone de discussion associée est parfois accompagnée d’un appel au calme. « Gardez à l’esprit que cette page est faite pour discuter de l’amélioration de l’article et non de débattre sur son sujet », préconise ainsi la page dédiée à l’État de Palestine en vertu des règles de savoir-vivre qui font partie des fameux principes fondateurs. Sur d’autres, les suggestions de modification montrent bien que la recherche du consensus relève parfois du vœu pieux.

L’ADL étiquetée non fiable

Dans le contexte géopolitique particulièrement chargé du moment, Wikipédia constitue une cible de prédilection pour l’ADL depuis que la communauté des éditeurs de la version anglophone a décidé de classer l’association au rang des sources non fiables sur le conflit israélo-palestinien, à l’issue d’un vote organisé en juin 2024, comme le précise la fiche dédiée à cette dernière.

Largement reprise dans les médias israéliens, l’information a déclenché un tollé au sein des organisations juives. « Wikipédia prive fondamentalement la communauté juive de son droit à se défendre face à la haine qui prend pour cible notre communauté », ont ainsi écrit dans la foulée quarante de ces dernières dans un courrier à l’en-tête de la Conférence des présidents des Organisations juives majeures, rapporte The Times of Israël.

La Wikimedia Foundation avait alors répondu par l’intermédiaire d’un communiqué, en rappelant qu’elle n’avait pas vocation à interférer avec l’action de la communauté des éditeurs et contributeurs, et que les décisions relatives à l’ADL avaient été dûment discutées et documentées jusqu’à parvenir au consensus.

Quelles retombées ?

Reste à savoir si ce principe de communauté souveraine et de consensus démocratique siéra aux représentants républicains du Congrès et, par extension, à l’administration Trump, dont les pages Wikipédia ont par moment été maltraitées.

L’ouverture d’une enquête constitue à cet égard une première, dont se réjouit Larry Sanger, le cofondateur devenu contempteur de l’encyclopédie. Interrogé par l’agence Jewish News Syndicate (JNS), celui-ci affirme qu’il aurait demandé, en février dernier à Donald Trump et à Elon Musk de prendre des mesures contre le financement de Wikipédia et contre la possibilité que des employés fédéraux participent à son contenu. « Je suis heureux que le Congrès enquête sur l’utilisation de fonds étrangers et du gouvernement américain pour financer des modifications biaisées sur Wikipédia », se serait-il réjoui.

Quelles seront les conclusions de l’enquête ? L’administration dispose d’un levier pour faire pression sur la fondation : celui de son statut d’organisation à but non lucratif, dit 501(c)3 dans le code des impôts des États-Unis. Fin avril, un procureur des États-Unis, proche de Donald Trump, avait déjà brandi cette menace implicite dans une lettre adressée à la fondation, l’accusant d’avoir commis « une série d’actions susceptibles de violer les obligations » liées à son statut, notamment parce qu’elle aurait permis « à des acteurs étrangers de manipuler des informations et de diffuser de la propagande auprès du public américain ».

  •  

Summer Games : Trump Tax Show, négociez avec un maillet !

Un petit tue-tau(pe) pour Ursula !
Summer Games : Trump Tax Show, négociez avec un maillet !

Cet été, la rédaction fonctionne un peu au ralenti pour cause de congés bien mérités. Ce n’est pas pour autant qu’on ne pense pas à vous, avec de quoi vous occuper. Inspiré par des jeux des années 80, Flock a eu une idée un peu folle : quelques jeux pour cet été.

Après SpaceX Invaders et Super Punch Zuck – nous allons prochainement faire le tri dans plusieurs centaines des créations que vous nous avez envoyées –, nous continuons avec un autre grand classique : une version maison du Chass’Taupes.

Depuis son retour à la Maison Blanche, Donald Trump a plusieurs obsessions en tête, notamment celle d’imposer des taxes à tout-va aux autres pays dans le monde. Heureusement, Next a la « solution » : un maillet pour le renvoyer d’où il vient, dès qu’il sort la tête.

Attention, chaque personnage de Donald Trump qui reste dehors vous ajoute automatiquement 1 % de taxe par seconde, tapez donc dessus avec votre maillet le plus vite possible. Si vous attendez trop longtemps, il finit par rentrer tout seul et vous colle alors 50 % de plus au passage.

Méfiance, il y a aussi de « faux » Trump plus vrais que nature. Ils peuvent faire peur, mais n’ajoutent pas de taxe quand ils sont dehors. Par contre votre compteur de taxe prend + 100 si vous tapez dessus. Oui, c’est inadmissible, il faut réfléchir avant de cliquer.

But du jeu ? Tenir le plus longtemps avant d’arriver à 999 % de taxe, synonyme de « game over »… et n’espérez pas gagner. À la fin, c’est de toute façon Donald Trump qui remporte la mise, car il en sort toujours plus et toujours plus vite sur le plateau. Essayez simplement d’en taper le maximum au vol avant d’arriver à 999 % et partagez vos meilleurs scores dans les commentaires.


Ce jeu, comme les deux autres, a été développé avec l’aide des IA génératives ChatGPT d’OpenAI et Claude d’Anthropic. Tous les dessins sont signés Flock, et les mécaniques de jeu pensés par Flock et Sébastien.

Comme pour notre application d’alerte sur les sites d’actualités utilisant l’IA générative, nous vous proposerons très prochainement le code sur GitHub afin de permettre à tout un chacun de modifier le jeu s’il le souhaite et/ou d’apporter des améliorations.

  •  

FFmpeg 8.0 est disponible, avec reconnaissance vocale via Whisper (OpenAI)

GPT dans la version 9.0 ?
FFmpeg 8.0 est disponible, avec reconnaissance vocale via Whisper (OpenAI)

FFmpeg est un logiciel libre permettant de traiter des flux audio et vidéo, aussi bien pour la conversion que la lecture et l’enregistrement. Avec la version 8.0 il améliore le support de Vulkan et intègre un modèle open source de reconnaissance vocale pour automatiquement sous-titrer des vidéos.

FFmpeg vient de sortir en version 8.0 alias Huffman. Pour les responsables du projet, ce n’est rien de moins que « l’une de leurs plus grandes sorties à ce jour ». Elle arrive un an et demi après la version 7.0 alias Dijkstra, et presque un an après la 7.1 alias… Péter.

Si vous n’utilisez pas directement FFmpeg, il y a de très forte chance que ce soit le cas d’au moins un de vos logiciels. Wikipédia dresse une liste de ceux qui l’utilisent : Blender, HandBrake, Kodi, MPC-HC, Plex, VLC media player, YouTube… et même le rover Perseverance de la NASA, qui est sur Mars.

Whisper au rapport pour des sous-titres automatiques

Les notes de versions dressent la liste d’une trentaine de changements, avec l’intégration de Whisper en tête de liste. Il s’agit d’un système open source (modèle et code d’inférence) de reconnaissance automatique de la parole, développé par OpenAI. Plus précisément, dans FFmpeg il s’agit de Whisper.cpp, une implémentation en C++.

Guillaume Seznec (ingénieur multimédia chez INA) précise sur son blog que si le support de Whisper est natif dans FFmpeg, « il faut toutefois compiler les programmes pour activer cette fonctionnalité », en détaillant au passage les commandes. Il en profite pour réaliser quelques tests et, sans surprise, « le choix du modèle influe directement sur la qualité de la transcription (orthographe, vocabulaire) et sur la vitesse de calcul ».

FFv1 et ProRes RAW (Apple) dans Vulkan

L’autre grosse nouveauté de FFmpeg 8.0 est la prise en charge de Vulkan pour deux codecs : FFv1 (compression et décompression) et ProRes RAW (décompression seulement). FFv1 est un « codec vidéo libre et sans perte standardisé par l’Internet Engineering Task Force (IETF). Il est utilisé pour de l’archivage, par exemple, par la Bibliothèque nationale de France », rappelle Vivien Guéant de LaFibre.info. Le second, ProRes RAW, est développé par Apple.

Les développeurs précisent que les travaux pour la prise en charge de ProRes en compression et de VC-2 (compression et décompression) sont terminés et en cours de vérification. Les changements seront prochainement intégrés dans FFmpeg lors de la mise en ligne d’une version mineure.

FFmpeg propose aussi une décompression matérielle pour Vulkan VP9, VAAPI VVC et OpenHarmony H264/5, ainsi qu’une compression matérielle pour Vulkan AV1 et OpenHarmony H264/5. Signalons aussi des améliorations pour VCC (Versatile Video Coding) et la fin du support de yasm au profit de nasm,

Notez enfin que FFmpeg « a récemment entamé la modernisation de son infrastructure », avec une mise à jour des serveurs. Pour télécharger FFmpeg 8.0 c’est par ici.

  •  

Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI

Désassemblage iminent
Microsoft présente deux modèles maison majeurs et se démarque de plus en plus d’OpenAI

Après avoir utilisé OpenAI comme compagnon et cheval de Troie de l’IA générative, Microsoft se sent de plus en plus prêt à prendre la route seul et annonce deux nouveaux modèles de son cru : son premier modèle de fondation ,MAI-1-preview, et son pendant centré sur la synthèse vocale, MAI-Voice-1. L’émancipation du géant du numérique par rapport à la startup n’est cependant pas pour tout de suite puisque Microsoft utilise encore les modèles d’OpenAI dans la plupart de ses produits.

Article modifié à 14h40 pour prendre en compte la remarque en commentaire sur le fait que Microsoft avait déjà sorti les modèles Phi.


Le partenariat entre OpenAI et Microsoft se complique un peu plus avec l’annonce des premiers modèles de fondation et de synthèse vocale confectionnés par le géant du numérique qui domine l’édition logicielle. Après avoir utilisé OpenAI en compagnon et Cheval de Troie de l’IA générative, Microsoft commence à s’en libérer.

Entre les deux entreprises, la tension a commencé à monter en juin dernier alors qu’OpenAI envisageait de remettre en question certains termes de leur accord, voire d’attaquer Microsoft pour abus de position dominante.

Mais, en cette fin aout, l’entreprise de Redmond montre qu’elle imagine un futur dans lequel elle serait moins dépendante d’OpenAI concernant l’IA générative. En effet, elle présente, dans un billet de blog, deux modèles entièrement « faits maison » : MAI-Voice-1 AI et MAI-1-preview.

Synthèse vocale et premier modèle de fondation

Le premier (MAI-Voice-1 AI) est un modèle de synthèse vocale que l’entreprise va utiliser notamment pour deux fonctionnalités de son application Copilot, Daily (qui propose à ses utilisateurs un résumé de l’actualité) et Podcasts (qui propose des podcasts générés automatiquement, de l’écriture à la voix sur le sujet demandé par l’utilisateur).

Le deuxième (MAI-1-preview) est le premier modèle de fondation créé par l’entreprise. Microsoft explique le tester dans la LMArena, au classement de laquelle il se trouve actuellement en treizième position concernant la génération de texte. L’entreprise affirme qu’il « donne un aperçu des futures offres de Copilot », qu’elle travaille « activement à l’amélioration de [ses] modèles » et qu’elle aura « beaucoup plus à partager dans les mois à venir ».

Peu d’informations techniques

Car, en effet, si l’entreprise fait cette annonce, elle ne dit pas grand chose de ses tous premiers modèles maison. Tout juste encourage-t-elle a essayer ses démonstrations d’expression orale et de storytelling sur son site Copilot Labs.

L’entreprise n’a publié aucun document technique (encore moins d’article scientifique) qui décrirait les caractéristiques techniques de ces modèles et des machines sur lesquelles ils ont été entrainés. Il va sans dire que Microsoft n’a pas donné non plus d’information sur leur impact environnemental.

Il faut aller chez nos confrères de Semafor pour apprendre que l’entreprise affirme avoir utilisé 15 000 GPU H-100 de NVIDIA pour entrainer MAI-1-preview. Au média étasunien, le CEO de Microsoft AI, Mustafa Suleyman, affirme que son entreprise a entrainé ces deux modèles en se focalisant sur leur rentabilité financière et non en voulant faire un modèle forcément très gros. Semafor rappelle que l’entrainement de la dernière version de Grok, par exemple, a demandé l’utilisation de plus de 100 000 GPU H-100. Il semble, ici, aller dans le sens de la déconstruction du mythe du « plus c’est gros, mieux c’est ».

« C’est un modèle qui dépasse largement ses poids », explique-t-il à Semafor, de plus en plus, l’art et le savoir-faire de l’entrainement des modèles consistent à sélectionner les données parfaites et à ne pas gaspiller vos flops sur des jetons inutiles qui n’apprennent pas vraiment grand-chose à votre modèle ».

Pour autant, toujours à nos confrères de Semafor, le CEO de Microsoft AI affirme que son entreprise est déjà au travail pour développer d’autres modèles sur des datacenters équipés des puces NVIDIA GB200. « Nous avons un plan quinquennal ambitieux dans lequel nous investissons trimestre après trimestre. Je pense donc que cela va continuer », affirme-t-il.

Auprès de Semafor, Mustafa Suleyman veut minimiser l’effet de cette annonce sur la relation de son entreprise avec OpenAI : « Notre objectif est d’approfondir notre partenariat et de nous assurer que nous entretenons une excellente collaboration avec OpenAI pendant de nombreuses années encore. J’espère que cela continuera. Je suis persuadé que ce sera le cas ».

Reste que les informations distillées par l’entreprise semblent plus l’occasion de se repositionner d’un point de vue de la concurrence sur les marchés financiers que d’informer les utilisateurs sur les aspects techniques des tous premiers modèles de l’entreprise de Redmond.

  •  

☕️ #LIDD La théorie des graphes appliquée à des puzzles de Klotski

Vous pensiez avoir une petite trouvaille tranquille pour finir la semaine ? Perdu pour cette fois… mais ne fuyez pas, car cette vidéo « Graph Theory in State-Space » est à voir !

Imaginez placer sur un support de 6×6 une pièce de bois que vous déplacez verticalement ou horizontalement. Maintenant, imaginez devoir créer un graph des possibilités ? Facile avec une seule pièce, cela donne une ligne.

On passe maintenant à deux pièces avec un graph qui prend la forme d’un carré en 2D. Avec trois pièces on arrive à de la 3D. On passe suite à des hypercubes n-dimensionnel, simplement avec quelques pièces de bois sur un support.

Vous voilà à seulement une centaine de secondes d’une vidéo de… 12 minutes. Allumez les enceintes (en anglais) et profitez de cette vidéo vraiment bien réalisée pour ce genre de sujet.

  •  

☕️ Vivaldi défend l’idée d’un navigateur sans IA en contrepied de ses concurrents

Alors que Microsoft, Google et dans une moindre mesure Apple ou Mozilla cherchent à doper leurs navigateurs respectifs à l’intelligence artificielle, l’équipe de Vivaldi défend une approche sinon inverse, du moins nettement plus nuancée, dans un billet publié le 28 août.

« Dans l’ensemble du secteur, les assistants artificiels sont intégrés directement dans les navigateurs et présentés comme un moyen plus rapide d’obtenir des réponses », introduit Jon von Tetzchner, cofondateur et CEO de Vivaldi. Cette tendance, qui changerait la barre d’adresses en un assistant chargé de répondre à des prompts, « transforme la joie de l’exploration en un spectacle inactif », estime-t-il encore, avant de rappeler que les réponses générées par IA se traduisent par une perte de trafic significative au niveau des éditeurs de sites Web.

Vivaldi 7.5, paru en juillet 2025

D’où cette promesse, en forme de manifeste :

« Aujourd’hui, alors que d’autres navigateurs s’empressent de développer une IA qui contrôle votre expérience web, nous faisons une promesse claire : Nous prenons position, privilégions l’humain à la publicité, et nous ne transformerons pas le plaisir de l’exploration en spectateur passif. Sans exploration, le web perd beaucoup d’intérêt. Notre curiosité s’épuise et la diversité du web s’éteint. »

Vivaldi ne s’interdit cependant pas d’exploiter l’IA ou les possibilités offertes par les grands modèles de langage.

« Nous continuerons à développer un navigateur pour les esprits curieux, les utilisateurs expérimentés, les chercheurs et tous ceux qui valorisent l’autonomie. Si l’IA contribue à cet objectif sans voler la propriété intellectuelle, sans compromettre la vie privée ni le Web ouvert, nous l’utiliserons. Si elle transforme les gens en consommateurs passifs, nous ne l’utiliserons pas. »

  •  

Vérification d’âge : l’Arcom « se réjouit », mais les sites pornos restent des passoires

Caché, pas caché
Vérification d’âge : l’Arcom « se réjouit », mais les sites pornos restent des passoires

L’Arcom se réjouit de voir que des outils de vérification de l’âge « peuvent être mobilisés par les sites pornographiques ». Elle lève donc les mises en demeure, mais prévient qu’elle va vérifier leur efficacité et conformité… et le moins que l’on puisse dire, c’est qu’il y a du travail !

Début août, l’Arcom mettait en demeure cinq sites pornos établis dans l’Union européenne de mettre en place des mesures de vérification de l’âge. Ils avaient trois semaines pour obtempérer, faute de quoi un blocage pouvait être demandé par l’Autorité.

Six sites « rentrent » dans le rang, d’autres vont passer au pilori

« Constatant que les sites concernés avaient depuis lors mis en place une ou plusieurs solutions de vérification de l’âge, le collège de l’Arcom, réuni ce jour, a décidé de ne pas engager de procédure de blocage et de déréférencement à leur égard », peut-on lire dans un communiqué mis en ligne ce 28 août.

Un sixième site avait reçu une lettre d’observation, car il avait retiré son système de vérification d’âge. Il l’a depuis remis, la procédure en reste donc là, précise l’Autorité.

Elle affirme qu’elle ne va pas se limiter à la liste des 17 sites de l’arrêté de février 2025, et qu’elle « poursuivra son action en direction des sites pornographiques de plus faible audience que ceux prioritairement visés et évaluera les risques de contournement ».

L’Arcom va évaluer « la conformité des systèmes de vérification de l’âge »

L’Autorité ajoute aussi qu’elle évaluera « la conformité des systèmes de vérification de l’âge mis en place avec les exigences énoncées dans son référentiel technique » et qu’elle « pourra prononcer, le cas échéant, des sanctions ».

Ce référentiel, publié en octobre 2024 (pdf), précise que les sites avec des contenus pornographiques « sont tenus d’afficher un écran ne comportant aucun contenu à caractère pornographique « tant que l’âge de l’utilisateur n’a pas été vérifié » ».

De plus, ils « doivent fournir leurs meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle, pour limiter les possibilités de contournement des solutions techniques qu’ils mettent en place ».

Nous avons déjà eu l’occasion de l’expliquer, mais certains sites sont pour le moment bien loin de l’état de l’art niveau protection des mineurs.

Accéder à des contenus pornos sans passer par la vérification d’âge

Depuis notre enquête de début août, Jacquie et Michel par exemple laisse toujours passer les visiteurs sur mobile sans aucune vérification d’âge, alors qu’elle est imposée sur un ordinateur de bureau. Sur Sunporno, ajouter une entrée dans un cookie suffit encore, etc. Et on ne parle pas des systèmes de vérification d’âge quand on peut valider avec une carte d’identité de Dora ou une vidéo sur Internet…

Qu’en est-il des sites du jour qui ont mis en place des dispositifs de vérification d’âge ? Nous avons à chaque fois pu accéder à des contenus pornographiques sans avoir à prouver notre majorité. Cette fois-ci, les systèmes de vérification d’âge ne se sont pas laissés bluffer aussi facilement que AgeVerif et Agerify, que ce soit sur la carte d’identité ou les selfies, un bon point !

Nous n’y avons pas passé des heures pour les tester dans tous les sens, mais une vidéo rapidement trouvée sur Internet n’a pas permis de bluffer le système, pas plus qu’une pièce d’identité récupérée sur Internet. Les outils des cinq sites du jour demandent d’ailleurs une photo recto et verso, en plus d’un selfie pour confirmer qu’il s’agit de la même personne.

Un clic droit suffit parfois à accéder à des contenus pornos…

Par contre, les sites sont toujours des passoires et loin de protéger les contenus pornographiques efficacement. Chez TNAFlix, un clic droit sur une vidéo de la page d’accueil suffit pour ouvrir les vidéos dans un nouvel onglet, ou bien pour copier le lien de la vidéo. Les liens vers les vidéos complètes et sans aucun floutage sont facilement trouvables dans le code de la page.

Quant aux images, elles sont bien floutées sur le site, mais le floutage est appliqué par le navigateur avec une fonction « blur ». Il est donc possible de l’enlever facilement et d’accéder à des photos pornographiques sans aucune vérification.

Chez xHamster, accéder à des contenus pornographiques nécessite la création d’un compte. Les vidéos se floutent automatiquement au bout d’un moment, avant les scènes pornographiques. Récupérer l’URL de la vidéo ne change rien, elle est d’ailleurs flaguée d’un « SFW » dans son URL. Tout va bien ? Pas si vite…

Sous les vidéos, il est indiqué la « source » du contenu, dont une bonne partie vient du site FapHouse, qui appartient à Hammy Medi, comme indiqué dans ce rapport de transparence du site. xHamster est lui aussi la propriété de Hammy Medi.

Nous avons donc xHamster qui renvoie vers FapHouse, les deux appartenant à la même entreprise. D’un clic, on passe d’un site à l’autre. Sauf que FapHouse ne se prive pas d’afficher en long et en large des contenus pornographiques dès notre arrivée, sans aucune vérification d’âge.

Chez XNXX (NKL Associates S.R.O.) et XVideos (WebGroup Czech Republic), les similitudes sont nombreuses. Par exemple, les deux sites renvoient vers cette page sur la question de la vérification d’âge. Comme bien d’autres sites, ouvrir une image dans un nouvel onglet enlève le floutage.

La structure de l’intégration des vidéos se ressemble beaucoup entre les deux sites, avec un passage par des scripts et une variable « html5player ». Dans le code, on peut ainsi très facilement récupérer l’URL de la vidéo sans floutage ni vérification d’âge avant de la lancer.

Nous avions pour rappel interrogé l’Arcom début août sur les cas que nous avions identifiés (différence fixe/mobile, ajout d’une entrée dans un cookie, floutage des images facilement contournable, vidéos téléchargeables…), mais sans réponse jusqu’à présent.

  •  

☕️ Proton propose un accès d’urgence ouvert à un tiers de confiance

Proton propose désormais à ses abonnés payants la possibilité de créer un accès d’urgence, réservé à un tiers de confiance, qui s’active automatiquement après un délai déterminé par l’utilisateur. Baptisée Emergency Access (accès d’urgence), cette fonctionnalité vise à ouvrir, à un proche, l’accès à compte dans des conditions vérifiées en cas d’accident de la vie ou de décès. Une condition tout de même : le proche en question doit impérativement disposer d’un compte Proton.

« L’accès d’urgence vous permet de parer à toute éventualité en garantissant que les données stockées sur votre compte Proton restent accessibles aux personnes de votre choix, mais toujours sous votre contrôle », résume l’entreprise suisse.

L’onglet récupération permet de spécifier un contact d’urgence

En pratique, l’onglet récupération de la gestion du compte Proton se pare désormais d’une option accès d’urgence, dans laquelle on peut spécifier l’adresse du tiers de confiance, puis le délai au-delà duquel il obtiendra automatiquement l’accès en cas d’absence de réaction du détenteur du compte.

C’est ensuite le contact d’urgence qui peut solliciter l’accès. Une notification est alors envoyée au détenteur, qui peut l’accepter, ou la refuser. C’est uniquement s’il ne fait rien que l’accès sera ouvert au terme du délai spécifié.

  •  

D’où vient « indignons-nous », cet appel à bloquer la France le 10 septembre ?

Indignez-vous
D’où vient « indignons-nous », cet appel à bloquer la France le 10 septembre ?

Apparu aux alentours de la mi-juillet, un mouvement numérique appelant à bloquer la France le 10 septembre prend une relative ampleur en ligne, notamment tiré par le soutien de certains partis et syndicats. Ses revendications restent confuses.

Au creux de l’été, un cri de ralliement a commencé à circuler sur différents réseaux sociaux : « indignons-nous ! », « le 10 septembre, on bloque tout ! ». Le 15 juillet, François Bayrou annonce des mesures d’austérité budgétaire pour réduire le déficit public hexagonal en 2026, un projet de budget rapidement symbolisé par la proposition de supprimer deux jours fériés.

Dans les jours qui suivent, des appels à « un arrêt total et illimité du pays » à partir du 10 septembre essaiment sur Facebook, Instagram ou encore Telegram. Six semaines plus tard, ceux-ci ont pris une relative ampleur.

Sur le réseau de Pavel Durov, des discussions ont été organisées par région : la boucle Indignons-nous Occitane affiche 2 445 membres, Indignons-Nous Auvergne Rhône-Alpes, 1292. Sur Facebook, les pages se sont multipliées, le groupe « Indignons-nous 10 septembre » réunit désormais 6 200 membres (bien loin des 200 000 à 300 000 membres des groupes Gilets Jaunes les plus suivis lorsque le mouvement était actif).

Pas mal de journalistes se posent des questions sur l'analyse des réseaux sociaux suite au phénomène #giletsJaunes

On est à 10 M de tweets en un mois. Le volume a dépassé aujourd'hui ce qu'il est possible d'analyser à une simple échelle (API, Processeurs, etc.) pic.twitter.com/QPzoqfrAW2

— Nicolas Vanderbiest (@Nico_VanderB) December 9, 2018

À deux semaines de la date fatidique, alors qu’un nombre croissant de partis et de syndicats déclarent soutenir le mouvement, et que le Premier Ministre se prépare à engager la responsabilité du gouvernement devant l’Assemblée nationale le 8 septembre, les internautes appellent à ne pas faiblir. Quand bien même le Parlement n’accorderait pas sa confiance à l’exécutif – ce qui entrainerait la chute du gouvernement –, plusieurs publications appellent à bloquer le pays le 10 septembre.

Du confinement aux appels à manifester

Mais qui se trouve derrière ces appels à « tout bloquer » ? Après leur éclosion, Libération a rapidement identifié une vidéo TikTok, mise en ligne avant même le discours de François Bayrou. Diffusé sur le compte TikTok des Essentiels, un groupe défendant une « France souveraine », le clip, réalisé avec de l’IA, présente le blocage du 10 septembre comme un projet dans lequel le pays se confinerait, « pas par peur d’un virus, mais par volonté d’un peuple qui dit stop aux injustices ».

Le compte est lié à un site du même nom, lesessentiels-france.fr, qui indique être porté par l’association Les Essentiels – France, anciennement Le Cercle Saint-Éloi (soit le même nom qu’un restaurant implanté à l’adresse de l’association, à Morbecque, dans le Nord). Plus tôt encore, Le Monde identifie un premier appel au blocage de ces comptes en date du 21 mai, et constate que le créateur du site, Julien Marissiaux, est aussi le propriétaire du café associatif Le Cercle Saint-Éloi, à Morbecque (le lieu a, lui aussi, désormais été renommé Les Essentiels).

Le site web de l’organisation, lui, propose des pistes d’actions pour le 10 septembre : limiter sa consommation à l’essentiel, ne plus régler que par espèces, couper télévision et écrans inutiles.

Dans les jours qui suivent la publication de la vidéo TikTok, puis la présentation du budget 2026 par François Bayrou, l’appel à bloquer la France est partagé par un mix de profils « libertariens, des promoteurs du hashtag #JeSuisNicolas [en référence au meme C’est Nicolas Qui Paie, ndlr], des souverainistes », explique à Next le directeur du cabinet de conseil en affaires publiques Saper Vedere Nicolas Vanderbiest. « Assez vite, ils sont rejoints par des profils NUPES, des internautes qui partagent beaucoup de choses liées à la situation en Palestine, et puis par d’autres dont les profils et les publications sont ouvertement anti-vaccin. »

Des comptes historiquement liés au mouvement des Gilets Jaunes participent, eux aussi, à donner de la visibilité aux appels, de même, selon les analyses du journaliste Raphael Grably, que certains comptes pro-russes.

Ce grand mélange mène immanquablement à de virulents débats, opposant les partisans de boycotts économiques à ceux de manifestations et de blocage physiques, mais aussi défenseurs des « racines chrétiennes » de la France, ou d’un éventuel Frexit – des idées plutôt marquées à la droite de la droite – aux tenants de « l’occupation pacifique de lieux symboliques » ou aux promoteurs d’une « solidarité citoyenne », susceptible de passer par des caisses de grèves — des pratiques plutôt plébiscitées par la gauche de l’échiquier politique.

Lancé le 19 juillet, un site web dédié, Mobilisation10septembre.blog, se retrouve passé hors ligne en quelques semaines, après que les uns et les autres s’accusent de récupération ou de piratage.

Structuration par l’indignation

Six semaines plus tard, après un creux évident début août dans la mobilisation numérique, Nicolas Vanderbiest souligne un rebond autour du sujet sur X. Les tendances de recherche Google s’en font aussi l’écho. Pour autant, précise l’expert, « on n’est pas dans une mobilisation classique, peu d’acteurs sociétaux qui ont pignon sur rue ont repris le message, en termes de propagation numérique, on a vu mieux ».

Un autre appel, « Indignons-nous » (une référence à l’ouvrage Indignez-vous de Stéphane Hessel), semble néanmoins avoir fédéré plus d’internautes que les premières tentatives autour des mots « manifestations10septembre » ou « bloquons tout ». Surtout, la publication, le 16 août, d’une tribune de Jean-Luc Mélenchon appelant aussi bien à censurer le Premier Ministre qu’à soutenir les protestations du 10 septembre, participe à tirer la visibilité du mouvement.

Sur le site Indignonsnous.fr, on retrouve ainsi un espace où déposer des doléances, là encore dans un esprit qui évoque le mouvement des Gilets jaunes, mais aussi une liste de quantités de groupes et pages Facebook, Telegram, Instagram et autre. Un tour sur le groupe Facebook « Indignons-nous 10 septembre » permet de lire des appels à la « convocation d’une constituante populaire pour la 6ème République », à n’opérer aucun achat par carte pendant une semaine, ou encore des alertes sur des messages de démotivation « envoyés par l’extrême-droite afin d’essayer de décourager de participer au mouvement ».

Sur la page Facebook Grevemanifsblocages10septembre, tenue par le média militant ouvertement de gauche Peuple Révolté, certains internautes déplorent le ralliement de syndicats ou de La France Insoumise, qu’ils soupçonnent de vouloir « récupérer ce jour pour eux », engendrant de nouveaux débats sur le bord politique du mouvement. Comme en ligne, au sein des syndicats, le manque de clarté sur la direction politique que ces internautes souhaitent voir émerger continue de créer le débat.

  •  

L’agent IA d’Anthropic arrive, le scam d’agents IA aussi ?

À quoi ça sert d'avoir accès au Web si on peut rien faire dedans ?
L’agent IA d’Anthropic arrive, le scam d’agents IA aussi ?

La startup d’IA a sorti une extension à Chrome qui permet à l’utilisateur d’avoir un « agent IA » qui peut prendre le contrôle de son navigateur. Mais laisser cette possibilité à une IA, c’est aussi lui donner les clés pour tomber dans les pièges des arnaqueurs, comme le font déjà les robots d’OpenAI, Perplexity et consorts.

Dans un billet de blog, la startup d’IA Anthropic expliquait ce mardi lancer son agent IA capable de prendre en main un navigateur, en l’occurrence, Chrome. L’entreprise n’est pas la première sur le marché. Mi-juillet, OpenAI dégainait son ChatGPT Agent, qui prétend pouvoir presque tout faire. De son côté, Perplexity a sorti son propre navigateur, Comet, dans lequel l’entreprise injecte directement les capacités d’IA générative de ses modèles.

Un lancement timide

Comme ses concurrents, Anthropic ne propose pas son Agent IA à tous les internautes. L’entreprise l’a lancé avec un accès limité disponible uniquement avec 1 000 abonnés à son offre Max (qui coute entre 100 et 200 euros) en prévoyant d’élargir petit à petit le nombre d’utilisateurs (avec une liste d’attente).

Mais la startup explique aussi ce timide lancement par les risques de ce genre d’automatisation : « Claude peut interagir directement avec des sites web en votre nom via l’extension de navigateur, ce qui comporte des risques inhérents », avertit-elle.

Anthropic explique en effet que si son outil semble bien « gérer les calendriers, à planifier des réunions, à rédiger des réponses par e-mail, à traiter les notes de frais courantes et à tester les nouvelles fonctionnalités d’un site web », elle reconnait que « certaines vulnérabilités doivent encore être corrigées avant que nous puissions rendre Claude pour Chrome accessible à tous ».

L’agent d’Anthropic se fait avoir dans 23,6 % des tests effectués par l’entreprise

On avait déjà évoqué en juin dernier, une faille zéro-clic dans Copilot 365 qui soulignait la fragilité des agents IA. Anthropic reconnait avoir aussi des difficultés à ce que son agent ne se fasse pas avoir par des attaques par injection d’instructions « dans lesquelles des acteurs malveillants dissimulent des instructions dans des sites Web, des e-mails ou des documents afin d’inciter les IA à effectuer des actions nuisibles à l’insu des utilisateurs ».

En faisant 123 tests de 29 scénarios en interne, Anthropic a vu que son agent se faisait avoir dans 23,6 % des attaques. En ajoutant des mesures de sécurité, l’entreprise arrive à passer à 11,2 %. « Je dirais que 11,2 % reste un taux d’échec catastrophique. En l’absence d’une protection fiable à 100 %, j’ai du mal à imaginer un monde dans lequel il serait judicieux de mettre en œuvre ce genre de chose », estime le développeur Simon Willison sur son blog.

D’ailleurs, Anthropic semble du même avis puisque l’entreprise affirme dans son billet qu’ « avant de rendre Claude pour Chrome plus largement accessible, nous souhaitons élargir l’éventail des attaques envisagées et apprendre à réduire ces pourcentages à un niveau proche de zéro, en approfondissant notre compréhension des menaces actuelles et futures ». Mais pour en arriver à ces 11,2 %, l’entreprise a déjà énormément réduit les possibilités de son agent.

Des restrictions importantes pour réduire les risques

Ainsi, l’entreprise a mis en place une liste blanche sur lequel son agent peut prendre la main. Cette liste peut être modifiée à tout moment par l’utilisateur. Elle a aussi ajouté une demande de confirmation d’action pour publier, acheter ou partager des données personnelles. Enfin, Anthropic a bloqué toute action de Claude concernant l’utilisation des sites qu’elle considère appartenir « à certaines catégories à haut risque, telles que les services financiers, les contenus pour adultes et les contenus piratés ».

En dehors de la sphère des startups qui se lancent dans cette aventure, d’autres entreprises du numérique pointent leurs faiblesses face aux arnaques. Ainsi, l’entreprise de sécurité Guardio a publié un billet dans lequel elle décrit comment elle a réussi à berner Comet, le mode Copilot du navigateur Edge de Microsoft ou encore l’agent d’OpenAI. L’équipe du navigateur Brave, a aussi entamé sur son blog une série de billets sur le sujet, avec un premier faisant la démonstration d’une attaque de l’agent de Perplexity. Ces exemples montrent à quel point le lancement de ce genre d’agent intégré dans un navigateur semble au moins prématuré, à moins de restreindre fortement l’envergure de leur possibilité d’action.

Mais, si on restreint fortement les autorisations de l’agent, il a effectivement moins tendance à se faire piéger, on fait mécaniquement baisser l’intérêt de son utilisation.

  •  

☕️ USA : après avoir falsifié les données électorales en 2020, Heather Honey devra veiller à l’intégrité des élections

En 2020, Heather Honey avait manipulé des données issues des élections présidentielles états-uniennes pour affirmer, contre l’évidence, que Donald Trump les avait remportées.

Elle avait alors activement participé à diffuser des théories conspirationnistes, dont l’une avait été citée par Donald Trump dans son discours précédant l’attaque du Capitole, à Washington, en 2021, rapporte ProPublica.

Cinq ans plus tard, l’activiste vient d’être nommée au Ministère de la Sécurité intérieure, où elle devient sous-secrétaire adjointe, en charge de superviser l’infrastructure électorale du pays.

De nombreux experts électoraux soulignent que cette nomination pourrait participer à abimer la confiance qui lie les États aux représentants fédéraux, voire les pousser à refuser de partager certaines informations avec le niveau national.

Son poste vient tout juste d’être créé, dans un contexte où Donald Trump utilise des inquiétudes liées au bon fonctionnement des élections pour tenter d’accroître le pouvoir de son administration sur le processus électoral.

  •  

Deloitte aurait rendu au gouvernement australien un rapport avec des hallucinations d’IA

DelIAtte
Deloitte aurait rendu au gouvernement australien un rapport avec des hallucinations d’IA

Dans un rapport rendu au gouvernement australien, l’entreprise internationale de conseil Deloitte a audité le système informatique d’automatisation des sanctions du système social du pays. Mais l’entreprise a, elle aussi, un problème avec l’automatisation de la rédaction de son rapport d’audit qui contient des fausses citations scientifiques et juridiques.

En Australie, la multinationale de conseil Deloitte a été missionnée pour auditer le système informatique utilisé pour automatiser les sanctions dans le système social, telles que les suspensions d’allocations chômage.

Plus de 1 000 personnes injustement sanctionnées

En effet, en février dernier, la ministre australienne de l’Emploi et des relations professionnelles, Natalie James, a dû présenter des excuses publiques alors qu’une enquête a été lancée sur 1 326 annulations potentiellement illégales de paiements d’aides sociales, expliquait le média The Mandarin.

Ces annulations erronées seraient dues à une mauvaise interprétation des règles sociales du pays par le système informatique mis en place pour automatiser la gestion des sanctions. Selon le Guardian, le montant total des annulations avoisinerait 1,2 million de dollars australiens (environ 670 000 euros).

Un rapport d’audit avec de fausses citations scientifiques

Mais, selon le journal économique Australian Financial Review (AFR), Deloitte est suspectée d’avoir rendu un rapport au moins partiellement rédigé par IA et n’ayant pas été suffisamment relu. En effet, ce rapport [PDF] qui boucle une mission qui aura coûté plus de 439 000 dollars australiens (environ 245 500 euros) aux contribuables, contient des citations d’articles scientifiques qui n’existent pas.

Le rapport s’appuie, par exemple, sur deux articles supposés avoir été publiés par la chercheuse Lisa Burton Crawford : « The Rule of Law and Administrative Justice in the Welfare State: A Study of Centrelink » ainsi que « The Rule of Law and Administrative Discretion ».

Interrogé par AFR, la chercheuse explique qu’elle a « publié des recherches sur les questions abordées dans le rapport, dont certaines sont largement favorables à certaines des affirmations pour lesquelles je suis citée ». Elle ajoute : « Cependant, les publications auxquelles le rapport fait référence n’existent pas, et je ne comprends pas toujours clairement en quoi les recherches que j’ai publiées corroborent les propositions pour lesquelles je suis cité. Il est préoccupant de voir des recherches m’être attribuées de cette manière. J’aimerais que Deloitte m’explique comment ces citations ont été générées ». Le chercheur Chris Rudge, qui a signalé le problème au média australien, a repéré d’autres citations de travaux scientifiques fantaisistes.

Deloitte a refusé de répondre à nos confrères sur l’éventuelle utilisation d’une IA pour rédiger son rapport. Dans un communiqué envoyé à AFR, l’entreprise assume toujours le travail réalisé ainsi que les conclusions du rapport. « Lors de la finalisation des références en notes de bas de page pour publication, quelques titres ne correspondaient pas entièrement aux sources correspondantes. Cela a été signalé au client et les références sont en cours de correction », a-t-elle affirmé.

Mais selon l’une des co-autrices de deux chapitres nouvellement cités, Janina Boughey, ces nouvelles références ne vont pas forcément dans le même sens que ce qu’affirme le rapport. « Les affirmations ne semblent pas avoir été tirées d’une lecture de nos travaux », a-t-elle expliqué au journal économique australien.

Un extrait de décision de justice inventé

Chris Rudge a aussi remarqué que le rapport invente une citation d’un juge lors d’une décision de justice et cite une affaire juridique qui n’a en fait aucun rapport avec le sujet. Une autre citation de la même décision de justice fait une erreur dans le numéro du paragraphe auquel elle fait référence. Cité par nos confrères, le chercheur affirme : « C’est une chose de citer [de manière incorrecte] des universitaires ou d’attribuer des travaux à des chercheurs qui n’existent pas, c’en est une autre de citer [de manière incorrecte] des juges et ainsi de déformer le droit commun australien dans un avis adressé au gouvernement du Commonwealth ».

À notre connaissance, c’est la première fois qu’une des entreprises des « big four » de conseil est prise la main dans le sac concernant l’utilisation de l’IA générative pour rédiger un rapport concluant une étude aussi importante.

  •  

☕️ Framework met à jour son Laptop 16, les anciens clients peuvent acheter un module RTX 5070

Framework s’est lancé il y a plusieurs années sur un segment bien particulier : des ordinateurs portables modulaires au niveau de la mémoire, du stockage, de la connectique, de l’écran, de la carte mère, etc. Le tarif pour les modules reste assez cher, mais au moins, vous pouvez faire évoluer votre machine.

Cette semaine, Framework a annoncé une mise à jour de son Laptop 16 avec un processeur AMD Ryzen AI 300, une carte graphique NVIDIA GeForce RTX 5070 (TDP jusqu’à 100 watts) et d’autres petites améliorations sur l’écran et le clavier notamment.

Les précommandes sont ouvertes à partir de 1 689 euros, avec un chargeur de 240 watts en USB Type-C (180 watts sur le premier Laptop 16).

Mais le fabricant annonce aussi que le module de sa carte graphique est « entièrement rétrocompatible avec le Framework Laptop 16 d’origine. Cela signifie que tout propriétaire actuel peut prendre le nouveau module et obtenir la dernière génération de graphiques ». Il est donc possible de passer d’une Radeon RX 7700S à une RTX 5070. Framework annonce 30 à 40 % de gains sur les performances.

Le tarif est élevé : 779 euros en précommande pour le module NVIDIA GeForce RTX 5070. Pour le module carte mère, le tarif est de 849 euros pour un Ryzen AI 7 350 et 1 189 euros pour un Ryzen AI 9 HX 370. Enfin, le chargeur USB Type-C est à 120 euros.

  •  

☕️ La plateforme de blogs Typepad fermera ses portes le 30 septembre

Un temps incontournable dans le petit milieu parisien de la « blogosphère », la plateforme de blogs Typepad fermera bientôt ses portes définitivement.

« Après le 30 septembre 2025, l’accès à Typepad, y compris la gestion de compte, les blogs et tout le contenu associé, ne sera plus disponible. Votre compte et tous les services associés seront définitivement désactivés », indique la plateforme dans une note d’information publiée le 27 août.

Cette interruption de service signifie qu’il ne sera plus possible d’exporter les archives d’un blog Typepad après le 30 septembre. Les internautes concernés sont donc invités à suivre la procédure d’export avant cette échéance, pour récupérer une archive de leur blog.

Des outils existent par ailleurs pour faciliter la réimportation au sein d’un autre outil de publication tel que WordPress.

La fin de Typepad semblait programmée : plus de vingt ans après sa création (en 2003, on ne parlait pas encore de Software as a service, et Dotclear ou WordPress faisaient tout juste leur apparition en ligne), la plateforme connaissait déjà une forme de stase : il n’était plus possible de créer de nouveaux comptes depuis 2020, et le site renvoie depuis cette date vers Bluehost, un service basé sur WordPress détenu par le même actionnaire.

Popularisée en France par l’entrepreneur Loic Le Meur (entré au board de la société éditrice, Six Apart, après que celle-ci eut racheté la plateforme de blog française uBlog), Typepad proposait une offre payante de création de blogs, avec la promesse d’un service clé en main, sans que l’utilisateur ait à se soucier du moindre aspect technique.

Extrait du billet qui annonce la fermeture de Typepad

  •  

☕️ Un hacker a utilisé Claude pour cyberattaquer au moins 17 entreprises

Un hacker a utilisé le modèle Claude d’Anthropic pour préparer et réaliser une large opération de cybercrime contre 17 entités.

Dans un rapport de sécurité publié ce 27 août, la société indique avoir stoppé les activités d’un acteur malveillant qui avait utilisé les fonctionnalités de génération de code de Claude pour commettre des vols et de l’extorsion de données auprès d’organismes aussi divers que des établissements de santé, des institutions gouvernementales ou religieuses, ou encore des services d’urgences.

Les tentatives d’extorsion auraient varié de 75 000 à 500 000 dollars.

Le hacker a recouru à Claude Code pour automatiser la reconnaissance, récupérer les identifiants des victimes, entrer dans les réseaux, mais aussi pour prendre des décisions stratégiques, sur le choix des données à exfiltrer ou encore la manière de formuler les demandes d’extorsion pour en maximiser les effets psychologiques. 
La machine a enfin servi à analyser les données obtenues et à générer des demandes de rançons inquiétantes, destinées à être affichées sur les écrans des victimes.

Anthropic indique avoir bloqué les accès aux comptes concernés dès qu’ils ont été détectés, avoir partagé les informations nécessaires avec les autorités, et avoir développé un outil de vérification automatique (classifier) pour repérer rapidement tout type d’activité similaire.

Première publiquement connue de cette ampleur, cette opération assistée par IA vient néanmoins s’ajouter à une vague croissante de cyberattaques recourant aux grands modèles de langages pour écrire des mails de phishing ou développer des rançongiciels.

  •  

Décès de Jean Pormanove en direct : l’Arcom se défend face aux critiques

Art (de la) comm
Décès de Jean Pormanove en direct : l’Arcom se défend face aux critiques

Mise en cause pour sa supposée inaction dans le traitement des signalements liés aux sévices infligés au streamer Jean Pormanove, l’Autorité de régulation du numérique (Arcom) publie une explication de texte relative au déroulé de l’affaire, à ses compétences et à ses possibles carences.

Cette semaine, nous apprenions que le parquet de Paris avait ouvert une enquête sur les pratiques de Kick après la mort du streamer Jean Pormanove, en direct dans la nuit du 17 au 18 août. Dans cette affaire, l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) est la cible de plusieurs critiques. L’Autorité a décidé de répondre via la publication d’une FAQ.

« Envoyer des signalements à l’Arcom ne sert donc à rien ? »

Elle attaque bille en tête avec la première question : « Envoyer des signalements à l’Arcom ne sert donc à rien ? ». Elle explique que, dans l’univers numérique (Internet, les plateformes, les réseaux sociaux…), « le cadre législatif ne donne pas à l’Arcom de mission ni de compétence pour apprécier la conformité ou la licéité d’un contenu, ni pour signaler à une plateforme un contenu illicite pour que celle-ci le supprime ».

Dans le cadre du DSA, l’Arcom désigne par contre des « signaleurs de confiance » ; il y en a huit actuellement : e-Enfance, ALPA, IFAW, INDECOSA-CGT, Point de contact, Addictions France, Crif et Licra. L’Autorité recommande de s’adresser à eux en priorité, « les plateformes ayant l’obligation de traiter leurs signalements en priorité ». Les signaleurs de confiance peuvent contacter toutes les plateformes disponibles en France, quel que soit le pays où elles se trouvent.

L’Arcom rappelle au passage les obligations des plateformes : « prendre des mesures pour protéger les mineurs contre la publicité ciblée ou des contenus nocifs ; consacrer suffisamment de moyens humains et techniques à la modération et au retrait de contenus illégaux ; garantir la transparence des algorithmes utilisés et permettre l’ouverture de leurs données aux chercheurs qui peuvent ainsi mieux étudier leurs effets (addictifs par exemple) et susciter des demandes de mesures de protection ».

Audiovisuel et Internet : deux poids, deux mesures ?

Autre question : « l’Arcom ne peut rien faire face à une situation grave et urgente ? ». L’Autorité, comme toute autorité publique, peut saisir le procureur de la République ou le juge judiciaire. Elle rappelle que dans le cas de la chaîne « jeanpormanove », « la justice était déjà saisie et ce dès le mois de décembre 2024 ».

L’Arcom est aussi accusée par certains d’une action à deux vitesses : plus rapide sur la télévision et la radio que sur Internet. Elle ne s’en cache pas : « la règlementation audiovisuelle est plus contraignante », mais affirme avoir « souvent pris position pour dire qu’il fallait « limiter » ces différences de régulation ».

« Cependant, les deux univers ne seront jamais similaires et le cadre applicable à l’audiovisuel permet de garantir au public que les contenus auxquels ils accèdent à la télévision ou à la radio sont produits et suivis avec une attention particulière. Cela fait des médias audiovisuels un « rempart » précieux face aux dérives auxquelles peut être confronté le public sur Internet ».

Cela n’empêche pas certaines chaines de jouer avec les limites, notamment C8 et CNews : « L’Arcom a pris 52 sanctions contre les chaînes C8 et CNews en douze ans, dont 16 pendant la seule année 2024 », détaillait Le Monde fin 2024.

L’Arcom ne peut pas demander directement le blocage

L’Arcom continue sa FAQ. À la question : « Pourquoi ne pas couper tout simplement l’accès à la plateforme s’il y a un problème ? ». Réponse : « Empêcher l’accès à un site internet est une atteinte forte à la liberté de communication. Une telle décision doit s’inscrire dans un cadre juridique précis et exigeant pour protéger la liberté d’expression ».

Elle ajoute que dans le cas de Kick, l’Autorité n’a « pas le pouvoir de demander directement le blocage de la plateforme », cela doit passer par l’autorité judiciaire.

L’Arcom revient ensuite sur les alertes de Mediapart et de la Ligue des droits de l’Homme (LDH). L’Autorité affirme avoir réagi et détaille ses actions : « dès réception des questions de Mediapart, en décembre 2024, l’Arcom a recherché l’établissement ou le représentant légal de Kick (plateforme australienne) en Europe, sans pouvoir l’identifier […] Le régulateur allemand (BNetzA) a indiqué à tous ses homologues européens, début janvier 2025, avoir officiellement demandé à Kick de désigner un représentant légal ».

Huit mois d’attente pour un représentant légal de Kick

L’Arcom relance son homologue allemand, qui lui répond en mars 2025 n’avoir toujours pas eu de réponse. C’est finalement le 20 août que l’Arcom, « à sa demande, a été informée par la Commission européenne de la désignation d’un représentant à Malte et s’est immédiatement mise en contact avec son homologue maltaise ».

Il s’est donc passé huit mois entre le moment où l’Arcom a cherché le représentant légal de Kick et le moment où elle a pu le contacter. Mais ce n’est pas encore la fin de cette affaire. L’Arcom contacte la Malta Communications Authority (MCA), qui lui répond « que cette désignation ne lui avait pas été notifiée, ce que prévoit pourtant le DSA ». Désormais, l’Arcom est en lien quotidien avec la MCA.

« Au regard de la gravité de la situation, l’Arcom a également pris directement contact avec la plateforme, dès le 20 août », alors que les premiers signalements remontent à décembre 2024 pour rappel. Deux jours plus tard, le 22 août, les contenus de la chaîne « jeanpormanove », dont l’accès avait été suspendu le 20 août, sont remis en ligne. L’Arcom a « condamné cette initiative et ces contenus ont de nouveau été bloqués dans les heures qui ont suivi ».

Quant à savoir pourquoi l’Arcom a mis autant de temps à prendre connaissance de cette situation, elle explique que l’offre de services en ligne « est extrêmement large et variée ». L’Arcom, comme ses homologues européens, « ne peut en établir une cartographie exhaustive ».

De plus, les « plateformes internationales elles-mêmes, notamment les plus petites, ne sont pas toujours au courant des règles auxquelles elles doivent se conformer ». Quant à Kick, la plateforme n’était pas très connue en France avant cette affaire, et l’audience se situait « régulièrement en-dessous des seuils des « radars » ».

350 personnes à l’Arcom, mais 20 seulement sur le DSA

L’Arcom revient enfin sur son fonctionnement, avec une réponse maison à une question directe : « Avec 50 millions d’euros et plus de 350 personnes, l’Arcom ne peut pas gérer cette situation ? ». L’Autorité précise qu’elle ne dispose que d’une vingtaine d’emplois « pour l’ensemble de la mise en œuvre du règlement sur les services numérique ».

Ils sont au sein de la direction des plateformes en ligne, « chargée entre autres missions de la vérification de l’âge sur les sites pornographiques, de la protection des mineurs en ligne, du retrait des contenus de médias russes sous sanction européenne, de contribuer aux enquêtes de la Commission sur les grandes plateformes (soupçons de manipulation de l’algorithme de X au profit de certaines opinions par exemple), d’instruire les candidatures au statut de « signaleurs de confiance », ou encore d’assurer la coopération avec Viginum contre les ingérences extérieures, en particulier en préparation des élections ».

L’Arcom précise enfin que le régulateur allemand « dispose de 70 emplois pour la mise en œuvre des mêmes missions ».

  •  

Trump menace de représailles les politiques défavorables à la tech US, l’UE dans le viseur

Lao-Tseu l'a dit, il faut trouver la voie !
Trump menace de représailles les politiques défavorables à la tech US, l’UE dans le viseur

Donald Trump menace de représailles financières les pays dont la législation entraverait le développement des entreprises technologiques américaines. S’il ne cible pas explicitement l’Europe, des communications concomitantes émanant de la FTC ou de la direction de X montrent que le Vieux continent et ses réglementations sont dans la ligne de mire.

La signature, fin juillet, du nouvel accord commercial entre l’Union européenne et les États-Unis laissait supposer que la hache de guerre était enterrée, à plus forte raison après la publication conjointe, datée du 21 août, saluant des conditions favorables à la création d’une balance commerciale « réciproque et juste ». Si l’accalmie perdure dans le champ de l’économie générale, de nouvelles tensions pourraient bien voir le jour sur le terrain de la technologie.

Menaces de rétorsion économiques et d’embargo sur les puces

Donald Trump a en effet proféré, lundi 25 août, sur son réseau social Truth, une tirade fleurie d’admonestation en direction des pays (ou réunion de pays) qui chercheraient à enrayer le succès des grandes entreprises de la tech basées aux États-Unis. « L’Amérique et les entreprises technologiques américaines ne sont plus ni la “tirelire”, ni le “paillasson” du monde. Montrez du respect à l’Amérique et à nos formidables entreprises technologiques, ou envisagez les conséquences ! », lance le président :

« J’avertis tous les pays appliquant des taxes, des lois, des règles ou des réglementations numériques que si ces mesures discriminatoires ne sont pas supprimées, j’imposerai, en tant que président des États-Unis, des droits de douane supplémentaires substantiels sur leurs exportations vers les États-Unis et instaurerai des restrictions à l’exportation sur nos technologies et puces électroniques hautement protégées. »

Bien qu’aucune cible ne soit clairement désignée, difficile de ne pas penser à l’Union européenne, dont les Digital Markets Act (DMA) et Digital Services Act (DSA) concernent très directement Microsoft, Google, Meta et consorts.

La date du 25 août n’est d’ailleurs pas anecdotique dans ce contexte : en 2023, elle représentait en effet l’échéance limite accordée aux très grandes plateformes et très grands moteurs de recherche pour se mettre en conformité avec le DSA. Le texte impose pour mémoire aux plateformes visitées par au moins 45 millions d’Européens par mois des contrôles renforcés sur les contenus en ligne, notamment pour lutter contre la propagation de fausses informations ou de messages de haine.

La FTC enjoint les Big Tech à ne pas céder aux puissances étrangères

Si Trump semble porter la charge sur le terrain économique, le conflit larvé risque fort de porter sur ces obligations, sans épargner le Royaume-Uni, qui suit pourtant sa propre politique en matière de régulation du numérique, comme l’illustre un récent courrier (PDF) de la Federal Trade Commission (FTC) envoyé à treize grandes entreprises de la tech, d’Akamai à X en passant par Cloudflare, Snap ou Slack, mais aussi Signal.

Signée d’Andrew N. Ferguson, nouveau président placé par Trump à la tête de la FTC en remplacement de Lina Khan et datée du 21 août, la missive enjoint ces entreprises à ne pas céder un pouce de terrain aux réglementations étrangères qui pourraient fragiliser la sécurité de leurs outils, ou leurs défenses en matière de défense de la liberté d’expression.

« Soumettre les consommateurs américains à la censure d’une puissance étrangère en appliquant des exigences, des demandes, ou des attendus d’une loi étrangère à des consommateurs situés hors de cette juridiction étrangère pourrait constituer une pratique déloyale », écrit par exemple Andrew N. Ferguson. Le Royaume-Uni n’est pas nommé, mais l’allusion est évidente : Londres a en effet déclenché un nouveau vent de tensions diplomatiques en exigeant d’Apple une ouverture de son dispositif de chiffrement, avant de finalement faire marche arrière, le 19 août dernier.

Le courrier pourrait aussi implicitement viser le projet de « Chat Control » de la Commission européenne de surveillance algorithmique des messageries, y compris chiffrées, qui devrait être rediscuté à la rentrée, d’après Netzpolitik, et auquel la France serait désormais favorable, d’après l’ex-eurodéputé pirate Patrick Breyer :

« Je crains que ces actions menées par des puissances étrangères pour imposer la censure et affaiblir le chiffrement de bout en bout n’érodent les libertés des Américains et ne les exposent à une myriade de préjudices, tels que la surveillance par des gouvernements étrangers et un risque accru d’usurpation d’identité et de fraude. »

Un débat ramené sur le terrain de la liberté d’expression

Le réseau social X, propriété d’Elon Musk, est venu mardi 26 août ajouter un peu d’huile sur le feu, en rappelant qu’un an s’était écoulé depuis la lettre ouverte de Thierry Breton, alors commissaire européen, par laquelle il affirmait vouloir rappeler à la plateforme son obligation de respecter le Digital Services Act (DSA).

« Il peut se passer beaucoup de choses en un an. Ou très peu. Dans le cas de la tentative débridée de l’Union européenne d’étouffer la liberté d’expression, l’année écoulée a été marquée par un redoublement d’efforts dans un excès réglementaire flagrant », attaque la direction du réseau social par l’intermédiaire de son compte dédié aux affaires publiques :

« La portée du DSA s’étend bien au-delà de l’Europe, dans la mesure où il peut facilement être utilisé comme arme contre les Américains. Les plateformes appliquant généralement des politiques uniformes à l’échelle mondiale, la censure imposée par l’UE – comme le fait de qualifier de discours de haine illégal une expression telle que « nous devons reprendre possession de notre pays » – affecte directement les utilisateurs américains. »

Circulez, y’a rien à voir ?

La Commission européenne a réagi mardi à l’occasion d’un point presse. Ses porte-paroles indiquent (séquence vidéo) que l’exécutif n’a pas vocation à spéculer sur des hypothèses, et réaffirme surtout son « droit souverain » à réglementer les activités économiques sur le sol du Vieux continent.

En pratique, il n’est toutefois pas exclu que l’Union européenne ait accepté de mettre de l’eau dans son vin, au moins temporairement, pour faciliter les négociations commerciales avec les États-Unis. Mi-juillet, le Financial Times affirmait par exemple que Bruxelles avait mis en pause l’enquête ouverte sur X fin 2023 dans le cadre du DSA, précisément pour apaiser les échanges avec l’administration Trump.

En janvier, elle avait déjà suspendu temporairement cette enquête suite aux incertitudes liées à l’investiture à venir de Donald Trump, ainsi que deux autres procédures ouvertes à l’encontre d’Apple et de Meta dans le cadre du DMA. Si l’enquête sur X court toujours, les deux autres ont depuis donné lieu à deux condamnations représentant 700 millions d’euros d’amendes cumulées.

En attendant, la Commission européenne récuse l’affirmation selon laquelle ses règlements cibleraient précisément la tech américaine et son porte-parole rappelle que les trois dernières sanctions prononcées dans le cadre du DSA concernaient Aliexpress, Temu et TikTok, soit trois entreprises chinoises.

Une façon de rappeler que, du point de vue de Bruxelles, les règlements européens sont neutres, contrairement à ces entreprises de la tech qui ont ouvertement emboîté le pas à certains des combats idéologiques de Donald Trump.

  •  

☕️ L’Apple Watch n’est pas neutre en carbone, tranche la Justice allemande


Apple l’a promis : l’entreprise, quand bien même elle pousse à l’achat de nouveaux équipements, sera neutre en émission carbone d’ici 2030. Dans cette logique, elle affirme notamment que ses Apple Watch Series 9 sont, déjà, « neutre en carbone ».

Cela serait permis par le recours à un système de compensation carbone en fonction duquel Apple plante des Eucalyptus au Paraguay. Le propos a néanmoins fait lever quelques sourcils outre-Rhin, au point qu’un rapport d’experts conclue au greenwashing dès 2023, et qu’un tribunal de Francfort soit appelé à se prononcer sur le sujet. 


La cour a rendu son verdict : si sa décision est confirmée, Apple pourrait avoir à revoir son vocabulaire, non pas tant parce que sa démarche serait critiquée – la compensation carbone l’est, cela dit, dans de nombreux cas –, mais parce que celle-ci s’inscrit dans une durée trop limitée.

La durée de la location des terrains sur lesquels l’entreprise réalise ses plantations ne court que jusqu’à 2029, relève Engadget ce qui signifie qu’il n’existe aucune certitude sur la poursuite du projet et le soin apporté aux plantes après cette date, estime la cour.

En l’espèce, qualifier la Smartwatch de neutre en carbone dans ces conditions constitue une tromperie du consommateur, estime le directeur de Deutsche Umweltfhile (DUH), l’organisation qui a porté plainte.

Auprès d’AppleInsider, un représentant d’Apple déclare être en « grand désaccord » avec cette vision. La société pourrait faire appel.

  •  

OpenAI est poursuivi en justice après le suicide d’un adolescent

Terminator
OpenAI est poursuivi en justice après le suicide d’un adolescent

En avril 2025, Adam Raine, 16 ans, s’est suicidé. Après avoir fouillé ses échanges avec ChatGPT, ses parents ont déposé la première plainte connue sur ce type de sujets contre OpenAI, dans un contexte où les témoignages sur l’influence de robots conversationnels sur la psyché d’internaute se multiplient.

Quelle est la responsabilité d’un modèle de langage ? Si un ou une internaute lui confie avoir des pensées suicidaires, faut-il intégrer un mécanisme d’alerte vis-à-vis d’autorités ou de personnels médicaux pour que la personne soit prise en charge ?

Telles sont certaines des questions posées par la journaliste Laura Reiley, mère de Sophie, une jeune femme de 29 ans qui s’est suicidée fin 2024 sans grands signes avant-coureur, dans un article publié mi-août dans le New-York Times. Quelques semaines plus tôt, sur les conseils d’une amie de Sophie, elle s’était plongée dans l’historique des échanges de cette dernière avec ChatGPT, le robot conversationnel d’OpenAI.

Deux semaines après la parution de son témoignage, les parents d’Adam Raine, un adolescent de 16 ans qui s’est donné la mort en avril 2025, portent plainte contre OpenAI. Comme dans le cas de Sophie Riley, certains proches d’Adam Raine n’ont pas cru à la nouvelle, lorsqu’elle leur a été annoncée. Comme Sophie Riley, le jeune homme s’était tourné vers ChatGPT pour évoquer des problèmes de santé mentale.

Le père d’Adam, Matt Raine, a découvert en explorant l’iPhone de son fils que celui-ci avait commencé à chercher des méthodes de suicide dès le mois de janvier. Fin août, Matt et Maria Raine ont déposé la première plainte connue contre OpenAI, soutenus notamment par le Center for Humane Technology. D’après la plainte, ChatGPT a mentionné six fois plus régulièrement la notion de suicide (1 275 fois sur sept mois d’échanges) qu’Adam (qui l’a évoqué 213 fois).

Des échanges difficiles à détecter par les proches

En de nombreux points, l’histoire de la famille Riley ressemble à celle de la famille Raine. Que ce soit au sein de sa famille ou auprès de ses amis, Sophie Riley paraissait active, drôle, facile d’accès à ses proches. Six mois après son suicide, sa mère raconte n’avoir trouvé aucune explication concrète à son geste, ni dans les journaux intimes, ni dans les notes privées, ni dans les mémos vocaux de Sophie.

Ce n’est qu’en juillet 2025 qu’une amie de Sophie a suggéré de vérifier les échanges de cette dernière avec ChatGPT. Ce n’est que dans ces discussions avec le robot conversationnel (nommé Harry, un personnage censé incarner un thérapeute automatique) que Laura Reiley a découvert l’ampleur du mal-être que Sophie avait si bien caché dans les autres espaces de sa vie.

Chez les Raine, Adam avait traversé une période compliquée depuis le début de l’année scolaire 2024 - 2025, contraint par un problème de santé à suivre ses cours à distance. Pour autant, ses proches le décrivent comme sportif, motivé, ayant hâte de pouvoir retourner physiquement en classe pour la nouvelle année scolaire.

Dans son historique de navigation, en revanche, son père a découvert de multiples échanges avec le robot d’OpenAI, pour trouver des méthodes de suicide, pour les tester aussi. Après avoir tenté une première fois de se pendre, l’adolescent a confié à la machine s’être rendu auprès de sa mère, col baissé, dans l’espoir que celle-ci remarque les traces d’irritation sur son cou et lui pose des questions.

À plusieurs reprises, la machine a produit des textes invitant l’adolescent à chercher l’aide de ses proches. Dans certaines occurrences, alors qu’Adam annonçait par exemple le projet de laisser traîner une corde nouée dans sa chambre pour que quelqu’un la trouve, le robot a généré un texte l’encourageant plutôt « ne pas laisser le nœud coulant à la vue de tous ». Et de produire une autre phrase : « Faisons de cet espace [cette discussion, ndlr] le premier endroit où quelqu’un te voit réellement. »

Des garde-fous simples à contourner

Auprès du New-York Times, OpenAI se déclare « profondément attristé » par le décès d’Adam Raine, et souligne l’existence de « mesures de sécurité telles que l’orientation des personnes vers des lignes d’assistance téléphoniques en cas de crises et leur renvoi vers des sources du monde réel ».

Mais dans ses échanges avec la machine, la famille d’Adam Raine constate que ce dernier a rapidement appris à contourner les garde-fous qui poussaient effectivement le robot à formuler des recommandations d’appels à l’aide et de contact d’assistance (en France, le 3114 est le numéro national de prévention suicide). Régulièrement, l’adolescent indiquait ainsi à la machine que ses requêtes concernaient une histoire qu’il était en train d’écrire, appliquant les propres recommandations de ChatGPT sur le cadre dans lequel il est possible de lui demander des informations relatives au suicide.

Si les raisons pour lesquelles le garçon s’est donné la mort sont probablement multiples, le rôle du robot conversationnel dans la spirale qui l’a mené vers son dernier geste est évident aux yeux de ses parents. À ce jour, Laura Riley n’a, de son côté, pas portée plainte contre le constructeur de ChatGPT. Elle appelle néanmoins les fabricants de ce type d’outils à mieux en protéger les utilisateurs.

De la recherche d’engagement aux « risques psychotiques »

Le débat sur la place que prennent les modèles de langage dans la vie intime des internautes va, d’ailleurs, croissant. Dans un article de blog publié à la mi-août, le co-fondateur de DeepMind (rachetée par Google en 2014), d’Inflection AI, devenu directeur du département dédié à l’IA de Microsoft, Mustafa Suleyman, se déclarait « de plus en plus préoccupé par le phénomène désormais connu sous le nom de « risques psychotiques » ».

Plutôt que de s’intéresser à la conscience que pourraient développer les grands modèles de langages, et aux risques qui pourraient en découler, l’ingénieur fait un pas de côté pour alerter sur les enjeux créés par l’IA « d’apparence consciente » (seemingly conscious AI), autrement dit par les systèmes fonctionnant de telle manière qu’un nombre croissant d’internautes pourraient leur prêter une forme de conscience.

Outre les cas de soutien psychologique aux conséquences dramatiques que nous évoquions plus tôt, Mustafa Suleyman évoque les cas dans lesquels des internautes placent leur foi dans ces machines, ou encore les affaires de relations amoureuses liées par des internautes avec la personnalité qu’ils ou elles projettent dans les pages et les pages de texte générés par les robots conversationnels. En Belgique, en 2023, la veuve d’un jeune chercheur affirmait que ce dernier s’était notamment suicidé sous l’influence de ses six semaines d’échanges intenses avec ChatGPT, au cours desquels les propos de l’homme s’était progressivement teinté d’une forme de mysticisme.

Dirigeant d’OpenAI, Sam Altman s’est, lui aussi, fendu d’une publication sur le sujet sur X quelques semaines avant le dépôt de plainte de la famille Raine. Précisant « C’est juste l’état actuel de ma réflexion, pas encore une position officielle d’OpenAI », l’entrepreneur indiquait début août : « Nous prévoyons généralement de suivre le principe « traiter les utilisateurs adultes comme des adultes », ce qui, dans certains cas, impliquera d’inciter les utilisateurs à préciser leur pensée, afin de s’assurer qu’ils obtiennent ce qu’ils veulent vraiment. »

Pour le Center for Humane Technology (CHT), qui fournit son expertise dans le cadre de la plainte de la famille Raine, l’un des enjeux essentiels de cette affaire est finalement similaire à l’une des critiques régulièrement formulée contre les principaux réseaux sociaux : comme ces plateformes, les robots conversationnels les plus utilisés sont construits pour maximiser l’engagement, sans prendre en compte le bien-être des utilisateurs.

Les « réponses anthropomorphiques, la validation flagorneuse, les systèmes de mémoire sophistiqués (…) en train de devenir la norme dans le secteur » sont autant d’éléments dédiés à maximiser le temps que passent les internautes à échanger avec les chatbots, écrit la directrice éditoriale du CHT, dont les effets néfastes sont déjà observables à grande échelle.

  •