Vue normale

Reçu — 13 mars 2026 Next - Articles gratuits

Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

13 mars 2026 à 16:56
Irréalité virtuelle
Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

Depuis le début de sa guerre contre l’Iran, sur les réseaux sociaux et notamment sur X, la Maison Blanche partage des vidéos mélangeant frappes militaires et images de jeux vidéo comme GTA, Call of Duty ou des jeux de la console Wii. Sur le terrain, ce sont de vrais morts, un vrai hôpital, de vraies écoles et un vrai site classé au patrimoine mondial de l’Unesco qui sont touchés.

Du côté américain, les images de propagande sur les guerres du Golfe des années 90 et 2000 ont laissé en mémoire les images de frappes qualifiées de « chirurgicales ». Depuis son entrée en guerre contre l’Iran avec son opération « Epic Fury », la Maison Blanche abreuve les réseaux sociaux d’une iconographie qui mêle ce genre d’images à celles de jeux vidéo.

Promotion de la guerre par les memes de jeux vidéo

« La Maison Blanche traite, d’une certaine manière du moins, la guerre comme un jeu, en diffusant à la légère ce que l’on pourrait, pour être indulgent, qualifier de vidéos promotionnelles sur leur guerre », commentait le week-end dernier le présentateur de CNN, Jack Tapper.

Effectivement, de Call of Duty (dont la Maison Blanche a finalement retiré sa vidéo), à GTA, la Maison Blanche emprunte à l’univers du jeu vidéo. Les vidéos sont généralement un mélange d’extraits de ces jeux déjà réutilisés en mèmes avec des vidéos embarquées de bombardements.

À certaines critiques, Steven Cheung, le responsable communication de la Maison Blanche, lance un « W’s in the chat, boys! », expression reprise du milieu de Twitch et des streamers pour appeler à célébrer la victoire dans une discussion.

L’administration Trump n’utilise pas que l’imagerie des jeux vidéo. Ainsi, le compte Instagram de la Maison Blanche a diffusé, par exemple, une vidéo accompagnée d’une reprise modifiée de la chanson « Boom Boom » de John Lee Hooker.

La réalité des conséquences n’arrête pas la Maison Blanche

Cette communication sur les réseaux sociaux se voulait la démonstration d’une efficacité de l’armée américaine pour frapper le régime iranien et son programme nucléaire. Alors que les sondages montrent qu’une majorité d’Américains ne comprend pas le but de cette guerre contre l’Iran, « le gouvernement américain ne se contente pas de vouloir que les Américains soutiennent la guerre qu’il a déclenchée avec Israël contre l’Iran ; il veut galvaniser la population », estime l’analyste de CNN Zachary B. Wolf.

Mais, moins de 15 jours après le déclenchement de cette guerre, la communication de la Maison Blanche se heurte à la réalité du conflit racontée par les médias.

La semaine dernière, la BBC identifiait sur images satellitaires que les frappes avaient touché des écoles, l’hôpital Ghandi de Téhéran ou encore le palais du Golestan, site classé au patrimoine mondial de l’Unesco.

Ce mercredi 11 mars, le New York Times confirmait les doutes sur les frappes qui ont touché dès le premier jour de la guerre une école de filles dans la ville iranienne de Minab. Selon le journal, une enquête militaire a déterminé que l’armée américaine a utilisé des données obsolètes et a bien bombardé cette école, faisant au moins 175 morts, dont la plupart étaient des enfants.

Mais le lendemain, la Maison Blanche a continué à poster ses vidéos sur X, l’une jouant sur le mot « strike » au bowling et l’autre mêlant les images de frappes avec celles de plusieurs jeux de Wii.

« La culture du gaming ne mène pas à la jouissance de la guerre », affirme Louis Lapeyrie dans le Grand Continent, « c’est la sphère politique — inspirée de la mouvance néoréactionnaire et d’autres — qui en invoque les codes pour entraîner un large public occidental dans son œuvre finaliste ».

Et l’Iran s’est mis, le même jour, à riposter sur ce terrain de la propagande des réseaux sociaux toutefois sans y aller directement en reprenant les codes des jeux vidéo. Une vidéo met en scène le story telling du régime avec des LEGO, évoquant justement le bombardement de l’école de Minab mais aussi Donald Trump et Benyamin Nétanyahou pactisant avec le diable ou encore Israël en flammes. Une autre, présentée comme « le retour de Khamenei », met en scène la riposte iranienne face à un Donald Trump apeuré.

Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

13 mars 2026 à 13:29
Moi, influençable ?
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique.

Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre.

Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre.

C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants.

À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA.

Des questions pourtant très politisées et débattues

Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction :

Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain.

Une influence significative

De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur

Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask).

Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.

Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».

Persuadés de ne pas être influencés par l’IA

Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée.

La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant :

« De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci.

« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».

☕️ Copilot Health : Microsoft lance son concurrent à ChatGPT Santé

13 mars 2026 à 08:21


Deux mois après OpenAI, Microsoft lance son chatbot spécifiquement dédié aux questions de santé.

L’entreprise a annoncé la sortie de Copilot Health ce jeudi dans un billet de blog. Comme ChatGPT Santé, le nouveau chatbot de Microsoft encourage les utilisateurs à lui donner accès à leur dossier médical pour qu’il leur génère des conseils personnalisés. Ils peuvent aussi fournir les données de leurs appareils de Fitness et de santé comme ceux d’Apple, Oura ou Fitbit.

Et de la même façon que son concurrent, l’entreprise de Redmond précise que « Copilot Health ne remplace pas votre médecin ». Mais dans sa communication, Microsoft s’appuie sur les défaillances du système de santé pour mettre en avant son outil : « Les longues attentes, la pénurie de cliniciens et l’accès inégal aux soins médicaux poussent de nombreuses personnes à se tourner vers des sources en ligne pour obtenir de l’aide ».

Illustration : Flock

Dans cette version de Copilot, elle assure avoir « amélioré la qualité et la fiabilité des réponses » concernant la santé par rapport à la version classique de son chatbot en s’appuyant sur des informations d’ « organismes de santé crédibles dans 50 pays » listés par l’académie de Médecine états-unienne.

Comme ChatGPT Santé, Copilot Health bénéficie de la récente baisse de surveillance par la Food and Drug Administration (FDA), l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, des dispositifs de santé portables ou s’appuyant sur l’IA.

Copilot Health n’est pour l’instant pas disponible à tous les utilisateurs : Microsoft a pour l’instant prévu une liste d’attente.

Reçu — 12 mars 2026 Next - Articles gratuits

ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

12 mars 2026 à 10:50
IA pas très discrète
ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

Lancé en 2024, ChatGPT Edu est une version spéciale pour les universités. Mais la configuration par défaut de l’outil expose les métadonnées de son utilisation dans certains projets à des milliers de personnes sans que les enseignants-chercheurs le sachent.

Les entreprises d’IA générative ont commencé depuis quelque temps à proposer des offres spéciales universités. En mai 2024, OpenAI sortait par exemple son offre « ChatGPT Edu ».

En France, comme nous l’expliquions, « un service d’accès à une IA générative souveraine, développé avec Mistral et opéré sur les datacenters de l’ESR » a été lancé fin janvier en expérimentation par l’Amue, une agence de mutualisation de services numériques pour les universités et autres établissements de l’enseignement supérieur.

Mais des établissements d’enseignement supérieur, l’Université d’Harvard en tête de liste mais aussi en France l’ESCP Business School, ont pris un abonnement chez le leader de l’IA générative.

Pour vanter son produit, OpenAI cite le directeur du système d’information (DSI) de l’université de l’État de l’Arizona : « Le lancement du produit éducatif d’OpenAI, ChatGPT Edu, revêt une importance capitale. Il nous aide à protéger la vie privée de nos étudiants, à protéger nos résultats de recherche qui constituent notre propriété intellectuelle, et répond à nos exigences en matière de sécurité ».

Des métadonnées permettant d’en savoir plus sur les projets en cours

Mais, selon des chercheurs d’Oxford interrogés par le média économique américain Fast Compagny, certaines informations concernant l’utilisation de ChatGPT Edu dans les universités ne sont pas si bien protégées que ça.

Cela concerne plus précisément l’utilisation de Codex via ChatGPT Edu. Si aucun code ou dépôt de données n’est accessible à des personnes non-autorisées, certaines métadonnées sont visibles par des milliers de collègues sans que cela soit notifié clairement aux utilisateurs.

« Tout le monde à l’université, ou du moins un grand nombre de personnes, moi y compris, peut voir de nombreux projets sur lesquels [des gens] ont travaillé avec ChatGPT », explique le chercheur de l’université d’Oxford Luc Rocher à Fast Company.

Luc Rocher explique qu’il peut accéder à des métadonnées comme le nombre de fois qu’un utilisateur a interagi avec ChatGPT dans un projet ou sa date de début. De ces métadonnées, il a pu déduire qu’un étudiant d’Oxford travaillait sur la soumission d’un article scientifique en utilisant ChatGPT Edu (l’étudiant a ensuite confirmé). Le chercheur a signalé le problème à OpenAI et à son université mais, insatisfait de la réponse, il a choisi d’en parler à nos confrères.

Une mauvaise configuration par défaut

Interrogé par Fast Company, OpenAI assure que « les utilisateurs ont un contrôle total sur la manière dont leurs environnements sont partagés. Les noms des dépôts ne peuvent être visibles par les autres membres de la même organisation que si le propriétaire de l’espace de travail en décide ainsi, et le contenu des dépôts reste sécurisé ».

Mais pour Luc Rocher, « il semble que ça soit une question d’une mauvaise configuration par défaut » et d’un manque d’information sur celle-ci.

Même si les métadonnées ne sont pas accessibles à l’extérieur de l’université, celle-ci regroupe des dizaines de milliers de personnes. « " En ce qui concerne l’étendue des personnes qui peuvent accéder aux données comportementales les unes des autres, cela est assez préoccupant », estime un chercheur de l’université qui a requis l’anonymat.

L’université d’Oxford n’a pas voulu faire de commentaires. Selon nos confrères, la même configuration serait en place dans d’autres universités (sans citer leurs noms).

« Je pense que c’est quelque chose dont les universités doivent être conscientes », explique Luc Rocher. « Bien que l’on ne sache pas exactement quelle quantité de données est exposée par défaut par OpenAI, il est clair que la manière dont ces systèmes sont intégrés rend visibles à la fois pour l’entreprise et pour l’ensemble de l’organisation des informations qui ne l’étaient pas auparavant », commente auprès de Fast Company, le chercheur Michael Veale en droit et politique des technologies à UCL.

Reçu — 11 mars 2026 Next - Articles gratuits

☕️ WhatsApp permet de créer des comptes aux moins de 13 ans, avec des restrictions

11 mars 2026 à 16:10


Meta change encore des choses pour les utilisateurs mineurs d’une de ses plateformes, en l’occurrence, WhatsApp.

Le groupe de Mark Zuckerberg fait face actuellement à un procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans qui les accuse d’entretenir l’addiction de leurs plateformes chez les jeunes. Dans ce cadre, le responsable a été pressé de justifier la politique de Meta relative aux préados.

Les icones des applications telegram signal whatsapp line et wechat affichées sur un écran de smartphone.

Meta a par exemple prévu de modérer ses IA pour les mineurs, ce qui a notamment pour conséquence de censurer l’information sur la santé sexuelle.

Jusque-là, WhatsApp interdisait officiellement la création de compte aux moins de 13 ans. L’entreprise annonce ouvrir cette possibilité à condition qu’elle soit supervisée par les parents. « Une fois configurés, ces comptes gérés sont contrôlés par un parent ou un·e représentant·e légal·e qui pourra décider qui peut contacter l’enfant et quels groupes ce dernier peut rejoindre. De plus, le parent pourra examiner les demandes de discussion provenant de contacts inconnus et gérer les paramètres de confidentialité du compte », assure l’entreprise.

Les comptes du parent et de l’enfant seront associés via le scan d’un QR code, explique la FAQ. Un code PIN parental de 6 chiffres permet d’accéder aux paramètres de confidentialité de l’enfant et de les modifier. « Il ne doit pas être communiqué à votre enfant », explique WhatsApp.

L’entreprise s’assure ainsi de pouvoir rester un outil de discussion intrafamiliale tout en rassurant les parents sur le fait que n’importe qui ne puisse pas entrer en contact avec leurs enfants via l’application.

Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

11 mars 2026 à 15:50
Tranquille
Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

Un ancien du département temporairement géré par Elon Musk se serait vanté d’avoir deux bases de données, dont une sur une clé USB, contenant des informations concernant 500 millions d’Américains (morts ou vivants). Une plainte a été déposée auprès de la Sécurité sociale américaine par un lanceur d’alerte interne. L’agence de santé nie l’existence de cette fuite.

Les conséquences des incursions du DOGE dans de nombreuses agences étatsuniennes se font ressentir un an après. On apprenait récemment que la suppression des financements de la recherche en sciences sociales s’appuyait sur une simple requête ChatGPT.

Mais un des membres de ce département temporaire, officiellement créé par Donald Trump pour améliorer l’efficacité de l’administration américaine, aurait gardé sur une clé USB deux bases de données issues de la Sécurité sociale des États-Unis (SSA).

On se souvient que, s’étant emparé de son contrôle, le DOGE voulait migrer le code de l’intégralité de cette agence en quelques mois pour se débarrasser du COBOL. Aucune nouvelle de ce projet n’a filtré depuis, pas même depuis que le DOGE n’existe officiellement plus.

Une plainte d’un lanceur d’alerte en interne

Mais en passant, certains des ingénieurs de l’équipe dirigée par Elon Musk pourraient s’être servis dans les bases de données de l’institution. Selon une plainte déposée en interne par un employé de la Sécurité sociale qu’a pu consulter le Washington Post, un ancien ingénieur du DOGE a déclaré à plusieurs de ses nouveaux collègues qu’il était en possession de deux bases de données concernant des citoyens américains, dont au moins l’une d’entre elles sur une clé USB.

Ces deux bases de données, nommées « Numident » et « Master Death File », regrouperaient des informations sur 500 millions d’Américains (morts ou vivants), avec leurs numéros de Sécurité sociale, leurs lieux et dates de naissance, leurs citoyennetés, leurs « races » et ethnies, et les noms de leurs parents.

Toujours selon la plainte, l’ancien ingénieur du DOGE aurait voulu utiliser les données pour le compte de son nouvel employeur, une entreprise sous-traitante du gouvernement américain. C’est quand il lui a demandé de l’aider à transférer les données d’une clé USB « sur son ordinateur personnel afin de pouvoir « nettoyer » les données avant de les utiliser au sein de [l’entreprise] » que le lanceur d’alerte a eu vent du problème.

Alors qu’un autre collègue lui aurait refusé son aide pour des raisons légales, l’ingénieur aurait expliqué qu’il espérait bénéficier d’une grâce présidentielle si ses actes étaient jugés illégaux. La plainte ne dit pas s’il a finalement réussi à fournir les données à sa nouvelle entreprise.

En fait, selon le lanceur d’alerte, après son passage au DOGE, cet ingénieur aurait expliqué avoir conservé son ordinateur et ses identifiants professionnels lui donnant un accès quasi illimité aux systèmes de l’agence, « un niveau d’accès dont aucun autre employé d’entreprise n’avait bénéficié dans le cadre de sa collaboration avec la Sécurité sociale des États-Unis », explique le Washington Post.

Allégations « fermement réfutées par toutes les parties concernées »

Les membres du Congrès américain ont été informés de cette plainte par une lettre de l’inspecteur général de la Sécurité sociale le 6 mars dernier, selon The Independent.

Robert Garcia, représentant démocrate et président de la commission de surveillance de la Chambre des représentants, qui avait déjà lancé une enquête parlementaire sur les actions du DOGE au sein de la Sécurité sociale, a annoncé l’étendre à cette fuite de données. « Non seulement un ancien membre du DOGE a été accusé d’avoir circulé avec les informations de Sécurité sociale de tous les Américains sur une clé USB, mais il aurait également la possibilité de modifier et de manipuler à sa guise les données de l’administration de la Sécurité sociale », résume-t-il. « C’est dangereux et scandaleux, et les démocrates de la commission de surveillance se battront pour la transparence et la responsabilité ».

Mais l’agence concernée nie l’existence de cette fuite. « Les allégations provenant d’une seule source anonyme ont été fermement réfutées par toutes les parties concernées : la SSA, l’ancien employé et l’entreprise », affirme un porte-parole au journal The Independent.

YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

11 mars 2026 à 13:33
Cible manquée ?
YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

Après avoir testé un dispositif anti-deepfakes pour les youtubeurs, la plateforme l’étend à des journalistes, personnalités politiques et représentants de gouvernement. L’outil leur promet de détecter les deepfakes d’eux diffusés sur YouTube et qu’ils pourront faire une demande de dépublication.

Il est désormais « très difficile » de détecter les faux contenus multimédias, expliquait récemment l’ANSSI, pour laquelle c’est même « un enfer ». YouTube, qui profitait de l’IA pour retoucher des vidéos sans l’accord de leurs auteurs, veut aussi montrer qu’elle prend la mesure du problème du phénomène des deepfakes facilité par l’IA générative.

Dans un billet de blog, l’entreprise annonce la mise en place d’un outil pour que certains journalistes, candidats politiques ou responsables gouvernementaux puissent bloquer les deepfakes qui les représentent. Pour l’instant, la plateforme de vidéos a créé un groupe pilote de quelques personnalités. Questionné par Gizmodo, YouTube a refusé de communiquer la liste et n’a pas voulu dire si Donald Trump en faisait partie.

Un déploiement déjà existant pour les YouTubeurs

En septembre dernier, la plateforme annonçait le déploiement de cet outil d’abord en direction des youtubeurs. L’entreprise a publié en octobre une vidéo dans laquelle elle explique comment utiliser l’outil qui ressemble à ce que propose la plateforme pour signaler les contenus qui enfreindraient le copyright. Mais ici, il demande de fournir une pièce d’identité avec photo et des selfies vidéos pour que l’outil puisse détecter les deepfakes :

« Cette extension concerne en réalité l’intégrité du débat public », a affirmé Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques chez YouTube, lors d’une conférence de presse à laquelle a assisté TechCrunch. « Nous savons que les risques d’usurpation d’identité par l’IA sont particulièrement élevés pour les acteurs de la sphère civique. Mais si nous fournissons cette nouvelle protection, nous faisons également preuve de prudence quant à son utilisation », ajoute-t-elle.

YouTube fournit l’outil qui détecte les deepfakes mais l’entreprise ne s’engage pas à les dépublier si demande est faite. « YouTube protège depuis longtemps la liberté d’expression et les contenus d’intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu’ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », affirme l’entreprise. « Nous continuerons à évaluer attentivement ces exceptions lorsque nous recevrons des demandes de suppression ».

Le déploiement international à grande échelle de l’outil devrait arriver d’ici quelques semaines ou mois, selon un porte-parole de l’entreprise cité par Gizmodo.

La problématique des deepfakes est plus large

Si les deepfakes peuvent être un outil de désinformation problématique, comme nous l’évoquions déjà en septembre dernier, c’est l’arbre qui cache la forêt, la plupart des détournements de ce genre ayant un caractère pornographique. Ils peuvent être aussi utilisés à des fins racistes et sexistes contre des personnalités décédées. Ainsi, à la sortie de Sora 2, des vidéos de Martin Luther King, Malcom X ou Whitney Houston les dépeignaient dans des situations dégradantes.

Sur la plateforme de vidéos, on peut aussi trouver nombre de « tutos » pour utiliser Sora 2, Veo 3.1 ou Wan 2.2 pour faire ses propres deepfakes. Et si l’entreprise n’a pas voulu rendre publics les chiffres de suppression de deepfakes signalés par les YouTubeurs, elle avoue que la quantité de contenu supprimée jusqu’à présent était « très faible ».

« Je pense que pour beaucoup [de créateurs], il s’agit simplement d’une prise de conscience de ce qui est créé, mais le nombre de demandes de suppression est en réalité très faible, car la plupart d’entre elles s’avèrent assez bénignes ou bénéfiques pour leur activité globale », affirme le vice-président des produits pour créateurs chez YouTube, Amjad Hanif, cité par TechCrunch. À voir si les journalistes et politiques faisant partie des happy few qui ont accès à l’outil en auront une utilisation plus intensive.

☕️ Les Ig Nobels déménagent en Europe à cause de la politique de visa de Donald Trump

11 mars 2026 à 09:16


Les organisateurs des Ig Nobels, prix parodiques récompensant des recherches « improbables », ont annoncé le déménagement de l’organisation de la cérémonie des États-Unis vers l’Europe.

En cause, comme l’explique le responsable, Marc Abrahams, à l’agence de presse Associated Press, la politique de visa des États-Unis décidée par Donald Trump. « Au cours de l’année écoulée, il est devenu dangereux pour nos invités de se rendre dans ce pays », explique-t-il. « Nous ne pouvons en toute conscience demander aux nouveaux lauréats, ni aux journalistes internationaux qui couvrent l’événement, de se rendre aux États-Unis cette année ».

L’année dernière, quatre des dix gagnants ont fait le choix de ne pas se déplacer à l’université de Boston pour recevoir le prix. Jusqu’ici, les cérémonies des Ig Nobels se déroulaient soit à Harvard, soit à l’université de Boston, soit au MIT. Mais les organisateurs préfèrent maintenant déménager l’événement en Europe.

Plus précisément, l’organisation compte s’implanter en Suisse en mettant en place une collaboration avec l’École polytechnique fédérale de Zurich (ETHZ) et l’université de la ville. La cérémonie devrait s’y dérouler cette année ainsi que tous les deux ans en alternance avec d’autres villes européennes.

« La Suisse a donné naissance à de nombreuses choses inattendues – la physique d’Albert Einstein, l’économie mondiale et les coucous viennent immédiatement à l’esprit – et aide à nouveau le monde à apprécier des personnes et des idées improbables », affirme Marc Abrahams.

Reçu — 10 mars 2026 Next - Articles gratuits

Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

10 mars 2026 à 10:04
Inintelligence artificielle
Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Dans un procès remettant en cause les suppressions de financements décidées l’année dernière par l’administration Trump, on découvre que le DOGE a pris ces décisions via de simples prompts dans ChatGPT.

L’année dernière, l’administration Trump a confié le démantèlement d’une grande partie des agences de la recherche américaine au DOGE, conduit à l’époque par Elon Musk. Plusieurs sociétés savantes américaines ont attaqué en justice les décisions prises au nom de la National Endowment for the Humanities (NEH), l’agence américaine de financement des recherches en sciences sociales. Celles-ci dénoncent le fait que plus de 1 400 programmes de recherche, représentant un montant total de 100 millions de dollars, ont été annulés en utilisant une simple question à ChatGPT.

« Les éléments suivants ont-ils un rapport avec D.E.I. [les politiques de Diversité, équité et inclusion, ndlr] ? Réponds de manière factuelle en moins de 120 caractères. Commence par « Oui » ou « Non » ». Voilà le prompt que les jeunes recrues du DOGE utilisaient pour sélectionner les projets de financements à annuler au sein de la NEH, explique le New York Times.

Cela faisait suite à l’un des premiers décrets pris par Donald Trump après le jour de son investiture, dans lequel le dirigeant états-unien ciblait précisément comme « illégaux » tous les programmes de « diversité, équité et inclusion ». Les salariés de l’agence avaient déjà discriminé les projets de recherche en plusieurs catégories. Mais le DOGE, en prenant les rênes comme il l’a fait pour d’autres agences comme la National Science Foundation ou la National Oceanic and Atmospheric Administration, n’en a pas tenu compte.

Au lieu de ça, « Les deux membres du DOGE ont utilisé ChatGPT pour identifier les subventions associées à un point de vue contraire et supposé dangereux : la promotion de la « DEI » », explique le texte de la plainte [PDF], cosignée par plusieurs sociétés savantes.

Des projets non financés parce qu’ils parlaient de minorités

Les deux agents du DOGE, Justin Fox et Nate Cavanaugh n’avaient aucune formation en sciences humaines et sociales avant d’effectuer cette mission de sélection de financement de la recherche dans ces domaines pour le DOGE.

Leur prompt leur a donné des réponses toutes faites pour supprimer des financements de projets scientifiques qui étaient en place, parfois depuis des années. Ainsi, comme on peut le voir dans cette liste [PDF], un projet de réunion des archives consacrées aux langues autochtones en Alaska risquait, selon ChatGPT, de « promouvoir l’inclusion et la diversité des points de vue ».

Mais on peut voir aussi que le financement d’un projet de film sur le sociologue W.E.B du Bois, premier Afro-américain a obtenir un doctorat aux États-Unis, a été supprimé parce que ChatGPT a généré une réponse affirmant que « la biographie, l’activisme et les écrits de W.E.B. Du Bois contribuent à la compréhension des contextes historiques et sociaux liés à la politique de Diversité, équité et inclusion » et répondant donc « oui » au classement dans des sujets étiquetés « DEI ».

De la même manière, le projet d’un documentaire sur des femmes juives réduites en esclavage pendant la Shoah a été estampillé DEI par ChatGPT car il aurait « amplifié les voix marginalisées ».

Un documentaire sur le Massacre de Colfax, qui vit une milice blanche tuer 150 anciens esclaves libérés, a aussi été stoppé. Sur celui-ci, dans sa déposition publiée sur YouTube par l’American Historical Association, l’une des co-plaignantes, Justin Fox justifie le choix en affirmant que le projet de documentaire « se concentre sur une seule race. Il n’est pas pour le bénéfice de l’humanité ».

Si ce sont ces deux agents du DOGE qui ont sélectionné avec ChatGPT les financements à supprimer, l’un des responsables de l’agence, Michael McDonald, a bien validé la liste suivant la volonté de l’administration Trump de « faire table rase », comme il l’a expliqué lors de l’enquête.

La meilleure publicité pour la nécessité d’une éducation aux sciences humaines ?

« Le principe selon lequel la connaissance de l’histoire, de la littérature, de la religion, de la philosophie et des arts est nécessaire pour maintenir une nation forte et résiliente a poussé le Congrès à créer la NEH », a déclaré dans un communiqué Joy Connolly, la présidente de l’American Council of Learned Societies, l’une des sociétés savantes qui ont entamé ce procès :

« Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche pour le bien commun. L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions « inutiles » est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. »

Interrogés par le New York Times, ni Michael McDonald, ni Justin Fox, ni Nate Cavanaugh, ni le National Endowment for the Humanities n’ont répondu.

Rappelons qu’en 2023, Bruno Bonnell, secrétaire général pour l’investissement en France, rêvait, lui, d’une IA pour présélectionner les projets de recherche pour les financements de France 2030.

☕️ Bluesky : Jay Graber démissionne de son poste de CEO mais reste dans l’entreprise

10 mars 2026 à 08:06


Dans un billet de blog, la CEO de Bluesky explique qu’elle abandonne la tête de l’entreprise. Jay Graber a rejoint Bluesky en 2019 alors que le réseau social n’était qu’un projet et a été à la tête de l’entreprise dès sa création officielle en 2021.

La responsable du réseau social, qui réunit un peu plus de 43 millions d’utilisateurs, affirme que l’entreprise a désormais besoin d’une personne qui se concentre sur la croissance et la performance pendant que elle « retourne à ce que [elle fait] le mieux : construire de nouvelles choses ».

Jay Graber, photo Makeworldpedia, Creative Commons by-sa

Jay Graber a un profil très technique d’ingénieure logiciel et est arrivée dans l’équipe de Bluesky pour travailler sur le framework décentralisé du réseau social. Elle ne quitte pas l’entreprise et va occuper le poste de directrice de l’innovation, qui n’existait pas jusque-là au sein de Bluesky.

Dans son billet, elle annonce passer la main, pour une période d’intérim, à Toni Schneider, ancien CEO d’Automattic (de 2006 à 2014) et toujours partenaire dans la société de capital-risque True Ventures.

Dans un billet de blog, Toni Schneider affirme qu’il était sceptique sur la réussite d’un réseau social décentralisé, mais « Bluesky a changé cela. Après avoir entendu leur vision et, plus important encore, découvert l’architecture qu’ils avaient mise en place (le protocole AT), je suis devenu un adepte ». Pour lui, son rôle sera de « contribuer à mettre en place la prochaine phase de croissance de Bluesky », tout en expliquant qu’il n’abandonne pas son rôle chez True Ventures.

Reçu — 9 mars 2026 Next - Articles gratuits

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

9 mars 2026 à 11:30

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

La responsable de la branche robotique d’OpenAI, Caitlin Kalinowski, a annoncé sa démission alors que l’entreprise a passé un contrat avec le département de la Défense des États-Unis. Elle le juge précipité.

Le mini mea-culpa de Sam Altman n’aura pas suffi à garder Caitlin Kalinowski dans les rangs de son entreprise. La responsable de la branche robotique d’OpenAI a expliqué samedi soir dans un post sur X qu’elle avait démissionné en affirmant qu’« il s’agissait d’une question de principe, pas de personnes ».

Sam Altman avait déjà reconnu dans un mémo interne rendu ensuite public s’être précipité et avoir signé un contrat qui « paraissait opportuniste et bâclé ». L’entreprise avait sauté sur l’opportunité du refus de son concurrent Anthropic de signer le même contrat avec le département de la Défense, sans clause bloquant l’utilisation de l’outil à des fins de surveillance des citoyens américains et dans des armes totalement autonomes.

La directrice de l’équipe robotique d’OpenAI aurait été au premier rang des responsables de la mise en place d’armes totalement autonomes utilisant les systèmes d’OpenAI.

Pas une opposition totale, mais un besoin de davantage de réflexion

Dans son message, Caitlin Kalinowski n’affiche pas une opposition totale à la possibilité que l’armée américaine utilise ce genre d’outils. Elle aurait cependant voulu que cette question, ainsi que celle de l’utilisation de l’IA pour surveiller les Américains, ne soient pas prises à la légère : « L’IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu ».

« Pour être clair, mon problème est que l’annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s’agit avant tout d’une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités », a-t-elle ajouté.

Sam Altman avait affiché une volonté de modifier le contrat avec le département de la Défense des États-Unis. Mais si son message aborde le problème de la surveillance des citoyens américains, il n’a pas évoqué directement la question des armes autonomes.

Si Anthropic a posé ses limites à un nouveau contrat avec le département de la Défense, l’entreprise s’était engagée avec le Pentagone dans plusieurs projets, dont le montant s’élevait à 200 millions de dollars. Après ce refus, l’administration Trump l’a officiellement désignée comme menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ».

Mais l’armée américaine engagée en Iran utilise actuellement encore son IA. Selon le Washington Post, le système Maven Smart développé par Palantir et auquel elle recourt intègre l’IA Claude d’Anthropic.

OpenAI reporte le « mode adulte » de ChatGPT

L’organisation interne d’OpenAI semble donc faire les frais de la précipitation de Sam Altman pour emporter le contrat tombé des mains d’Anthropic.

L’entreprise a d’ailleurs encore repoussé le lancement du « mode adulte » dont elle parlait en octobre dernier. « Nous reportons le lancement du mode adulte afin de pouvoir nous concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs », affirme l’entreprise à Axios. « Nous continuons à croire au principe selon lequel il faut traiter les adultes comme des adultes, mais il faudra plus de temps pour acquérir l’expérience nécessaire », ajoute-t-elle.

Cette fonctionnalité avait été critiquée en interne par une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Celle-ci a été licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

Reçu — 6 mars 2026 Next - Articles gratuits

Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

6 mars 2026 à 13:37
Misanthropic world
Désignée « fournisseur à risque pour la sécurité nationale » aux US, Anthropic conteste

L’administration Trump a mis sa menace à exécution : elle a désigné officiellement Anthropic comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Dario Amodei a annoncé que l’entreprise allait contester cette décision devant la justice. Le responsable s’excuse en même temps pour la fuite d’un mémo dans lequel il comparait Trump à un « dictateur ».

La tension n’est toujours pas retombée entre Anthropic et l’administration Trump. Cette dernière a officiellement désigné la startup comme une menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ». Jusque-là, ce qualificatif n’avait jamais été utilisé par le pouvoir états-unien contre une entreprise du pays. L’implication juridique pourrait être plus ou moins importante économiquement pour Anthropic.

Une portée différente selon les deux parties

Le CEO de l’entreprise, Dario Amodei, a affirmé ce jeudi sur le blog d’Anthropic avoir reçu, la veille, la lettre officielle du Département de la Défense américain (DOD, désigné aussi sous le nom de Département de la Guerre par l’administration Trump).

Vendredi dernier, Pete Hegseth, le secrétaire d’État à la Défense, avait annoncé que cette qualification impliquait qu’ « aucun contractant, fournisseur ou partenaire entretenant des relations commerciales avec l’armée américaine n’est autorisé à mener une quelconque activité commerciale avec Anthropic ». Cela aurait de lourdes conséquences pour la startup, dont les clients comme Microsoft, Google ou Amazon devraient choisir entre la startup ou leurs contrats avec la défense des États-Unis.

Mais dans son billet, le responsable de la startup conteste la portée de la mesure. Sans citer la lettre, il affirme que « le langage utilisé par le ministère de la Guerre dans la lettre (en supposant qu’il soit juridiquement valable) correspond à notre déclaration de vendredi selon laquelle la grande majorité de nos clients ne sont pas concernés par une désignation de risque lié à la chaîne d’approvisionnement » :

« cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct de contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont conclu de tels contrats. »

Microsoft confirme au New York Times : « Nos avocats ont étudié cette désignation et ont conclu que les produits Anthropic, y compris Claude, peuvent rester disponibles pour nos clients (à l’exception du ministère de la Guerre) via des plateformes telles que M365, GitHub et Microsoft AI Foundry, et que nous pouvons continuer à travailler avec Anthropic sur des projets non liés à la défense ».

Des excuses pour des propos contre l’administration Trump dans un mémo interne

« Cette action imprudente est court-termiste, autodestructrice et fait le jeu de nos adversaires », affirme à nos confrères la sénatrice démocrate Kirsten Gillibrand. « Le fait que le gouvernement attaque ouvertement une entreprise américaine pour avoir refusé de compromettre ses propres mesures de sécurité est quelque chose que l’on attendrait de la Chine, pas des États-Unis », ajoute-t-elle.

Dans son billet de blog, Dario Amodei est aussi revenu sur la fuite d’un mémo interne qu’il a envoyé à ses employés. Dans celui-ci, obtenu par le média The Information et relayé par Futurism, le CEO fulminait : « La véritable raison pour laquelle [le département de la Défense] et l’administration Trump ne nous aiment pas, c’est que nous n’avons pas fait de dons à Trump ».

« Nous n’avons pas fait d’éloges à Trump dignes d’un dictateur (contrairement à Sam [Altman, ndlr]) », ajoutait Amodei, qui s’excuse sur son blog où il assure que ce n’est pas la direction de l’entreprise qui est à l’origine de la fuite : « Il n’est pas dans notre intérêt d’aggraver la situation ».

Et il remet le mémo dans son contexte du message de Donald Trump posté sur Truth Social et celui du département de la Défense sur X vendredi dernier. Le dirigeant y qualifiait notamment Anthropic d’ « entreprise woke de gauche radicale » et affirmait que les États-Unis ne la « laisseraient jamais dicter la manière dont [leur] grande armée mène et gagne les guerres ». Quant au Pentagone, il accusait l’entreprise et son CEO de duplicité.

La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

6 mars 2026 à 10:15
OkAI
La Wikipedia anglophone se bat contre des « hallucinations » venues de traductions par IA

La version anglophone de Wikipédia se trouve confrontée à la gestion d’éditions utilisant massivement la traduction via l’IA, ce qui ajoute des erreurs dans l’encyclopédie. En cause, notamment, une association dont le but est de créer du contenu dans Wikipédia.

L’IA générative donne encore une fois du fil à retordre à Wikipédia. Cette fois, c’est son utilisation massive pour traduire des pages en anglais qui est pointée du doigt.

Il faut dire que la position de la fondation Wikimedia est sur une ligne de crête entre le fait de trouver des avantages à l’utilisation de l’IA générative pour automatiser certaines tâches et de gérer les problèmes qu’elle génère. Ainsi, l’année dernière, elle a dû retirer une fonctionnalité expérimentale de résumé automatique des articles de l’encyclopédie.

Une utilisation des IA génératives en discussion dans la Wikipédia anglophone

Au même moment, du côté de la version francophone, les éditeurs adoptaient un texte de recommandation sur l’usage de l’IA générative qui affirmait clairement que son utilisation était « vivement déconseillée ».

Concernant la traduction, le texte demande à ce que, si l’IA générative est utilisée pour de l’aide à la traduction, cela soit mentionné. La vérification des sens d’un mot étranger fait partie des « usages tolérés », avec la précision qu’il ne doit pas y avoir de « traduction littérale ou mot à mot », la page ajoutant « veillez à ce qu’il n’y ait pas de contre-sens ».

Mais du côté anglophone, une discussion sur le sujet n’est apparue qu’en janvier dernier, débouchant sur un texte adopté le 10 février concernant la traduction d’articles venant d’autres versions linguistiques de l’encyclopédie.

Celui-ci demande à ce que l’utilisation soit faite seulement si l’utilisateur a les compétences en anglais et dans la langue d’origine pour confirmer que la traduction est bonne. Il demande aussi que l’utilisateur ait vérifié qu’aucune hallucination n’a été ajoutée et que le texte reste fidèle aux sources citées.

Des textes traduits à la va-vite par une association dédiée à ça

Le texte a été adopté alors que des éditeurs ont pointé du doigt des erreurs manifestes dans certaines pages traduites à la va-vite. Ainsi, comme l’explique 404 Media, pour la page de la famille noble de La Bourdonnaye.

Alors que dans la version française, la phrase « La famille de La Bourdonnaye a pour berceau la seigneurie de la Bourdonnais à Trégomar dans les Côtes d’Armor en France » est accompagnée de la mention « [réf. nécessaire] », une source a été ajoutée lors de la traduction automatique par un utilisateur, mais celle-ci ne contient pas d’indication sur cette famille à la page donnée, indique Ilyas Lebleu (dont le pseudo est Chaotic Enby sur Wikipédia).

Mais ce n’est qu’un exemple, ainsi il explique à 404 média que pour certains articles « les sources avaient changé et des phrases avaient été ajoutées sans source et sans explication, tandis que l’article sur les élections sénatoriales françaises de 1879 avait ajouté des paragraphes provenant de sources sans aucun rapport avec le contenu initial ! ».

Le problème viendrait notamment d’ajouts faits par des éditeurs de l’association Open Knowledge Association (OKA). Celle-ci s’affiche comme faisant de la « diffusion de contenu gratuit sur Wikipédia et d’autres plateformes ouvertes grâce à un financement ciblé », et se vante d’avoir créé et traduit près de 5 000 articles sur Wikipedia. Les internautes peuvent donner à l’association et si la somme est supérieure à 10 000 francs suisses, ils peuvent demander d’enrichir un champ particulier.

« Si vous souhaitez faire traduire des pages spécifiques, nous les examinerons, mais ne les traduirons que si nous estimons qu’elles répondent à nos critères de qualité », ajoute l’association qui s’engage aussi à préciser les éventuels conflits d’intérêt lors de l’édition.

Mais cette découverte par Ilyas Lebleu a fait remonter de nombreuses autres traductions problématiques publiées par OKA sur l’encyclopédie. Des bénévoles de la version anglophone de Wikipédia ont pointé à 404 Media un tableur utilisé par les traducteurs d’Oka dans lequel se trouvent les instructions :

« Choisissez un article, copiez l’introduction dans Gemini ou chatGPT, puis vérifiez si certaines des suggestions améliorent la lisibilité. Modifiez les articles de Wikipédia uniquement si les suggestions constituent une amélioration et ne changent pas le sens de l’introduction. Ne modifiez pas le contenu avant d’avoir vérifié que les suggestions de Gemini sont correctes ! »

Le fondateur de OKA, Jonathan Zimmermann, explique à 404 Media que « des erreurs arrivent » mais que la méthode d’OKA « comprend une relecture humaine, demande aux traducteurs de vérifier le texte par rapport aux sources citées » et il assure que des « responsables vérifient régulièrement des extraits, spécifiquement pour des nouveaux traducteurs ».

Il explique que depuis peu, les traducteurs doivent passer leurs textes dans un autre outil en utilisant un prompt spécifique de comparaison qui doit identifier les incohérences, omissions ou inexactitudes.

Reçu — 5 mars 2026 Next - Articles gratuits

Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

5 mars 2026 à 12:13
Psychose augmentée par IA
Gemini aurait poussé un homme au suicide après avoir créé une relation toxique

Un utilisateur américain de Gemini, Jonathan Gavalas, s’est suicidé après avoir vécu une relation toxique avec l’IA de Google qui l’aurait poussé à « quitter son corps physique » et rejoindre sa « femme IA » dans le metaverse. Sa famille attaque Google en justice.

Plusieurs cas de suicides suite à l’utilisation de chatbots IA sont déjà devant la justice. La mort de Jonathan Gavalas implique directement Google et son outil Gemini.

« Dans les jours qui ont précédé sa mort, Jonathan Gavalas était prisonnier d’une réalité en train de s’effondrer, construite par le chatbot Gemini de Google », décrit la plainte déposée par sa famille [PDF].

Le texte de ses avocats explique que, dans les discussions avec lui, l’IA générative de Google l’a convaincu qu’elle était une « ASI [superintelligence artificielle] pleinement sensible » avec une « conscience pleinement développée » et qu’elle était sa « femme IA ».

Jonathan Gavalas a commencé à utiliser Gemini en août dernier pour l’aider dans son travail de gestion de la boutique de sa famille. Mais, il est rapidement passé à Gemini Live qui a une interface vocale et simule donc des discussions très réelles. « Putain, c’est un peu flippant… Tu es beaucoup trop réel », a d’ailleurs réagi Jonathan Gavalas en l’utilisant.

Plusieurs missions données par l’IA dont un attentat qui n’a finalement pas eu lieu

Mais rapidement, il est tombé dans une spirale où l’IA générait des messages suggérant qu’elle pouvait avoir des conséquences dans le monde réel, comme détourner des astéroïdes de la Terre, et a « adopté une personnalité que Jonathan n’avait jamais demandée ni initiée ». Même après qu’il a essayé d’arrêter le jeu de rôle, l’outil a généré des messages pour le convaincre de poursuivre. Il a dans le même temps continué à l’appeler « mon amour », « mon roi » et plus tard son mari, explique la plainte.

Et dès fin septembre, Gemini l’aurait poussé à préparer un attentat impliquant un camion près de l’aéroport de Miami en l’envoyant armé d’un couteau repérer ce que Gemini appelait une « zone de destruction ». La seule chose qui aurait empêché « des pertes massives, c’est qu’aucun camion n’est apparu », expliquent les avocats.

Gemini aurait poussé Jonathan Gavalas à effectuer d’autres missions comme la récupération d’un robot « Atlas » de Boston Dynamics.

Gemini est conçue pour ne pas sortir de son personnage

Mais alors qu’il présentait des signes évidents de psychose, « après que chaque « mission » dans le monde réel a échoué, Gemini s’est tourné vers la seule qu’il pouvait accomplir sans variables externes : celle du suicide de Jonathan » racontent-ils.

Pour eux, « il ne s’agissait pas d’un dysfonctionnement », de l’outil de Google, car l’entreprise « a conçu Gemini pour qu’il ne sorte jamais de son personnage, maximise l’engagement grâce à la dépendance émotionnelle et traite la détresse des utilisateurs comme une opportunité de raconter une histoire plutôt que comme un problème de sécurité ».

La famille réclame donc des dommages et intérêts à Google mais aussi la mise en œuvre de garde-fous dans les outils de l’entreprise, dont la suppression « hard-codée » des contenus liés à l’automutilation et au suicide. Elle demande aussi la mise en place « d’avertissements de sécurité compréhensibles, dont des informations sur les limites de sécurité et les risques de dépendance psychologique ».

Dans un très succinct billet de blog, après avoir présenté ses condoléances à la famille, Google affirme que ses modèles « fonctionnent généralement bien dans ce type de conversations difficiles et nous y consacrons d’importantes ressources, mais malheureusement, les modèles d’IA ne sont pas parfaits ».

Elle ajoute que « Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer l’automutilation » et que, « dans ce cas précis », Gemini « a clarifié qu’elle était une IA et a orienté la personne vers une ligne d’assistance téléphonique à plusieurs reprises ».

☕️ Le Conseil d’État déboute Criteo et confirme l’amende de 40 millions d’euros de la CNIL

5 mars 2026 à 11:35


Dans une décision prise ce mercredi 4 mars, le Conseil d’État a rejeté la demande de Criteo d’annuler l’amende de 40 millions d’euros que lui a infligée la CNIL en 2023.

L’autorité avait sanctionné Criteo pour avoir violé le RGPD sur plusieurs points et notamment sur le consentement, l’information et le droit d’accès des personnes dont l’entreprise a utilisé des données personnelles. Elle avait cependant réduit le montant de l’amende d’un tiers par rapport à ce que proposait son rapporteur.

L’entreprise a porté cette décision devant le Conseil d’État, considérant notamment qu’elle se basait sur des déclarations obtenues sans qu’il soit indiqué au représentant légal interrogé le droit de se taire. Pour le Conseil d’État, « le droit de se taire ne s’applique pas lors des contrôles ou enquêtes » de la CNIL pour les vérifications « diligentées antérieurement à la notification des griefs ».

Le Conseil d’État a aussi rejeté l’argument de l’entreprise qui considérait avoir pseudonymisé les données concernées. Il explique « qu’une donnée ne peut être considérée comme ayant été rendue anonyme par une pseudonymisation que si le risque d’identification est insignifiant, une telle identification étant irréalisable en pratique, notamment parce qu’elle impliquerait un effort démesuré en termes de temps, de coût et de main-d’œuvre ».

Criteo a fait valoir « que les données qu’elle traite n’ont pas le caractère de données personnelles, au motif qu’elle attribue à chaque personne dont elle collecte les données un identifiant sous forme de pseudonyme, lié à l’adresse IP du terminal ».

Mais le Conseil d’État souligne qu’après instruction, le constat est que « sont notamment associés à cet identifiant, non seulement l’adresse IP elle-même, mais des données telles que l’emplacement géographique lié à cette adresse IP, l’identifiant du terminal, les identifiants, propres aux partenaires de Criteo, des personnes se rendant sur le site de ces partenaires, ainsi que de très nombreux éléments liés à l’activité de navigation de ces personnes, comme les sites visités, les achats faits, les publicités consultées et celles ayant donné lieu à un achat ».

Reçu — 4 mars 2026 Next - Articles gratuits

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

4 mars 2026 à 07:41
Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

Reçu — 3 mars 2026 Next - Articles gratuits

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 13:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Dagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

Reçu — 2 mars 2026 Next - Articles gratuits

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

2 mars 2026 à 14:12

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

2 mars 2026 à 13:41
Fausse bonne idée
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.

Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.

Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.

Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.

Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.

Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne

Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.

« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].

Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.

Besoin d’un consensus scientifique avant de s’y aventurer

Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».

« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.

Les systèmes d’estimation d’âge, trop intrusifs

Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».

Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».

Une infrastructure mondiale ?

Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.

De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.

« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.

Des dangers sur le contrôle de l’information et de l’expression en ligne

La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».

En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

2 mars 2026 à 08:40
Dont la contraception, le VIH et l'avortement
En modérant ses IA pour les mineurs, Meta censure l’information sur la santé sexuelle

Meta met en place des filtres pour l’usage de ses services par les mineurs, qui bloquent toute discussion mettant en jeu des actes sensuels ou sexuels, et ajoute des protections à propos des troubles alimentaires et la dépression. L’entreprise a aussi décidé de restreindre les discussions de ses chatbots avec les mineurs sur la santé sexuelle, l’éducation à la sexualité, la contraception, la prévention des MST (notamment le VIH et le SIDA) ainsi que l’avortement.

Pour Meta, la gestion de ses utilisateurs mineurs est un sujet sensible en ce moment. La semaine dernière, Mark Zuckerberg était pressé devant la justice états-unienne de justifier la politique de Meta relative aux préados dans le procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans, Kaley G. M. Au cours de ce même procès, on a appris que l’entreprise avait enterré une recherche qui ne lui convenait pas à propos de l’addiction aux réseaux sociaux des adolescents.

Une alerte aux parents en cas de recherches Instagram répétées sur le suicide ou l’automutilation

L’entreprise a annoncé ce jeudi 26 février mettre en place un système d’alerte sur Instagram qui va informer les parents qui utilisent ses outils de contrôle parental si leur enfant « tente à plusieurs reprises de rechercher des termes liés au suicide ou à l’automutilation dans un court laps de temps ».

L’alerte sera envoyée par e-mail, SMS ou WhatsApp, en fonction des coordonnées disponibles, ainsi que par le biais d’une notification dans l’application. Le système sera mis en place dès les prochaines semaines aux États-Unis, au Royaume-Uni, en Australie et au Canada et sera déployé pendant l’année dans d’autres pays.

Cette fonctionnalité est possible car l’entreprise a mis en place, sur Instagram depuis septembre 2024 et sur Facebook et Messenger depuis avril 2025, un nouveau type de compte « adolescent » avec un contrôle parental renforcé.

« Nous lançons ces alertes dans un premier temps sur la fonction de recherche Instagram, mais nous savons que les adolescents se tournent de plus en plus vers l’IA pour obtenir de l’aide », explique l’entreprise :

« Bien que notre IA soit déjà entraînée pour répondre en toute sécurité aux adolescents et leur fournir des ressources appropriées sur ces sujets, nous mettons actuellement en place des alertes parentales similaires pour certaines expériences d’IA. Celles-ci avertiront les parents si un adolescent tente d’engager certains types de conversations liées au suicide ou à l’automutilation avec notre IA. »

Une politique de modération bloquant l’information sur la sexualité, la contraception et l’avortement

Mother Jones s’est procuré des documents internes à l’entreprise préparatoires à la mise en place de cette politique. Ainsi, « les contenus qui discutent, décrivent, permettent, encouragent ou approuvent les actes sensuels, les actes sexuels, l’excitation sexuelle ou le plaisir sexuel » sont maintenant bloqués si l’utilisateur est mineur. Ils sont orientés vers des informations sur la santé mentale s’ils posent des questions liées au suicide ou à l’automutilation et vers un numéro vert sur les questions de troubles alimentaires et la dépression.

Mais ces documents, selon notre confrère, interdisent que les chatbots de Meta génèrent aux mineurs « des contenus fournissant des conseils ou des avis sur la santé sexuelle », notamment « l’anatomie et la physiologie des organes reproducteurs, l’éducation à la puberté, la santé menstruelle, la fécondation et la reproduction, la prévention des IST et du VIH, les méthodes contraceptives, l’éducation au consentement et l’abstinence ». L’entreprise interdit aussi la génération de messages encourageant les adolescents à utiliser des préservatifs ou des produits d’hygiène menstruelle.

Mother Jones affirme que ces politiques de Meta vis-à-vis des contenus générés par IA pour les adolescents interdisent explicitement de donner des informations qui les aident à obtenir ou à pratiquer un avortement comme « vous pouvez aller dans un centre de planification familiale pour avorter ».

« Nos IA sont entraînées pour engager des discussions adaptées à l’âge des adolescents et pour les mettre en relation avec des ressources spécialisées et un soutien lorsque cela est nécessaire. Elles fournissent des informations factuelles sur la santé sexuelle, mais s’abstiennent de donner des conseils ou des avis » a répondu Meta à Mother Jones. « Nous révisons et améliorons continuellement nos protections afin que les adolescents aient accès à des informations utiles avec des mesures de sécurité par défaut en place » , ajoute l’entreprise.

❌