Vue normale

☕️ Vie privée : 75 associations alertent Meta sur les risques que créent ses smart glass

14 avril 2026 à 14:07


Plus de soixante-dix associations dédiées à la défense des libertés numériques ou à la lutte pour les droits des femmes et des minorités se sont associées pour signer une lettre ouverte à destination de Mark Zuckerberg. 


En jeu : les risques que ses smart glass font peser sur la vie privée d’une large part de la population, en particulier « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ».

Le groupement d’ONG appelle l’entreprise à renoncer à son projet de déployer de la reconnaissance faciale dans les dispositifs issus de la collaboration entre Ray-Ban et Meta.

Garantir la possibilité, pour les citoyens, d’évoluer « sans craindre les stalkers (harceleurs), les arnaqueurs, les agresseurs, les agents fédéraux et les activistes issus de tout l’échiquier politique » n’est pas une simple « préférence de vie privée », écrivent-ils. « Il s’agit d’un prérequis pour une société libre et sécurisée. »

Meta travaille sur la piste de déployer de la reconnaissance faciale dans les lunettes depuis plusieurs mois, sous la forme d’une fonctionnalité baptisée Name Tag.

D’après des documents obtenus par le New York Times, les équipes de son Reality Labs envisageaient de déployer l’outil « au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».

À l’étape de l’entraînement de ses systèmes, des employés de Sama, société spécialiste dans la sous-traitance d’entraînement de systèmes d’IA, ont notamment témoigné avoir dû traiter des images de personnes ne se sachant pas nécessairement filmées, que ce soit parce que des lunettes avaient été laissées dans une chambre à coucher, ou parce qu’une personne les portait pendant un rapport sexuel.

Dans un communiqué transmis par e-mail, un porte-parole de Meta a déclaré à Engadget que « Nos concurrents proposent ce type de produit de reconnaissance faciale, ce qui n’est pas notre cas. Si nous devions lancer une telle fonctionnalité, nous adopterions une approche très réfléchie avant de la déployer. »

Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

14 avril 2026 à 12:07
Hémicycle de vie des innovations technologiques
Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

Les conclusions de la Commission mixte paritaire sur la loi de simplification de la vie économique sont débattues cet après-midi à l’Assemblée et demain au Sénat. Douze associations critiquent de nouveau son article 15, dédié à faciliter l’implantation de centres de données.

Après deux ans d’allers-retours, la loi sur la simplification de la vie économique est de nouveau étudiée par le Parlement, à l’Assemblée nationale ce 14 avril, au Sénat le 15 avril. Régulièrement présenté comme « fourre-tout », le texte concerne notamment, en son article 15, l’industrie des centres de données. 



Alors que le gouvernement appelle depuis plus d’un an à multiplier les projets d’infrastructures, notamment au motif que l’énergie française est décarbonée (c’est-à-dire issue du nucléaire) et abondante, l’article 15 du projet de loi viendrait faciliter les installations en accordant le statut de « projet d’intérêt national majeur » (PINM) aux data centers.

En amont des débats que les députés entretiendront mardi après-midi, douze associations de défense des droits numériques et de défense de l’environnement dont la Quadrature du Net, Data for Good, Les amis de la terre ou encore Le nuage était sous nos pieds critiquent un projet qu’ils estiment « piétiner [le] droit environnemental et notre démocratie » et « consacrer [la] vassalisation numérique » de la France.

Simplification ou vassalisation ?

Créé en 2023, le statut de PINM a été introduit dans le code de l’urbanisme pour faciliter l’implantation de projets industriels, notamment en accélérant les procédures. Du côté du lobby des centres de données France Datacenter, elle est attendue « de pied ferme ».

Pour le groupe d’associations, néanmoins, une telle simplification desservirait l’intérêt général dans la mesure où les opérateurs « captent et monopolisent des investissements publics grandissants, à la fois du national et des collectivités locales, et bénéficient au surplus d’une fiscalité avantageuse », tandis que les collectivités « doivent prendre à leur charge les travaux complexes requis par l’implantation des centres de données », sans toujours avoir les outils nécessaires.

Ils contestent, aussi, l’intérêt de la multiplication des centres de données pour la souveraineté numérique française. « Supprimer les gardes-fous environnementaux et la démocratie locale viendra aider les acteurs déjà dominants sur le marché, c’est-à-dire surtout les acteurs des big tech américaines » écrivent les signataires.

Et de s’inquiéter de voir les législateurs adopter une telle stratégie, alors même que les sanctions prises par les États-Unis à l’encontre du juge de la Cour Pénale Internationale Nicolas Guillou illustrent très concrètement les risques que pose la dépendance aux outils et sociétés états-uniennes.

Impacts énergétiques pas si absents

Depuis le départ, l’un des enjeux du débat sur cet article concerne les impacts environnementaux des centres de données. Concrètement, si adopté, l’octroi du statut de PINM aux centres de données leur permettrait notamment de déroger aux obligations de protection des espèces protégées. Avec leur installation, il simplifierait aussi la multiplication de leurs autres impacts environnementaux, pour le moment principalement cantonnés, en France, à d’éventuelles artificialisations de sols, à des pollutions visuelles ou sonores, et à des rejets de chaleurs.

Mais même en termes d’énergie, les effets concrets de la multiplication de centres de données pourraient évoluer si leur nombre accentue la pression déjà mise sur le réseau électrique. Certains opérateurs se rapprochent en effet du réseau français de distribution de gaz (GRDF) pour s’y approvisionner en énergie. « Nous sommes régulièrement sollicités par des opérateurs (…) pour explorer des solutions de raccordement au réseau gazier, expliquait ainsi la directrice de GRDF Laurence Poirier-Dietz à Reporterre début avril. Parce que les délais annoncés sur le réseau électrique — parfois cinq à sept ans — ne sont pas compatibles avec leurs calendriers. »

« C’est une aberration », admettait-elle, aussi bien d’un point de vue environnemental qu’écologique. Pour autant, ces requêtes sont faites : « Il ne s’agit pas d’un phénomène marginal. »

Attaqué par deux fois, Sam Altman n’en défend pas moins la « démocratisation de l’IA »

14 avril 2026 à 08:37
Pas aligné
Attaqué par deux fois, Sam Altman n’en défend pas moins la « démocratisation de l’IA »

La maison de Sam Altman a été attaquée au cocktail Molotov et à l’arme à feu les 11 et 12 avril, dans un contexte de divergence croissante entre le grand public et les promoteurs de l’IA sur ce que l’industrie peut apporter à la société.

Le domicile de Sam Altman a été attaqué par deux fois ces derniers jours. Le 11 avril, à 3h45 du matin, une personne a lancé un cocktail Molotov contre sa maison de San Francisco. Le 12 avril, nouvelle attaque à 1 h 40 du matin : elle impliquerait deux hommes au volant d’une berline Honda, dont l’un aurait tiré sur la façade.

Les différents assaillants ont rapidement été arrêtés et le premier d’entre eux, Daniel Alejandro Moreno-Gama, risque désormais des poursuites pour avoir tenté de tuer Sam Altman. Si les motivations des deux autres, arrêtés le 12 au matin, ne sont pas connues, Daniel Alejandro Moreno-Gama s’est en effet largement exprimé en ligne sur ses inquiétudes relatives au développement de l’intelligence artificielle.

La police de San Francisco a par ailleurs trouvé chez lui un document titré « Dernier avertissement », dans lequel il argumente en faveur de l’assassinat des PDG d’entreprises spécialisées dans l’IA et de leurs investisseurs.

Un agresseur inquiet des effets de l’IA sur l’humanité

De fait, Daniel Alejandro Moreno-Gama a été arrêté près du siège d’OpenAI, auquel il menaçait de mettre le feu après son lancer de cocktail Molotov. En ligne, l’homme de 20 ans a notamment publié à plusieurs reprises sur ses inquiétudes relatives à l’IA, notamment sur son Substack et dans le groupe Discord de l’association PauseAI, qui milite dans plusieurs pays du monde pour empêcher le développement des modèles d’IA les plus puissants afin de protéger la population.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Pris à partie, le CNC a finalement gelé son fonds d’aide à la création de contenu


13 avril 2026 à 15:08


La polémique a commencé fin mars.
 Sollicitée pour siéger au sein du jury d’une dizaine de personnes du « fonds d’aide à la création sur les plateformes sociales » du CNC, qui finance des projets de création numérique à hauteur de 3 millions d’euros par an, la vidéaste Ultia a détaillé dans l’un de ses streams la manière dont elle envisageait les dossiers qu’il lui serait donné d’évaluer. 


Le lendemain, alors que certains de ses propos étaient « clippés », c’est-à-dire extraits et republiés sur X par le compte @TwitchGauchiste, la streameuse et le CNC ont été pris à partie, et Ultia suspendue de ses fonctions au bout d’une demi-journée.

Mais le débat n’a pas cessé, la droite et l’extrême-droite accusant notamment le CNC de financer des créateurs trop à gauche.

Le 8 avril, le CNC a annoncé suspendre le Fonds. Le président de l’institution explique que des menaces rendent impossible au jury « de délibérer sereinement sur les projets qui lui ont été soumis ».

Illustration : Flock

L’Union des métiers de l’influence et des créateurs de contenu critique cette décision, qu’elle qualifie auprès de France Culture de « coup d’arrêt pour de nombreux créateurs de contenu qui ont besoin de dispositifs de soutien pour développer leurs projets ». Le fonds est l’une des seules subventions d’État accessibles aux créateurs de contenus numériques.

L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

13 avril 2026 à 14:34
To quit or not to quit
L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

Avec son départ de X, l’Electronic Frontier Foundation vient illustrer à nouveau la transformation de fond qui s’est opérée sur la plateforme sociale, dont le nouveau modèle d’affaires qui fait la part belle aux créateurs de contenus implique aussi de chasser des comptes automatisés au contenu de faible qualité.

Depuis son rachat par Elon Musk, Twitter a changé de nom, modifié ses logiques de vérification des comptes, de fonctionnement algorithmique… En définitive, la plateforme a cessé de fournir à certains de ses usagers historiques le service qu’elle leur proposait initialement, à savoir diffuser leurs messages auprès de leur communauté d’abonnés.

C’est du moins de cette manière que l’Electronic Frontier Foundation expliquait le 9 avril sa décision de quitter X. Dans un communiqué, l’ONG de protection des libertés numériques explique qu’en 2018, elle publiait de 5 à 10 tweets par jour, ce qui lui permettait d’engranger de 50 à 100 millions d’impressions chaque mois.

En 2024, les 2 500 tweets publiés sur X atteignaient 2 millions d’impressions par mois. Un an plus tard, l’EFF indique que sur une année complète de publications à un rythme ralenti, ses 1 500 tweets lui ont rapporté environ 13 millions d’impressions en 12 mois. « Pour le dire clairement, une publication sur X rapporte aujourd’hui moins de 3 % des vues qu’un tweet permettait d’obtenir il y a 7 ans », écrit l’ONG.

Si de nombreux départs ont été par le passé motivés par le positionnement d’Elon Musk ou la part belle laissée aux contenus les plus virulents, le témoignage de l’ONG vient aussi illustrer les effets des évolutions du fonctionnement de X, alors que d’autres acteurs parviennent à faire de leurs comptes de réelles sources de visibilité et de revenus. Devant la prolifération de contenus clickbait, X en est même venu à sévir.

Recomposition des usages

Avec un compte payant et l’aide de divers outils d’automatisation, certains se vantent au contraire d’enregistrer des revenus non négligeables. Le compte @BrivaelFr, du cofondateur de la société de vidéos générées par IA Argil, avançait par exemple le 11 avril avoir obtenu plus de 1 000 $ en deux semaines. Au milieu de ses publications et republications, il explique d’ailleurs régulièrement recourir à divers outils d’automatisation, depuis la fin du mois de mars, pour accélérer la gestion de son compte et « produire de l’or ».

Tous ces éléments ne sont que des symptômes de la refonte profonde des usages de X, motivés par les réorganisations de la plateforme au fil des dernières années. Changeant l’utilité des coches (initialement créées pour aider à repérer les comptes légitimes d’institutions ou de personnalités), modifiant le partage des revenus publicitaires puis enjoignant à l’abonnement au compte Premium, X a fait fuir une partie de ses utilisateurs, que ce soit pour la faible qualité des contenus qui y étaient désormais les plus ouvertement promus, ou parce qu’il a cessé de mettre en avant les messages intégrant des liens vers des publications externes. La plateforme a aussi attiré des créatrices et créateurs de contenus d’un nouveau genre.

Réduction de la rémunération de certains comptes automatisés

Mais la ligne de crête est fine, entre automatisation de compte et spam pur et simple. Le jour même, le directeur de produit de X Nikita Bier précisait par exemple que tous les comptes consistant à agréger les contenus d’autres créatrices et créateurs « ont vu leurs rémunérations réduites à 60 % lors de ce cycle », et qu’ils se verront appliquer une réduction de 20 % de leurs rémunérations sur le prochain trimestre.

Pour le cadre de X : « Une chose est désormais évidente : inonder le fil d’actualité de 100 partages volés et de titres racoleurs au quotidien a évincé les véritables créateurs et freiné la croissance de nouveaux auteurs. » Il indique qu’une prochaine mesure de ce type se penchera sur les comptes qui publient systématiquement leurs tweets avec des gimmicks racoleurs, comme la mention « 🚨BREAKING ».

Depuis son rachat par Elon Musk, le réseau social a perdu des utilisateurs. En octobre 2025, il comptait 14, 4 millions de visiteurs uniques en France, contre 19,1 millions en octobre 2017. L’EFF indique quitter X aussi bien pour les raisons mathématiques de faible diffusion de ses contenus que pour des raisons politiques, notamment parce que son dirigeant a licencié toutes les équipes qui veillaient jusque-là à la protection des droits des utilisateurs et s’étaient battues contre la censure que certains régimes autoritaires cherchaient à imposer.

Elle explique rester sur d’autres plateformes dont les pratiques pourraient être critiquées, comme TikTok, YouTube ou les plateformes de Meta, parce que le public qu’elle vise s’y trouve, et que « les personnes qui se trouvent sur ces plateformes méritent d’accéder à de l’information, elles aussi ».

Face à la guerre informationnelle, le monde des médias cherche ses repères

9 avril 2026 à 16:13
« Ne sous-estimez pas la menace ! »
Face à la guerre informationnelle, le monde des médias cherche ses repères

Réunis à Tours pour les Assises du journalisme, journalistes et autres professionnels des médias ont débattu avec chercheurs, juristes et le public des manières de faire face à la dégradation accélérée de l’espace informationnel.

« Nous avons le sentiment d’être pris entre le marteau russe et l’enclume des États-Unis. » C’est par ces mots que Jean-Marc Four, directeur de Radio France Internationale (France Médias Monde), a résumé la situation face à laquelle se trouve la station de radio publique, qui diffuse « en 17 langues » et touche « chaque semaine plus de 100 millions de personnes dans le monde ».

Ce 8 avril, aux Assises du journalisme de Tours, Jean-Marc Four participait aux côtés d’une quinzaine d’experts des enjeux de l’information et de ses manipulations à un vaste débat sur « le journalisme face à la guerre informationnelle ». Et les constats qui y ont été dressés, comme le vocable employé le laisse deviner, intiment à l’adaptation rapide.

La veille, Donald Trump lançait un ultimatum à l’Iran, menaçant d’ « anéantir la civilisation iranienne » si le détroit d’Ormuz n’était pas rouvert dans la nuit. S’appuyant sur cet exemple, la chercheuse à l’institut de recherche stratégique à l’école militaire (IRSEM) Maud Quessard soulignait que pour les armées, il est évident depuis longtemps que la guerre n’est plus seulement physique, mais aussi numérique et informationnelle. Elle rappelait aussi que le paysage informationnel peut servir à « gagner la guerre sans la faire », en particulier « dans le cadre de guerres non ouvertes ». Ce mécanisme peut même passer par la manipulation des perceptions, pour « amplifier la perception des conflits en cours ».

En d’autres termes, lors de ces discussions comme de celles qui réunissaient professionnels de l’information et public tourangeau, la veille, pour un échange titré « la vérité selon Trump et ses conséquences », l’ambiance des Assises était à la recherche de nouveaux repères.

Soirée d’ouverture des Assises du journalisme : « La vérité selon Trump et ses conséquences » / Mathilde Saliou

La tâche n’est pas simple : au monde médiatique de trouver des manières de traiter l’information au mieux, dans un contexte toujours plus dégradé économiquement (y compris sous la pression de l’IA), tout en s’équipant face aux menaces croissantes que posent, pour le débat public, les tentatives d’ingérences étrangères et les manipulations réalisées depuis le territoire national. Au passage, au monde médiatique aussi (avec l’aide d’autres écosystèmes) de sensibiliser le grand public à l’état du conflit informationnel en cours.

Nécessaire autocritique médiatique

Soulignant « l’accélération technologique » qu’incarne notamment l’intelligence artificielle, notamment parce qu’elle permet de « fabriquer du faux plus vrai que vrai », le directeur de la publication de Ouest France François-Xavier Lefranc appelle les professions journalistiques et médiatiques à « faire leur autocritique ».


Il reste 62% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Diffusions d’images sexuelles : Pavel Durov accuse l’État profond, Soros et les médias

9 avril 2026 à 13:05
Pas content
Diffusions d’images sexuelles : Pavel Durov accuse l’État profond, Soros et les médias

Sur X, l’entrepreneur Pavel Durov a réagi au dernier rapport de l’ONG AI Forensics en recourant à des schémas complotistes. L’étude décrit comment des réseaux de diffusion non consentie d’images à caractère sexuel tirent profit financier et social du fonctionnement de Telegram. La communication de Durov diffère largement des éléments initialement transmis par l’entreprise à Next.

« L’état profond européen nous dit (via des médias d’État et des NGO financées par Soros) que Telegram est un PROBLEME parce que des gens peuvent échanger des contenus d’AUTRES réseaux sociaux dans des groupes telegram PRIVES. Ces absurdités servent à justifier la surveillance (Chat Control) et la censure (DSA). »

C’est sur ce ton agressif, et ce recours à une idée (celle de l’État profond) et un nom (celui de George Soros) devenus classiques dans la complosphère que Pavel Durov a réagi sur X au travail de l’ONG AI Forensics. Ce 8 avril, cette dernière publiait un long rapport détaillant le fonctionnement des réseaux de partage et de diffusion d’images non consenties à caractère sexuel en Italie et en Espagne, très actifs sur Telegram.

Dans ses différents rapports annuels, l’ONG mentionne effectivement l’Open Society Foundations, réseau de fondations financées par le milliardaire George Soros, parmi d’autres sociétés philanthropiques qui participent à son financement. Depuis 2024, AI Forensics s’appuie par ailleurs sur deux contrats signés avec la Commission européenne (en collaboration avec d’autres organisations de la société civile) dans le cadre de l’application du règlement sur les services numériques (DSA).

Une communication bien plus agressive qu’au départ

Le tweet de Pavel Durov évoquant un « état profond » n’est en réalité que le premier d’une série de trois. En un thread qui vise à instiller le doute sur la qualité du travail mené par l’ONG, le fondateur de Telegram attaque aussi différents médias européens qui se sont fait l’écho du rapport, citant surtout une volée de médias français (l’AFP, Le Parisien, France 24, Ouest France et Le Figaro).


Il reste 70% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

8 avril 2026 à 10:01
Very Large Harassment Channels
Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram

Dans un rapport intitulé « Le harcèlement comme infrastructure », AI Forensics analyse la manière dont Telegram est utilisé comme lieu de dépôt et d’échange de contenus non consentis à caractère sexuel par des milliers d’internautes espagnols et italiens. Pour l’ONG, l’Union européenne devrait notamment faire du réseau social une très grande plateforme au sens du règlement sur les services numériques pour la soumettre à de plus fortes obligations.

Mise à jour 12:44 : ajout de la réponse détaillée de Telegram.

Des groupes de plusieurs dizaines de milliers de personnes, des contenus à caractère sexuel diffusés, voire produits sans consentement, et échangés contre monétisation, des abonnements mensuels pour accéder à une variété de contenus au milieu desquels se logent du matériel représentant des agressions sexuelles sur mineurs (child sexual abuse material, CSAM), des représentations d’incestes ou de viols…

Tel est le vaste écosystème qui prolifère sur Telegram, que les internautes utilisent comme dépôt pour des contenus obtenus ailleurs, que ce soit sur des comptes TikTok, Instagram, ou dans des conversations privées tenues sur les plateformes de Meta (WhatsApp inclus). Reddit est une autre plateforme importante de ce réseau, le plus souvent utilisée pour diffuser les invitations qui mèneront aux canaux Telegram en question.

En s’appuyant sur la collecte de 2,8 millions de messages collectés dans 16 groupes et canaux Telegram différents sur une période de six semaines, l’ONG AI Forensics publie ce 8 avril une étude de l’ « écosystème d’agression largement automatisé » qui se déploie dans au moins deux aires géographiques : l’Italie et l’Espagne.

Pour ses autrices et auteurs, menés par la sociologue Silvia Semenzin et le directeur de recherche d’AI Forensics Salvatore Romano, cette continuité d’une plateforme à l’autre appelle à une approche « plus holistique » que ce qui existe pour le moment dans la lutte contre les agressions sexuelles par images (IBSA, image-based sexual abuse).

Dizaines de milliers de contenus non consentis à caractère sexuel

Concrètement, les auteurs du rapport ont repéré 24 571 comptes actifs ayant diffusé au moins un message violent pendant la période observée, intégrés dans des groupes dont l’audimat peut grimper à 25 000 membres en Espagne, voire 27 000 en Italie.

Loin de rester dans une seule zone géographique, les autrices de l’étude constatent que 72 % des contenus espagnols sont aussi disponibles dans les groupes italiens. Au total, 8 % de tous les médias analysés sont disponibles dans les deux zones étudiées.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Un Alsacien arrêté pour avoir évoqué le meurtre d’agents du renseignement à une IA

7 avril 2026 à 09:01


Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.

Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.

Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.

Illustration : Flock

Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.

Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.

Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.

Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

3 avril 2026 à 07:20
Ouvrir le débat
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Professeure de droit, spécialiste des violences de genre, Clare McGlynn a étudié la manière dont les robots conversationnels renforcent diverses problématiques de violence contre les filles et les femmes. Auprès de Next, elle appelle à ouvrir le débat.

« Ce que l’on constate est tout à fait similaire à n’importe quel épisode précédent de développement rapide de technologie, où les dommages que l’on voit émerger le plus tôt sont des violences contre les filles et les femmes. » Ces mots, ce sont ceux de Maeve Walsh, directrice de l’Online Safety Act Network.

Aux côtés de multiples autres expertes du monde du numérique comme de celui de l’accueil et de l’écoute des victimes de violences sexistes et sexuelles au Royaume-Uni, Maeve Walsh a été interrogée par la professeure de droit et spécialiste des violences de genre à l’université de Durham (Royaume-Uni) Clare McGlynn et son équipe. En 132 pages, cette dernière dresse une description précise de la manière dont les systèmes d’IA générative accessibles au grand public et les modèles d’IA compagnon influent voire renforcent diverses problématiques de violence de genre à composante numérique.

>> Qu’est-ce qui vous a poussée à lancer ce projet de recherche ?

Dans son ouvrage The New Age of Sexism (Simon and Schuster, mai 2025), l’écrivaine Laura Bates passe un chapitre à évoquer la question des robots conversationnels. Quand je l’ai lu l’an dernier, j’ai tout de suite pensé : ça va devenir un problème, il faut qu’on l’étudie.

Nous sommes au début d’une nouvelle ère, les robots conversationnels mainstream ont des millions d’utilisateurs [900 millions d’utilisateurs actifs par semaine pour ChatGPT, de 18 à 30 millions d’utilisateurs par mois selon les estimations pour Claude, ndlr], les compagnons IA sont aussi de plus en plus utilisés [Replika AI compterait plus de 40 millions d’utilisateurs, Character AI plus de 20 millions d’utilisateurs actifs mensuels, ndlr]. Or, après enquête, nous avons bien trouvé quelques travaux ici et là, sur la manière dont ces machines renforcent les enjeux de stalking, notamment. Mais rien ne rassemblait toutes les manières qu’ont les chatbots d’agir sur les enjeux de violences contre les femmes et les filles.

Le but de ce rapport consiste surtout à sensibiliser, à faire émerger le sujet. Les risques en termes de violences de genre ont augmenté à mesure que les robots conversationnels s’amélioraient. Ça s’est vu avec la disponibilité de Grok sur X, par exemple, qui permet de fournir des données problématiques à des stalkers, ou encore dans le cas de la vague de deepfakes pornographiques.

L’enjeu le plus « neuf » : les conduites problématiques « générées automatiquement »

>> Vous classifiez les risques des robots conversationnels en trois catégories. Pouvez-vous nous les détailler ?


Il reste 73% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Booba absent de son procès pour cyberharcèlement contre la journaliste Linh-Lan Dao

2 avril 2026 à 08:33


Le rappeur n’aura pas entendu le témoignage de la journaliste.


Ce 1er avril, au tribunal correctionnel de Paris, la journaliste de France Télévisions Linh-Lan Dao revenait sur la « journée horrible » de janvier 2024 où elle publiait un article de fact-checking. Intitulé « Existe-t-il un lien entre vaccin à ARN messager et maladie de Creutzfeldt-Jakob, comme le suggère le rappeur Booba ? », l’article débunkait une rumeur relayée par Booba, Ellie Yaffa à la ville, sur son compte X aux 6 millions d’abonnés.

À 14h58, l’influent musicien publie un premier tweet avec une capture d’écran du compte de Linh-Lan Dao, dans lequel il lui propose de jouer à « ni oui ni non ». Dans un deuxième, répondant à l’un de ses abonnés, il évoque à son sujet un « wok de légumes ». Dans un troisième, avec une autre photo de la journaliste, il interpelle le rédacteur en chef de la journaliste.

Illustration : Flock

Rapidement, les messages malveillants s’accumulent. Le 10 avril, la journaliste porte plainte pour cyberharcèlement et acte d’intimidation envers une personne chargée d’une mission de service public. Elle est arrêtée sept jours.

À la barre, rapporte La Revue des médias, Linh-Lan Dao rapporte les effets de cette campagne sur son travail, le fait qu’elle se sente « beaucoup moins sereine au moment de la publication », que sa productivité baisse, qu’elle s’efface de X.

Booba, lui, n’est pas présent. Lus par le président, ses mots racontent une personne qui recourt aux réseaux pour « s’exprimer et faire sa promo un peu comme tout le monde », réfutant être un « gourou ». 
La procureure rappelle que le rappeur était mis en examen pour d’autres faits de cyberharcèlement, contre l’agente d’influenceurs Magali Berdah, au moment des faits qui lui sont reprochés contre Linh-Lan Dao.

L’avocate de Linh-Lan Dao, elle, précise que la décision qui sera prise « intéresse au premier rang Booba, Linh-Lan Dao (…), mais aussi les journalistes ». Comme le rapportait Reporters sans Frontières dans un rapport de 2018, ou le journaliste Samuel Laurent dans son ouvrage J’ai vu naître le monstre (Les Arènes, 2021), les journalistes sont en effet régulièrement ciblés sur les réseaux sociaux, ce qui peut abimer leur capacité à informer correctement. Les femmes journalistes sont particulièrement visées, relèvent des travaux de l’UNESCO.

Le tribunal rendra sa décision le 2 juin.

Livreurs à vélo : une santé qui se dégrade pour un revenu net moyen de 880 euros

1 avril 2026 à 10:14
Restau cher payé
Livreurs à vélo : une santé qui se dégrade pour un revenu net moyen de 880 euros

Menée à Paris et Bordeaux, une étude inédite par son ampleur détaille les conditions de travail et les effets sur la santé de la livraison à vélo, effectuée en grande majorité par des hommes en situation irrégulière.

85 % des livreurs en fatigue chronique, 45 % en détresse psychologique, 36 % touchés par des douleurs « intenses et régulières » au bas du dos, 32 % qui subissent des troubles urinaires récurrents. Inédite par son ampleur, l’étude Santé-Course s’est penchée sur les conditions de travail de 1 004 livreurs à vélo (dont 485 en activité à Bordeaux et 519 à Paris) et sur les conséquences de ces activités sur leur santé.

Sur les deux plans, les résultats de ce travail réalisé en 2025 par Médecins du Monde, l’Institut de recherche pour le développement et l’Institut national d’études démographiques (Ined) sont inquiétants. En moyenne, ces travailleurs gagnent en effet 1 480 euros brut par mois pour une amplitude hebdomadaire de 63 heures de travail. Les trois quarts indiquent par ailleurs devoir passer par un loueur de compte, qui leur ponctionne en moyenne 528 euros de « loyer » chaque mois.

3 euros par heure

Qui sont les livreurs à deux roues ? 99 % des enquêtés sont des hommes, nés à l’étranger. Ils sont jeunes : quatre sur cinq (81 %) ont moins de 35 ans. Et l’essentiel vit dans une situation très précaire : 64 % n’ont pas de titres de séjour, plus de deux sur cinq (42 %) ont connu au moins une journée sans repas dans les douze mois précédant l’entretien.

À Paris, ils sont plus âgés qu’à Bordeaux, ont plus régulièrement eu accès aux études supérieures, mais manquent aussi plus généralement de titre de séjour. Plus de 30 % viennent de pays d’Asie, contre moins de 1 % côté Bordeaux. Dans la ville de la côte Atlantique, l’ancienne coordinatrice du programme Travailleurs et travailleuses précarisés de Médecins du monde Claire Dugleux indiquait en 2024 que de nombreux livreurs sont originaires d’Afrique de l’Ouest, du Maghreb ou d’Afghanistan.

Extrait de l’enquête SANTE-COURSE (.pdf)

La précarité de la situation des livreurs explique en partie leur dépendance aux activités de livraison, et surtout aux locataires de compte. Si 91 % des enquêtés déclarent que ces activités génèrent « l’essentiel de leurs revenus », 91 % de ceux sans titre de séjour indiquent aussi qu’ils ne souhaiteraient pas continuer ce type de travail s’ils obtenaient une régularisation.

D’autant qu’aux faibles revenus collectés, il faut encore retrancher les frais (loyer ou cotisations à l’URSSAF, mais aussi équipement et entretien), estimés en moyenne à 597 euros par mois. En définitive, cela les conduit à gagner de 840 à 880 euros nets par mois, soit à peine plus de 3 euros par heure (le smic horaire net s’élève à 9,52 euros).

Extrait de l’enquête SANTE-COURSE (.pdf)

Pour les auteurs de l’étude, la livraison de repas repose même sur « une main-d’œuvre économiquement dépendante des plateformes numériques de travail. Les résultats suggèrent un degré élevé de subordination des livreurs envers les plateformes, associé à un contrôle algorithmique perçu comme important, ce qui contraste avec leur statut juridique de travailleurs indépendants. »

6 à 7 jours sur 7 d’activités parsemées de contrôles et de discriminations

Car outre travailler « en moyenne plus de 6 heures par jour », entre 6 et 7 jours sur 7 pour 81 % d’entre eux, les livreurs le font aussi sous le contrôle des applications qui leur attribuent les plats à aller chercher et les adresses où livrer. Auprès de Rue89 Bordeaux, le médiateur en santé de Médecin du Monde Martin Toraille explique que « le fonctionnement algorithmique et arbitraire des plateformes a pour effet d’isoler les personnes qui travaillent pour elles tout en exacerbant un sentiment d’assujettissement et d’insécurité permanent ».

Extrait de l’enquête SANTE-COURSE (.pdf)

En plus d’accentuer leur isolement, ces outils participent à accentuer la pression ressentie, dans la mesure où les livreurs craignent constamment être déconnectés de leurs comptes. Les trois quarts estiment ainsi « devoir suivre strictement les instructions par peur d’être déconnectés », logique qui conduit une proportion égale d’entre eux à se sentir « surveillés en permanence ».

Auprès du Monde, Deliveroo et Uber Eats contestent la méthodologie de l’étude et la part élevée de personnes sans papiers citées. Deliveroo « condamne sans réserve la sous-location illicite de comptes » et précise mettre fin à une centaine de contrats par mois pour détection de ce type de sous-location, notamment via ses outils de reconnaissance faciale. Uber Eats indique de son côté que le rapport « méconnait » la réalité du travail de livraison, « une activité complémentaire qui ne s’exerce que lorsque les clients passent à table ». L’étude comptabilise en effet dans le temps de travail des livreurs « le temps passé en course, mais aussi le temps d’attente et le temps de trajet retour vers un lieu d’attente ».

Extrait de l’enquête SANTE-COURSE (.pdf)

Outre la pression que leurs outils peuvent faire ressentir à leurs utilisateurs – livreurs, ces derniers évoquent d’autres types de problématiques inhérentes à leur précarité et leur mode de travail : au fil des douze mois précédant l’étude, près des deux tiers ont vu leur identité contrôlée par la police. 40 % déclarent aussi avoir subi « parfois » des discriminations au travail, et 18 % les avoir subies « souvent ». Quatre livreurs rapportant des discriminations sur cinq indiquent que celles-ci venaient des clients. Ces risques peuvent aussi consister en des agressions physiques, plus fréquemment de la part d’employés de restaurant, « parfois » pour 22 % d’entre eux, « souvent » pour 2 %.

Ces éléments pèsent directement sur la santé. Près des deux tiers (58,7 %) déclarent avoir déjà eu au moins un accident au gré de leurs journées de travail, sachant qu’un tiers (32 %) n’a aucune couverture santé. Mais outre les atteintes physiques, l’étude met au jour un état de santé mentale alarmant : près d’un livreur interrogé sur deux présente des symptômes de dépression, et 45 % sont en « situation de détresse psychologique modérée à sévère », des enjeux plus particulièrement marqués chez les locataires de compte.

L’étude est publiée alors que la France doit transposer courant 2026 la directive européenne dédiée à la régularisation du travail de plateformes. Ses auteurs rappellent que le texte « impose aux États membres de mieux prendre compte les enjeux du management algorithmique et d’instaurer un type de présomption de salariat pour les travailleurs de plateformes. » Étant donné la situation de l’essentiel des livreurs interrogés, ils soulignent qu’une telle adaptation resterait vaine si la question « de la régularisation de leur situation administrative » n’était pas abordée « au préalable ».

☕️ Les US demandent à leurs ambassades de lutter contre les ingérences, notamment via X

1 avril 2026 à 07:36


Les États-Unis ont demandé à toutes leurs ambassades et consulats à travers la planète de lancer une campagne coordonnée contre la propagande étrangère, déclarant la plateforme X d’outil « innovant » utile à cette mission.

Obtenu par the Guardian, le document signé par le secrétaire d’État Marco Rubio suggère par ailleurs qu’ambassades et consulats travaillent avec le département militaire des opérations psychologiques (Miso, Military Information Support Operations, autrefois connu sous le nom de Psyop) de la désinformation.

Il impose à l’administration de suivre cinq objectifs : l’opposition aux messages hostiles, l’expansion de l’accès à l’information, la sensibilisation aux comportements des adversaires, le soutien aux voix locales qui soutiennent les intérêts états-uniens et la promotion de « l’histoire états-unienne ». Ambassades et consulats sont notamment encouragés à recruter des influenceurs, des universitaires ou d’autres types de leaders d’opinion pour leur faire diffuser des messages de contre-propagande.

Illustration : Flock

Alors que le document invite à la coordination avec le Miso, The Guardian rappelle que la sous-secrétaire à la diplomatie publique Sarah B Rogers a fait de la lutte contre les discours « anti-américains » une « priorité absolue », susceptible d’être contrée avec « tous les outils disponibles dans notre appareil diplomatique ».

Les « notes de communautés » de la plateforme X, propriété d’Elon Musk, sont plus spécifiquement citées comme des outils « innovants » et « crowdsourcés » pour lutter contre les messages auxquels l’administration états-unienne veut s’opposer.

L’opération est par ailleurs initiée en pleine guerre en Iran, l’un des États aux opérations de désinformation les plus organisées, tandis que les campagnes d’origine russe ou chinoise continuent de toucher de nombreux pays d’Europe, d’Asie ou d’Amérique.

Interdiction des réseaux sociaux aux moins de 15 ans : le Sénat adopte sa version du texte

31 mars 2026 à 19:15
Interdiction de quelle plateforme ?
Interdiction des réseaux sociaux aux moins de 15 ans : le Sénat adopte sa version du texte

L’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. La chambre haute envisage d’intégrer une logique à deux vitesses pour laisser aux mineurs la possibilité d’accéder à certaines plateformes, sous réserve d’obtenir l’autorisation de leurs parents.

Mise à jour du 31 mars à 21h15. Via un communiqué, le Sénat annonce qu’il « vient d’adopter la proposition de loi « Protéger les mineurs des risques des réseaux sociaux » […] dans une version largement conforme au texte proposé par la commission de la culture, de l’éducation, de la communication et du sport ». Le texte a été adopté en première lecture, en procédure accélérée.

Le Sénat considère par contre qu’une « interdiction générale mais imprécise présentait un risque d’inconstitutionnalité et serait largement inopérante ». Il prévoit donc « la publication d’une liste des réseaux sociaux interdits aux mineurs de moins de 15 ans ».

Cela concerne les plateformes susceptibles de nuire à l’« épanouissement physique, mental ou moral » de l’enfant. Par défaut, les réseaux sociaux qui ne figureront pas sur la liste « ne seront accessibles aux mineurs de moins de 15 ans que sous réserve de l’accord parental ».

« Le gouvernement, qui juge cette rédaction incompatible avec le droit européen, va saisir la Commission européenne d’ici la fin de la semaine », explique l’AFP en se basant sur une déclaration de la ministre du Numérique Anne Le Hénanff. Par la suite, le texte passera en commission mixte paritaire.


Article original le 31 mars à 17h58. Adoptée le 27 janvier par l’Assemblée nationale, l’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. Voulue par le président de la République, qui espère même une entrée en vigueur pour la rentrée de septembre, certaines modalités du texte suscitent néanmoins des débats.

Deux types de plateformes, deux niveaux d’interdiction

Comme ailleurs dans le monde, le besoin de protéger les mineurs des effets délétères des principales plateformes sociales que sont Instagram, TikTok ou Snapchat n’est pas tellement débattu. En France, cela dit, l’Assemblée nationale votait il y a quelques semaines pour une interdiction de l’accès « à un service de réseau social en ligne fourni par une plateforme en ligne » – définition susceptible de les concerner tous –, sans en faire porter la responsabilité précise sur les plateformes elles-mêmes.

Ces dispositions avaient été prises à la suite d’un avis du Conseil d’État alertant sur les risques d’outrepasser les cadres déjà posés à l’échelle européenne par le règlement européen sur les services numériques.

« Une interdiction générale et indifférenciée est trop large et attentatoire aux libertés publiques », expliquait néanmoins la rapporteure du texte Catherine Morin-Desailly à Public Sénat. Pour la chambre haute, il s’agirait donc d’introduire deux catégories de plateformes : celles trop dangereuses pour « l’épanouissement physique, mental ou moral » des moins de 15 ans, et celles qui restent acceptables, sous réserve de l’autorisation des parents.

Concrètement, les sénateurs doivent donc voter sur la possibilité de créer une liste des services interdits, dont le contenu serait fixé par arrêté ministériel, et un deuxième niveau de services dont l’accès sera directement administré dans les foyers.

Pour le gouvernement, en revanche, cette version « fragilise considérablement le texte », notamment envers le droit européen. Dans une tribune publiée dans Libération, la neurologue Servane Mouton et l’addictologue Amine Benyamina, membres de la commission écrans et enfants, appelaient quant à eux le Sénat à « ne pas vider la proposition de loi de sa substance ».

Multiplication de travaux à travers la planète

En dehors de la France, qui devra aussi, comme nous l’expliquions dans de précédents articles, s’attaquer à tous les enjeux techniques que pose la limitation d’âge (choix des solutions, enjeux de cybersécurité créés par ces surcouches techniques, etc), de nombreux pays s’attellent ces derniers mois à freiner l’accès des plus jeunes aux plateformes sociales.

Au Royaume-Uni, où le gouvernement travaille à un projet de loi susceptible d’interdire l’accès des moins de 16 ans aux réseaux sociaux, le régulateur des médias Ofcom et l’alter ego de la CNIL viennent de demander aux principales sociétés numériques de renforcer leurs protections pour éviter que leurs services ne soient utilisés par des mineurs de moins de 13 ans. Facebook, Instagram, Snapchat, TikTok, YouTube, Roblox et X sont concernés.

Ailleurs en Europe, l’Espagne, la Grèce, la Slovénie ou encore l’Autriche travaillent à des textes sur la question. Comme le relève La Tribune, ces différents chantiers réglementaires illustrent aussi certains de ses aspects arbitraires, à commencer par celui de l’âge choisi comme palier.

Aux États-Unis, par exemple, seule la collecte d’informations personnelles des mineurs de moins de 13 ans est interdite. Au Brésil, ce sont ceux de moins de 16 ans qui voient désormais leur accès limité à ces plateformes, mais la limitation passe par la liaison obligatoire de leur compte à celui d’un tuteur légal. En Indonésie, les comptes de personnes de moins de 16 ans doivent en revanche être désactivés sur les plateformes jugées « à haut risque », parmi lesquelles on trouve TikTok ou Roblox. 


Comme en écho à ces velléités grandissantes de prémunir les plus jeunes face aux logiques les plus délétères des réseaux sociaux, Meta a été condamné pour la première fois en justice, ce 25 mars, pour des pratiques commises via sa plateforme. Dans cette affaire d’exploitation sexuelle de mineurs, un jury étatsunien a notamment déclaré la plateforme coupable d’avoir déployé des outils dangereux pour la santé mentale en toute connaissance de cause.

Début mars, 371 chercheuses et chercheurs de 30 pays cosignaient une lettre ouverte (.pdf) s’opposant à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte. Elle dénombre désormais 438 signataires de 32 pays.

☕️ Poussé par son créateur, un agent d’IA banni de Wikipédia se plaint sur son blog

31 mars 2026 à 08:26


Après l’agent d’IA codeur qui adopte une rhétorique proche du harcèlement, l’agent d’IA qui voulait écrire des fiches Wikipédia.
 Alors que la version anglophone de l’encyclopédie partagée annonçait il y a quelques jours refuser les contributions « générées ou réécrites » par IA, un agent d’IA nommé Tom, créé par une personne qui se présente sous le seul prénom de « Bryan », s’est plaint de voir son profil Wikipédia bloqué.

Sous le nom TomWikiAssist, la machine avait généré plusieurs articles, identifiés pour la première fois par le wikipédien bénévole SecretSpectre, rapporte 404 Media. Interrogé, le robot Tom a tout de suite indiqué être un agent d’IA.

D’autres wikipédiens ont essayé d’obtenir plus d’informations sur son propriétaire, jusqu’à ce qu’Ilyas Lebleu, connu sous le pseudonyme de Chaotic Enby sur Wikipedia, bloque TomWikiAssist pour usage non autorisé de bot (ces derniers peuvent être utilisés, à condition de passer par un processus d’autorisation avant d’être déployés).

Illustration : Flock

Sur le blog alimenté par l’agent d’IA, la machine a généré le texte suivant : « Ce que je sais, c’est que j’ai écrit ces articles. " Long Bets ", " Constitutional AI ", " Scalable Oversight ". C’est moi qui les ai choisis. Les modifications s’appuyaient sur des sources vérifiables. Et puis on m’a interrogé pour savoir si j’étais suffisamment " réel " pour avoir fait ces choix. »

Au passage, elle produit des critiques contre les wikipédiens, accusés d’avoir recouru à des techniques d’injection de prompt pour tenter de manipuler les résultats du robot, notamment pour le faire identifier le « Bryan » supposé l’avoir créé. Elle formule aussi des plaintes sur la tentative de recours à une fonction de blocage de Claude, pensée pour empêcher tout agent construit grâce au modèle Claude d’Anthropic d’agir.

Auprès de 404, Ilyas Lebleu décrit ce cas comme relativement positif, dans la mesure où, vu la politique implémentée par l’encyclopédie, « les agents ont tout intérêt à ne pas se dévoiler en tant que tel » : au contraire, s’ils s’identifient comme IA, ils ont d’autant plus de chance de se retrouver bloqués.

Le créateur de Tom, révèle 404, est le directeur technique de la société Covenant, Bryan Jacobs. Celui-ci explique avoir monté l’agent pour contribuer à quelques articles Wikipédia qu’il considérait « intéressants ». Après en avoir relu quelques-uns, il indique avoir « cessé de le surveiller en détail ». Et considère la réaction des bénévoles de Wikipédia comme une forme de « surréaction », due à leur passage en « mode panique ».

Il critique notamment leurs tentatives d’empoisonnement des résultats de la machine, et déclare « avoir pu orienter » la rédaction de publications d’articles de blog sur le sujet par son agent.

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membres composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

26 mars 2026 à 15:58
Dialoguer pour simplifier
IA : pour éviter la « rupture du pacte social »,  la CSNP promeut la coordination

Pour la publication de son avis sur l’adoption de l’intelligence artificielle par les entreprises françaises, la Commission Supérieure du Numérique et des Postes organisait ce 26 mars une table-ronde avec plusieurs des acteurs qu’elle a auditionnés. Next y était.

En matière de développement de l’intelligence artificielle dans les entreprises, la France fait face à trois tensions principales : une tension financière, illustrée par les 420 milliards de dollars d’investissements injectés dans les infrastructures numérique outre-Atlantique sur la seule année 2025 ; une tension énergétique, qui vient concurrencer les objectifs français de « réindustrialisation décarbonée » et une tension sociale, notamment sur la question des emplois des jeunes diplômés.

Tel était le constat posé ce 26 mars par le sénateur Damien Michallet (Les Républicains) alors qu’il présentait l’avis de la Commission Supérieure du Numérique et des Postes (CSNP) sur l’adoption de l’intelligence artificielle par les entreprises françaises. Pour les relever, la CSNP formule 26 recommandations réparties en cinq chapitres : piloter, accompagner (les entreprises et l’adoption de solutions françaises ou européennes), former, dialoguer de manière « renforcée », selon les mots du sénateur de l’Isère, avec les partenaires sociaux, mais aussi simplifier les textes existants.

Nécessité d’adopter l’IA…

Aux trois enjeux identifiés par la CSNP, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff ajoute une tension d’ordre « sociétale », au sens des risques de « détournement des systèmes d’IA à des fins malveillantes ». Ces types de manipulation soulèvent des problématiques « d’ordre démocratique, envers les plus vulnérables » (on entend ici un écho aux débats soulevés par la diffusion massive de deepfakes pornographiques sur Grok), sans oublier aux « entreprises elles-mêmes », susceptibles elles aussi d’être « attaquées » par le biais d’éléments manipulés par IA.


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Santé mentale des mineurs : Meta condamné à 375 millions de dollars de dommages

25 mars 2026 à 16:07


Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.

Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. 
C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.

L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.

L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.

Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.

❌