Vue lecture

Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Money !
Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.

Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.

Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).

Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.

Proposition de relever la taxe GAFAM à 15 %

Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.

L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.

Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.

Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».

Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.

Une taxe sur les fournisseurs de contenus comme Netflix ?

Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).

Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.

Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.

La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».

Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.

  •  

Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Money !
Budget 2026 : de nouvelles taxes sur les géants du numérique en perspective ?

Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.

Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.

Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).

Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.

Proposition de relever la taxe GAFAM à 15 %

Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.

L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.

Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.

Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».

Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.

Une taxe sur les fournisseurs de contenus comme Netflix ?

Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).

Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.

Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.

La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».

Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.

  •  

☕️ TikTok et Meta ont enfreint le DSA, selon la Commission européenne

Bruxelles vient de publier les conclusions préliminaires de ses enquêtes sur les infractions potentielles du DSA (règlement sur les services numériques) par Meta et TikTok.

La Commission européenne estime que les deux entreprises n’accordent pas aux chercheurs « un accès adéquat aux données publiques » sur leurs plateformes, que ce soit Facebook, Instagram ou TikTok. Le texte européen prévoit que les chercheurs puissent accéder aux données des très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche (VLOSE) sans même l’intermédiaire des coordinateurs de services numériques.

Drapeaux de l’Union européenne

« Permettre aux chercheurs d’accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la législation sur les services numériques, car elle permet au public d’examiner l’incidence potentielle des plateformes sur notre santé physique et mentale », explique la Commission.

Elle ajoute que les deux entreprises ont « peut-être mis en place des procédures et des outils contraignants pour permettre aux chercheurs de demander l’accès aux données publiques ».

Si c’est la seule critique de la Commission contre TikTok dans ses conclusions préliminaires, elle en ajoute une autre à l’intention de l’entreprise de Mark Zuckerberg : « en ce qui concerne Meta, ni Facebook ni Instagram ne semblent fournir un mécanisme de « notification et d’action » convivial et facilement accessible permettant aux utilisateurs de signaler les contenus illicites, tels que les contenus pédopornographiques et les contenus à caractère terroriste ».

La Commission explique qu’il faut passer plusieurs étapes inutiles et que les réseaux de Meta imposent des exigences supplémentaires aux utilisateurs pour faire ces signalements. Elle accuse aussi l’entreprise d’utiliser des « dark patterns » et des designs « d’interface trompeuses »  dans ses mécanismes de « notification et d’action ».

« Nos démocraties dépendent de la confiance. Cela signifie que les plateformes doivent responsabiliser les utilisateurs, respecter leurs droits et ouvrir leurs systèmes à un examen minutieux. Le règlement sur les services numériques en fait un devoir, pas un choix », rappelle Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

« TikTok s’engage en faveur de la transparence et valorise la contribution des chercheurs à notre plateforme et à l’ensemble du secteur. Nous examinons actuellement les conclusions de la Commission européenne », mais les exigences en matière d’accès des chercheurs aux données « mettent en conflit direct le DSA et le RGPD », affirme TikTok à l’AFP.

« Nous contestons toute allégation de violation du DSA et poursuivons nos négociations avec la Commission européenne sur ces questions », commente de son côté Meta toujours auprès de l’AFP.

  •  

☕️ TikTok et Meta ont enfreint le DSA, selon la Commission européenne

Bruxelles vient de publier les conclusions préliminaires de ses enquêtes sur les infractions potentielles du DSA (règlement sur les services numériques) par Meta et TikTok.

La Commission européenne estime que les deux entreprises n’accordent pas aux chercheurs « un accès adéquat aux données publiques » sur leurs plateformes, que ce soit Facebook, Instagram ou TikTok. Le texte européen prévoit que les chercheurs puissent accéder aux données des très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche (VLOSE) sans même l’intermédiaire des coordinateurs de services numériques.

Drapeaux de l’Union européenne

« Permettre aux chercheurs d’accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la législation sur les services numériques, car elle permet au public d’examiner l’incidence potentielle des plateformes sur notre santé physique et mentale », explique la Commission.

Elle ajoute que les deux entreprises ont « peut-être mis en place des procédures et des outils contraignants pour permettre aux chercheurs de demander l’accès aux données publiques ».

Si c’est la seule critique de la Commission contre TikTok dans ses conclusions préliminaires, elle en ajoute une autre à l’intention de l’entreprise de Mark Zuckerberg : « en ce qui concerne Meta, ni Facebook ni Instagram ne semblent fournir un mécanisme de « notification et d’action » convivial et facilement accessible permettant aux utilisateurs de signaler les contenus illicites, tels que les contenus pédopornographiques et les contenus à caractère terroriste ».

La Commission explique qu’il faut passer plusieurs étapes inutiles et que les réseaux de Meta imposent des exigences supplémentaires aux utilisateurs pour faire ces signalements. Elle accuse aussi l’entreprise d’utiliser des « dark patterns » et des designs « d’interface trompeuses »  dans ses mécanismes de « notification et d’action ».

« Nos démocraties dépendent de la confiance. Cela signifie que les plateformes doivent responsabiliser les utilisateurs, respecter leurs droits et ouvrir leurs systèmes à un examen minutieux. Le règlement sur les services numériques en fait un devoir, pas un choix », rappelle Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

« TikTok s’engage en faveur de la transparence et valorise la contribution des chercheurs à notre plateforme et à l’ensemble du secteur. Nous examinons actuellement les conclusions de la Commission européenne », mais les exigences en matière d’accès des chercheurs aux données « mettent en conflit direct le DSA et le RGPD », affirme TikTok à l’AFP.

« Nous contestons toute allégation de violation du DSA et poursuivons nos négociations avec la Commission européenne sur ces questions », commente de son côté Meta toujours auprès de l’AFP.

  •  

☕️ Airbus, Leonardo et Thales s’unissent pour créer un géant européen des satellites

Dans un communiqué publié ce jeudi 23 octobre, Airbus, Leonardo et Thales expliquent qu’elles vont regrouper « leurs activités de production de satellites et les services associés ». Pour l’instant sans appellation officielle, ce projet a pour nom de code « Bromo », explique Le Figaro.

Les trois entreprises annoncent que cette nouvelle entité « regroupera environ 25 000 personnes à travers l’Europe » et qu’elle concentrera des activités dont le chiffre d’affaires annuel a atteint 6,5 milliards d’euros en 2024.

Guerre satellite espace

Dans leur communiqué, les trois entreprises énoncent les activités qu’elles veulent, au terme de l’opération, rassembler :

  • « Airbus apportera sa contribution à travers ses activités Space Systems and Space Digital, issues d’Airbus Defence and Space.
  • Leonardo apportera sa Division Spatial, incluant ses participations dans Telespazio et Thales Alenia Space.
  • Thales contribuera principalement en apportant ses participations dans Thales Alenia Space, Telespazio et Thales SESO ».

Les actions de la nouvelle entité devraient se répartir presque équitablement entre les trois acteurs : 35 % pour Airbus, 32,5 % pour Leonardo et 32,5 % pour Thales.

Rappelons qu’Airbus est aussi issu d’un rapprochement effectué en 2000 entre plusieurs entreprises européennes, nommée EADS à l’époque et rebaptisée en 2013.

Le ministre français de l’Économie, Roland Lescure, salue une « excellente nouvelle » sur son compte Bluesky.

Les trois entreprises espèrent voir le projet se concrétiser en 2027, après avoir passé les autorisations réglementaires et avoir consulté leurs représentants du personnel, conformément aux législations en vigueur. Selon Le Monde, la nouvelle entreprise devrait avoir son siège à Toulouse.

Pour le syndicat FO-Métaux, « ce rapprochement entre Thales, Airbus et Leonardo ouvre la voie à un nouvel équilibre industriel, à condition qu’il reste guidé par deux impératifs : la souveraineté européenne et la préservation des savoir-faire français ». Mais la CGT Métallurgie affirme que « la vraie raison du projet Bromo est de créer un monopole permettant d’imposer ses prix et d’affaiblir le pouvoir des agences (CNES, ESA), d’augmenter les marges et les bénéfices pour les actionnaires, au détriment de l’intérêt des citoyens, de la gouvernance publique du secteur et de l’emploi » [PDF].

  •  

☕️ Airbus, Leonardo et Thales s’unissent pour créer un géant européen des satellites

Dans un communiqué publié ce jeudi 23 octobre, Airbus, Leonardo et Thales expliquent qu’elles vont regrouper « leurs activités de production de satellites et les services associés ». Pour l’instant sans appellation officielle, ce projet a pour nom de code « Bromo », explique Le Figaro.

Les trois entreprises annoncent que cette nouvelle entité « regroupera environ 25 000 personnes à travers l’Europe » et qu’elle concentrera des activités dont le chiffre d’affaires annuel a atteint 6,5 milliards d’euros en 2024.

Guerre satellite espace

Dans leur communiqué, les trois entreprises énoncent les activités qu’elles veulent, au terme de l’opération, rassembler :

  • « Airbus apportera sa contribution à travers ses activités Space Systems and Space Digital, issues d’Airbus Defence and Space.
  • Leonardo apportera sa Division Spatial, incluant ses participations dans Telespazio et Thales Alenia Space.
  • Thales contribuera principalement en apportant ses participations dans Thales Alenia Space, Telespazio et Thales SESO ».

Les actions de la nouvelle entité devraient se répartir presque équitablement entre les trois acteurs : 35 % pour Airbus, 32,5 % pour Leonardo et 32,5 % pour Thales.

Rappelons qu’Airbus est aussi issu d’un rapprochement effectué en 2000 entre plusieurs entreprises européennes, nommée EADS à l’époque et rebaptisée en 2013.

Le ministre français de l’Économie, Roland Lescure, salue une « excellente nouvelle » sur son compte Bluesky.

Les trois entreprises espèrent voir le projet se concrétiser en 2027, après avoir passé les autorisations réglementaires et avoir consulté leurs représentants du personnel, conformément aux législations en vigueur. Selon Le Monde, la nouvelle entreprise devrait avoir son siège à Toulouse.

Pour le syndicat FO-Métaux, « ce rapprochement entre Thales, Airbus et Leonardo ouvre la voie à un nouvel équilibre industriel, à condition qu’il reste guidé par deux impératifs : la souveraineté européenne et la préservation des savoir-faire français ». Mais la CGT Métallurgie affirme que « la vraie raison du projet Bromo est de créer un monopole permettant d’imposer ses prix et d’affaiblir le pouvoir des agences (CNES, ESA), d’augmenter les marges et les bénéfices pour les actionnaires, au détriment de l’intérêt des citoyens, de la gouvernance publique du secteur et de l’emploi » [PDF].

  •  

Interview de Kurtis Lindqvist (ICANN) : entre nouvelles extensions et gouvernance houleuse

I can !
Interview de Kurtis Lindqvist (ICANN) : entre nouvelles extensions et gouvernance houleuse

Next s’est entretenu avec Kurt Erik Lindqvist, le nouveau président de l’ICANN. Nous avons abordé des sujets comme le prochain round des extensions personnalisées et les tensions internes.

Kurt Erik « Kurtis » Lindqvist est le président de l’ICANN depuis presque un an. Il a été nommé en juin 2024, avec une prise officielle des fonctions le 5 décembre 2024. Avant de prendre ce poste, il était le responsable du London Internet Exchange (LINX), une infrastructure qui permet à plus de 950 systèmes autonomes (ou AS pour Autonomous System) de s’interconnecter.

Internet, il connait bien puisqu’il a siégé à l’Internet Architecture Board (IAB), il a présidé des groupes de travail au sein du RIPE NCC (registre régional d’adresses IP pour l’Europe et une partie de l’Asie) et de l’Internet Engineering Task Force (IETF). Il était également à la tête de l’European Internet Exchange Association (Euro-IX) pendant 17 ans.

Depuis un moment déjà (avant même son arrivée), des tensions étaient palpables à l’ICANN (Internet Corporation for Assigned Names and Numbers) et la situation parfois tendue. L’enjeu est important puisque cette organisation à but non lucratif (dont le siège est basé aux États-Unis) est en charge de l’attribution et de la gestion des adresses sur Internet, cela comprend notamment les noms de domaines de premier niveau.

Rapide rétrospective. En décembre 2022, Göran Marby démissionne soudainement de son poste de président et CEO de l’ICANN, alors que son mandat avait été prolongé jusqu’en mai 2024. Sally Costerton a pris la relève comme présidente et CEO par intérim. Son contrat était prolongé le temps de trouver un nouveau patron pour l’organisation. Elle est restée en place jusqu’en décembre 2024, avant de passer le relai à Kurt Erik Lindqvist. Une longue phase de transition, avec des tensions au sein de plusieurs organes de l’ICANN.

Next s’est entretenu avec Kurt Erik Lindqvist sur des problèmes et enjeux de l’ICANN. Les sujets ne manquent pas : bataille des IP en Afrique avec Afrinic, gouvernance de l’organisation et d’Internet, prochain round d’attributions des extensions en .marque…

Il y a un nouveau round du programme gTLD qui s’annonce. Celui-ci doit ouvrir en avril 2026. Y a-t-il de l’enthousiasme autour de ce nouveau round ?


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ TikTok : les risques pour la santé mentale des enfants pointés par Amnesty International

Dans un rapport publié ce mardi 21 octobre, l’antenne française d’Amnesty International montre de nouveau les risques pour les enfants associés au fait de « doomscroller » des vidéos sur le réseau social.

Après une commission d’enquête de l’Assemblée nationale récemment, la plainte de 14 États américains l’année dernière, ou encore l’enquête de nos confrères belges de la RTBF, l’ONG dénonce les « risques systémiques que [le modèle de TikTok] fait courir aux enfants et aux jeunes ».

L’ONG a mené deux expériences montrant les dérives de l’algorithme qui pousserait les adolescents vers le visionnage de vidéos sur la tristesse et la santé mentale.

TikTok

D’une part, en regardant les propositions de l’onglet « Pour toi » après avoir regardé ce genre de vidéos pendant quelque temps sur des profils. « Le fait de regarder ces vidéos a ensuite entraîné une multiplication rapide des contenus sur la tristesse et la santé mentale. Dans les 15 à 20 minutes après le début de l’expérience, les trois fils contenaient presque exclusivement des vidéos sur la santé mentale, dont jusqu’à la moitié sur des contenus tristes et dépressifs », explique l’ONG.

D’autre part, en faisant la même expérience, mais automatiquement, pour avoir plus de données : l’organisation a constaté les mêmes effets, mais de manière moins importante.

Comme on peut s’en douter pour un algorithme qui ne se baserait que sur la similarité des contenus, « plus un·e utilisateur·rice manifeste un intérêt pour des contenus potentiellement nocifs, plus il/elle reçoit de recommandations en ce sens », explique Amnesty International. Le problème ici est que ce genre de contenus est nocif pour la santé, notamment des adolescents, et qu’ils incitent à l’automutilation ou au suicide.

Dans le média La Croix, Stéphanie Mistre, dont la fille s’est suicidée à 15 ans, fustige une plateforme « obnubilée par ses profits ».

Dans ses conclusions, Amnesty International pousse la Commission européenne à « veiller que le Règlement sur les services numériques soit rigoureusement appliqué » et « inclure sans délai » ses conclusions à l’enquête en cours sur les possibles violations par TikTok de ses obligations au titre du DSA.

L’ONG demande en parallèle aux États membres de l’Union européenne, et en particulier à la France, de « faire en sorte que les droits des mineur·e·s soient respectés et protégés » et « faire le nécessaire pour que l’accès aux infrastructures et services numériques incontournables (comme TikTok et d’autres plateformes de réseaux sociaux) et leur utilisation ne soient pas subordonnés à une surveillance généralisée des utilisateurs et utilisatrices ».

  •  

☕️ TikTok : les risques pour la santé mentale des enfants pointés par Amnesty International

Dans un rapport publié ce mardi 21 octobre, l’antenne française d’Amnesty International montre de nouveau les risques pour les enfants associés au fait de « doomscroller » des vidéos sur le réseau social.

Après une commission d’enquête de l’Assemblée nationale récemment, la plainte de 14 États américains l’année dernière, ou encore l’enquête de nos confrères belges de la RTBF, l’ONG dénonce les « risques systémiques que [le modèle de TikTok] fait courir aux enfants et aux jeunes ».

L’ONG a mené deux expériences montrant les dérives de l’algorithme qui pousserait les adolescents vers le visionnage de vidéos sur la tristesse et la santé mentale.

TikTok

D’une part, en regardant les propositions de l’onglet « Pour toi » après avoir regardé ce genre de vidéos pendant quelque temps sur des profils. « Le fait de regarder ces vidéos a ensuite entraîné une multiplication rapide des contenus sur la tristesse et la santé mentale. Dans les 15 à 20 minutes après le début de l’expérience, les trois fils contenaient presque exclusivement des vidéos sur la santé mentale, dont jusqu’à la moitié sur des contenus tristes et dépressifs », explique l’ONG.

D’autre part, en faisant la même expérience, mais automatiquement, pour avoir plus de données : l’organisation a constaté les mêmes effets, mais de manière moins importante.

Comme on peut s’en douter pour un algorithme qui ne se baserait que sur la similarité des contenus, « plus un·e utilisateur·rice manifeste un intérêt pour des contenus potentiellement nocifs, plus il/elle reçoit de recommandations en ce sens », explique Amnesty International. Le problème ici est que ce genre de contenus est nocif pour la santé, notamment des adolescents, et qu’ils incitent à l’automutilation ou au suicide.

Dans le média La Croix, Stéphanie Mistre, dont la fille s’est suicidée à 15 ans, fustige une plateforme « obnubilée par ses profits ».

Dans ses conclusions, Amnesty International pousse la Commission européenne à « veiller que le Règlement sur les services numériques soit rigoureusement appliqué » et « inclure sans délai » ses conclusions à l’enquête en cours sur les possibles violations par TikTok de ses obligations au titre du DSA.

L’ONG demande en parallèle aux États membres de l’Union européenne, et en particulier à la France, de « faire en sorte que les droits des mineur·e·s soient respectés et protégés » et « faire le nécessaire pour que l’accès aux infrastructures et services numériques incontournables (comme TikTok et d’autres plateformes de réseaux sociaux) et leur utilisation ne soient pas subordonnés à une surveillance généralisée des utilisateurs et utilisatrices ».

  •  

Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Compassion générée par IA
Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Les ONG n’échappent pas à la mode de l’utilisation de l’IA pour générer des images. Des chercheurs pointent le problème d’une nouvelle ère du « poverty porn » dans laquelle l’intelligence artificielle serait utilisée pour émouvoir, réduisant les personnes à des corps souffrants de façon décontextualisée.

Des chercheurs travaillant dans différentes institutions de médecine à travers le monde tirent le signal d’alarme : avec l’IA, certaines ONG entrent dans une ère nouvelle du « poverty porn ».

Cette technique de communication « utilise la compassion comme catalyseur pour obtenir un gain financier », comme l’explique le magazine The Plaid Zebra. Elle est critiquée et déconseillée dans les diverses recommandations sur la communication éthique des ONG.

Mais, avec l’IA, certains communicants d’ONG ont trouvé le moyen de créer des campagnes de compassion facilement. Plusieurs chercheurs publient dans la revue Global Health de The Lancet un appel à éviter ce « poverty porn » 2.0.

L’ONU comme l’OMS y ont déjà eu recours

Comme ils le rappellent, alors que les budgets du secteur sont en baisse, il est moins cher de générer des images via l’intelligence artificielle que d’embaucher un photographe ou un artiste. Et même des organisations comme l’OMS ou l’ONU y ont recours. « Ces mêmes organisations ne créeraient probablement pas de telles représentations mettant en scène des personnes réelles en raison de leurs politiques éthiques internes », affirment les chercheurs.

Ainsi, ils pointent en exemple des vidéos de la branche néerlandaise de l’ONG Plan International qui lutte pour le droit des enfants. Elles montrent notamment des images de jeunes filles avec un œil au beurre noir. Les chercheurs évoquent aussi une vidéo de l’ONU. L’organisation a supprimé la vidéo de son compte YouTube après avoir été contactée par le Guardian à ce sujet.

« La vidéo en question, qui a été produite il y a plus d’un an à l’aide d’un outil en constante évolution, a été retirée, car nous estimons qu’elle montre une utilisation inappropriée de l’IA et qu’elle peut présenter des risques pour l’intégrité des informations, en mélangeant des images réelles et du contenu artificiel quasi réel », explique l’organisation internationale à nos confrères.

On peut retrouver, sur Internet Archive, la description qui accompagnait la vidéo : « Dans cette vidéo captivante, des reconstitutions réalisées à l’aide de l’intelligence artificielle (IA) donnent vie aux témoignages de survivantes de violences sexuelles liées aux conflits (VSLC) au Burundi, en Bosnie-Herzégovine, en République démocratique du Congo et en Irak ».

Reproductions de clichés de la pauvreté

Mais ce « poverty porn » n’est pas seulement utilisé par les ONG. Ainsi, expliquent les chercheurs, une bonne partie de l’ « industrie mondiale de la santé » utilise ce genre d’images. Entre janvier et juillet 2025, ils ont collecté plus d’une centaine d’images générées par IA sur les réseaux sociaux des organisations de plus petites tailles ou publiées par des gens du milieu « souvent basés dans les pays à faible revenu et à revenu intermédiaire ». Les chercheurs décrivent dans leur texte les images sans les reproduire, pour des raisons éthiques.

« Les images reproduisent la grammaire visuelle de la pauvreté : des enfants avec des assiettes vides, une terre craquelée, des images stéréotypées », explique au Guardian l’un des chercheurs signataires, Arsenii Alenichev.

Celui-ci avertissait dans la même revue scientifique, il y a maintenant deux ans, des biais de Midjourney qui n’arrivait pas à représenter un médecin noir soignant des enfants blancs.

Notre consœur du Guardian, Aisha Down, a remarqué qu’on pouvait trouver ce genre d’images générées par IA très facilement sur des plateformes comme Adobe Stock ou Freepik. Joaquín Abela, CEO de la dernière, rejette la responsabilité de l’utilisation des images sur les personnes qui les achètent et affirme essayer de corriger les biais existant dans d’autres parties de sa plateforme pour assurer l’équilibre entre les genres dans les photos d’avocats et de CEO. Adobe n’a pas répondu au Guardian.

  •  

Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Compassion générée par IA
Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Les ONG n’échappent pas à la mode de l’utilisation de l’IA pour générer des images. Des chercheurs pointent le problème d’une nouvelle ère du « poverty porn » dans laquelle l’intelligence artificielle serait utilisée pour émouvoir, réduisant les personnes à des corps souffrants de façon décontextualisée.

Des chercheurs travaillant dans différentes institutions de médecine à travers le monde tirent le signal d’alarme : avec l’IA, certaines ONG entrent dans une ère nouvelle du « poverty porn ».

Cette technique de communication « utilise la compassion comme catalyseur pour obtenir un gain financier », comme l’explique le magazine The Plaid Zebra. Elle est critiquée et déconseillée dans les diverses recommandations sur la communication éthique des ONG.

Mais, avec l’IA, certains communicants d’ONG ont trouvé le moyen de créer des campagnes de compassion facilement. Plusieurs chercheurs publient dans la revue Global Health de The Lancet un appel à éviter ce « poverty porn » 2.0.

L’ONU comme l’OMS y ont déjà eu recours

Comme ils le rappellent, alors que les budgets du secteur sont en baisse, il est moins cher de générer des images via l’intelligence artificielle que d’embaucher un photographe ou un artiste. Et même des organisations comme l’OMS ou l’ONU y ont recours. « Ces mêmes organisations ne créeraient probablement pas de telles représentations mettant en scène des personnes réelles en raison de leurs politiques éthiques internes », affirment les chercheurs.

Ainsi, ils pointent en exemple des vidéos de la branche néerlandaise de l’ONG Plan International qui lutte pour le droit des enfants. Elles montrent notamment des images de jeunes filles avec un œil au beurre noir. Les chercheurs évoquent aussi une vidéo de l’ONU. L’organisation a supprimé la vidéo de son compte YouTube après avoir été contactée par le Guardian à ce sujet.

« La vidéo en question, qui a été produite il y a plus d’un an à l’aide d’un outil en constante évolution, a été retirée, car nous estimons qu’elle montre une utilisation inappropriée de l’IA et qu’elle peut présenter des risques pour l’intégrité des informations, en mélangeant des images réelles et du contenu artificiel quasi réel », explique l’organisation internationale à nos confrères.

On peut retrouver, sur Internet Archive, la description qui accompagnait la vidéo : « Dans cette vidéo captivante, des reconstitutions réalisées à l’aide de l’intelligence artificielle (IA) donnent vie aux témoignages de survivantes de violences sexuelles liées aux conflits (VSLC) au Burundi, en Bosnie-Herzégovine, en République démocratique du Congo et en Irak ».

Reproductions de clichés de la pauvreté

Mais ce « poverty porn » n’est pas seulement utilisé par les ONG. Ainsi, expliquent les chercheurs, une bonne partie de l’ « industrie mondiale de la santé » utilise ce genre d’images. Entre janvier et juillet 2025, ils ont collecté plus d’une centaine d’images générées par IA sur les réseaux sociaux des organisations de plus petites tailles ou publiées par des gens du milieu « souvent basés dans les pays à faible revenu et à revenu intermédiaire ». Les chercheurs décrivent dans leur texte les images sans les reproduire, pour des raisons éthiques.

« Les images reproduisent la grammaire visuelle de la pauvreté : des enfants avec des assiettes vides, une terre craquelée, des images stéréotypées », explique au Guardian l’un des chercheurs signataires, Arsenii Alenichev.

Celui-ci avertissait dans la même revue scientifique, il y a maintenant deux ans, des biais de Midjourney qui n’arrivait pas à représenter un médecin noir soignant des enfants blancs.

Notre consœur du Guardian, Aisha Down, a remarqué qu’on pouvait trouver ce genre d’images générées par IA très facilement sur des plateformes comme Adobe Stock ou Freepik. Joaquín Abela, CEO de la dernière, rejette la responsabilité de l’utilisation des images sur les personnes qui les achètent et affirme essayer de corriger les biais existant dans d’autres parties de sa plateforme pour assurer l’équilibre entre les genres dans les photos d’avocats et de CEO. Adobe n’a pas répondu au Guardian.

  •  

Wikipédia perd 8 % de pages vues par les humains en un an et met ça sur le compte de l’IA

Un web moins participatif en vue ?
Wikipédia perd 8 % de pages vues par les humains en un an et met ça sur le compte de l’IA

La fondation Wikimedia lance un signal d’alarme, constatant une baisse du nombre de pages vues par des humains au cours des derniers mois. Elle s’inquiète du fait que cela entraine une baisse du nombre de bénévoles enrichissant l’encyclopédie.

La fondation Wikimedia a publié un billet de blog ce vendredi 17 octobre dans lequel elle décrit une « baisse du nombre de pages vues par les utilisateurs sur Wikipédia au cours des derniers mois, soit une diminution d’environ 8 % par rapport aux mêmes mois en 2024 ».

Nombre de pages vues par des humains pour toutes les versions linguistiques de Wikipédia depuis septembre 2021, avec révision du nombre de pages vues depuis avril 2025. Wikimedia Fundation

Marshall Miller, directeur de produit, y explique que la fondation a actualisé sa méthode pour identifier si un visiteur est un humain ou un robot. En effet, vers le mois de mai, elle a observé un trafic anormal venant du Brésil que ses systèmes identifiaient jusque là comme des visiteurs humains alors qu’il s’agissait vraisemblablement de consultations par des crawlers de services.

Un petit peu avant, la fondation évoquait déjà le sérieux problème que provoquaient les crawlers d’IA pour le web, en générant un trafic « sans précédent et présentent des risques et des coûts croissants ».

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Impact des services d’IA sur la consultation directe de l’encyclopédie participative

Ici, c’est un autre effet de ces services qu’évoque la fondation. « Nous pensons que ces baisses reflètent l’impact de l’IA générative et des réseaux sociaux sur la manière dont les gens recherchent des informations, en particulier avec les moteurs de recherche qui fournissent directement des réponses aux internautes, souvent basées sur le contenu de Wikipédia », explique Marshall Miller.

Tout ça n’est pas une surprise pour la fondation qui ajoute que « cette évolution progressive n’est pas propre à Wikipédia ». « De nombreux autres éditeurs et plateformes de contenu font état de changements similaires, les utilisateurs passant davantage de temps sur les moteurs de recherche, les chatbots IA et les réseaux sociaux pour trouver des informations. Ils subissent également la pression que ces entreprises exercent sur leur infrastructure ». En juin dernier, nous relayions les inquiétudes de responsables de sites web (notamment scientifiques et/ou bénévoles).

Les fichiers robots.txt sont les premiers boucliers des sites web contre les crawlers intempestifs. Et Wikipédia ne s’en prive pas. La version anglophone de l’encyclopédie a un fichier robots.txt très détaillé, avec des commentaires. Ainsi, on peut y trouver, par exemple, une section listant des user-agents comme HTTrack ou Microsoft.URL.Control surmontée du commentaire : « Certains robots sont connus pour causer des problèmes, en particulier ceux conçus pour copier des sites entiers. Veuillez respecter le fichier robots.txt ». On peut y voir aussi que les crawlers Mediapartners-Google, utilisés par Google pour son service Adsense, sont bloqués avec juste comme commentaires le fait qu’ils sont reliés à de la pub. La partie francophone a peu ou prou la même liste avec quelques ajouts dans son robots.txt.

Mais cette première protection ne suffit plus. Comme l’expliquait Cloudflare en août dernier, Perplexity utilisait deux types de bots en fonction des autorisations des éditeurs concernant l’IA. L’entreprise déguisait ainsi parfois ses crawlers utilisés à des fins d’entrainement d’IA en navigateurs tout ce qu’il y a de plus classique.

La fondation Wikimedia rappelle que « presque tous les grands modèles linguistiques (LLM) s’entraînent sur les jeux de données de Wikipédia, et les moteurs de recherche et les plateformes de réseaux sociaux donnent la priorité à ses informations pour répondre aux questions de leurs utilisateurs ». Et elle y voit du positif pour le projet qu’elle chapote : « cela signifie que les gens lisent les connaissances créées par les bénévoles de Wikimedia partout sur Internet, même s’ils ne visitent pas wikipedia.org. Ces connaissances créées par l’homme sont devenues encore plus importantes pour la diffusion d’informations fiables en ligne ».

Le risque d’une baisse de la participation au projet

Mais elle y voit aussi un risque, et pas seulement sur ses infrastructures : « avec moins de visites sur Wikipédia, moins de bénévoles vont développer et enrichir le contenu, et moins de donateurs individuels vont soutenir ce travail ».

Défendant le projet Wikipédia, la fondation en donne, sans surprise, une vision opposée de celle récemment véhiculée par Elon Musk annonçant son projet personnel Grokipedia. « Wikipédia est le seul site de cette envergure à appliquer des normes de vérifiabilité, de neutralité et de transparence qui alimentent l’information sur tout Internet, et elle continue d’être essentielle pour répondre aux besoins quotidiens des gens en matière d’information, d’une manière invisible », assure-t-elle.

Le défi pour la fondation est donc que les lecteurs sachent que ce contenu vient bien de Wikipédia et qu’ils continuent à y contribuer. Le programme Wikimedia Enterprise est censé pousser les entreprises à attribuer correctement les contenus. La fondation assure travailler sur des manières d’amener les générations qui sont plus sur YouTube, TikTok, Roblox, et Instagram à collaborer à l’encyclopédie.

  •  

Wikipédia perd 8 % de pages vues par les humains en un an et met ça sur le compte de l’IA

Un web moins participatif en vue ?
Wikipédia perd 8 % de pages vues par les humains en un an et met ça sur le compte de l’IA

La fondation Wikimedia lance un signal d’alarme, constatant une baisse du nombre de pages vues par des humains au cours des derniers mois. Elle s’inquiète du fait que cela entraine une baisse du nombre de bénévoles enrichissant l’encyclopédie.

La fondation Wikimedia a publié un billet de blog ce vendredi 17 octobre dans lequel elle décrit une « baisse du nombre de pages vues par les utilisateurs sur Wikipédia au cours des derniers mois, soit une diminution d’environ 8 % par rapport aux mêmes mois en 2024 ».

Nombre de pages vues par des humains pour toutes les versions linguistiques de Wikipédia depuis septembre 2021, avec révision du nombre de pages vues depuis avril 2025. Wikimedia Fundation

Marshall Miller, directeur de produit, y explique que la fondation a actualisé sa méthode pour identifier si un visiteur est un humain ou un robot. En effet, vers le mois de mai, elle a observé un trafic anormal venant du Brésil que ses systèmes identifiaient jusque là comme des visiteurs humains alors qu’il s’agissait vraisemblablement de consultations par des crawlers de services.

Un petit peu avant, la fondation évoquait déjà le sérieux problème que provoquaient les crawlers d’IA pour le web, en générant un trafic « sans précédent et présentent des risques et des coûts croissants ».

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Impact des services d’IA sur la consultation directe de l’encyclopédie participative

Ici, c’est un autre effet de ces services qu’évoque la fondation. « Nous pensons que ces baisses reflètent l’impact de l’IA générative et des réseaux sociaux sur la manière dont les gens recherchent des informations, en particulier avec les moteurs de recherche qui fournissent directement des réponses aux internautes, souvent basées sur le contenu de Wikipédia », explique Marshall Miller.

Tout ça n’est pas une surprise pour la fondation qui ajoute que « cette évolution progressive n’est pas propre à Wikipédia ». « De nombreux autres éditeurs et plateformes de contenu font état de changements similaires, les utilisateurs passant davantage de temps sur les moteurs de recherche, les chatbots IA et les réseaux sociaux pour trouver des informations. Ils subissent également la pression que ces entreprises exercent sur leur infrastructure ». En juin dernier, nous relayions les inquiétudes de responsables de sites web (notamment scientifiques et/ou bénévoles).

Les fichiers robots.txt sont les premiers boucliers des sites web contre les crawlers intempestifs. Et Wikipédia ne s’en prive pas. La version anglophone de l’encyclopédie a un fichier robots.txt très détaillé, avec des commentaires. Ainsi, on peut y trouver, par exemple, une section listant des user-agents comme HTTrack ou Microsoft.URL.Control surmontée du commentaire : « Certains robots sont connus pour causer des problèmes, en particulier ceux conçus pour copier des sites entiers. Veuillez respecter le fichier robots.txt ». On peut y voir aussi que les crawlers Mediapartners-Google, utilisés par Google pour son service Adsense, sont bloqués avec juste comme commentaires le fait qu’ils sont reliés à de la pub. La partie francophone a peu ou prou la même liste avec quelques ajouts dans son robots.txt.

Mais cette première protection ne suffit plus. Comme l’expliquait Cloudflare en août dernier, Perplexity utilisait deux types de bots en fonction des autorisations des éditeurs concernant l’IA. L’entreprise déguisait ainsi parfois ses crawlers utilisés à des fins d’entrainement d’IA en navigateurs tout ce qu’il y a de plus classique.

La fondation Wikimedia rappelle que « presque tous les grands modèles linguistiques (LLM) s’entraînent sur les jeux de données de Wikipédia, et les moteurs de recherche et les plateformes de réseaux sociaux donnent la priorité à ses informations pour répondre aux questions de leurs utilisateurs ». Et elle y voit du positif pour le projet qu’elle chapote : « cela signifie que les gens lisent les connaissances créées par les bénévoles de Wikimedia partout sur Internet, même s’ils ne visitent pas wikipedia.org. Ces connaissances créées par l’homme sont devenues encore plus importantes pour la diffusion d’informations fiables en ligne ».

Le risque d’une baisse de la participation au projet

Mais elle y voit aussi un risque, et pas seulement sur ses infrastructures : « avec moins de visites sur Wikipédia, moins de bénévoles vont développer et enrichir le contenu, et moins de donateurs individuels vont soutenir ce travail ».

Défendant le projet Wikipédia, la fondation en donne, sans surprise, une vision opposée de celle récemment véhiculée par Elon Musk annonçant son projet personnel Grokipedia. « Wikipédia est le seul site de cette envergure à appliquer des normes de vérifiabilité, de neutralité et de transparence qui alimentent l’information sur tout Internet, et elle continue d’être essentielle pour répondre aux besoins quotidiens des gens en matière d’information, d’une manière invisible », assure-t-elle.

Le défi pour la fondation est donc que les lecteurs sachent que ce contenu vient bien de Wikipédia et qu’ils continuent à y contribuer. Le programme Wikimedia Enterprise est censé pousser les entreprises à attribuer correctement les contenus. La fondation assure travailler sur des manières d’amener les générations qui sont plus sur YouTube, TikTok, Roblox, et Instagram à collaborer à l’encyclopédie.

  •  

☕️ Cyberattaque à l’hôpital de Pontarlier : retour au papier pour plusieurs semaines

Ce week-end, le Centre hospitalier intercommunal de Haute-Comté à Pontarlier a été victime d’une cyberattaque de type cryptolocker, « ayant conduit au chiffrement d’une partie de ses données informatiques », explique l’hôpital dans un communiqué obtenu par Ici Besançon.

Rapidement, les services informatiques ont été coupés et l’hôpital a prévenu l’Agence du Numérique en Santé (ANS), l’Agence Régionale de Santé Bourgogne-Franche-Comté, ainsi que l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Il a aussi déposé plainte.

Selon l’Est Républicain, les services de l’hôpital ont détecté des anomalies à 1h45 du matin dans la nuit du samedi 18 au dimanche 19 octobre, puis ils ont trouvé un message expliquant que les données de l’hôpital étaient chiffrées avec une demande de rançon.

Lors d’une conférence de presse dimanche soir et à laquelle a assisté l’Est Républicain, le directeur du centre hospitalier, Thierry Gamond Rius, a affirmé : « on peut considérer que la situation est sous contrôle. Difficile, mais sous contrôle et surtout transparente pour les patients ».

« On revient au fonctionnement papier pour les prescriptions des patients, pour les commandes, la gestion, etc. Ce dimanche matin, nous avons fait le tour des services, afin de voir si tout était bien mis en œuvre », a-t-il quand même ajouté. Mais aucun patient ne sera transféré ailleurs et le directeur prévoit de garder la même activité opératoire.

« Les serveurs sont compromis, il faut repartir sur une infrastructure vierge », explique-t-il encore, estimant en avoir pour plusieurs semaines.

Un numéro vert pour les patients du centre hospitalier a été mis en place : 0 805 090 125.

  •  

☕️ Cyberattaque à l’hôpital de Pontarlier : retour au papier pour plusieurs semaines

Ce week-end, le Centre hospitalier intercommunal de Haute-Comté à Pontarlier a été victime d’une cyberattaque de type cryptolocker, « ayant conduit au chiffrement d’une partie de ses données informatiques », explique l’hôpital dans un communiqué obtenu par Ici Besançon.

Rapidement, les services informatiques ont été coupés et l’hôpital a prévenu l’Agence du Numérique en Santé (ANS), l’Agence Régionale de Santé Bourgogne-Franche-Comté, ainsi que l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Il a aussi déposé plainte.

Selon l’Est Républicain, les services de l’hôpital ont détecté des anomalies à 1h45 du matin dans la nuit du samedi 18 au dimanche 19 octobre, puis ils ont trouvé un message expliquant que les données de l’hôpital étaient chiffrées avec une demande de rançon.

Lors d’une conférence de presse dimanche soir et à laquelle a assisté l’Est Républicain, le directeur du centre hospitalier, Thierry Gamond Rius, a affirmé : « on peut considérer que la situation est sous contrôle. Difficile, mais sous contrôle et surtout transparente pour les patients ».

« On revient au fonctionnement papier pour les prescriptions des patients, pour les commandes, la gestion, etc. Ce dimanche matin, nous avons fait le tour des services, afin de voir si tout était bien mis en œuvre », a-t-il quand même ajouté. Mais aucun patient ne sera transféré ailleurs et le directeur prévoit de garder la même activité opératoire.

« Les serveurs sont compromis, il faut repartir sur une infrastructure vierge », explique-t-il encore, estimant en avoir pour plusieurs semaines.

Un numéro vert pour les patients du centre hospitalier a été mis en place : 0 805 090 125.

  •  

Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

Same Player Shoot Again
Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

En plus de pousser au doomscrolling, Sora est massivement utilisée pour créer des deepfakes. De Robin Williams à Martin Luther King en passant par Whitney Houston, l’application a permis à des utilisateurs de créer des vidéos détournant l’image de personnalités historiques, notamment à des fins sexistes et racistes.

C’est dans un message sur le réseau social X qu’OpenAI a annoncé ce matin qu’elle avait « suspendu la génération d’images représentant le Dr King [Martin Luther King] afin de renforcer les mesures de protection des personnages historiques ». L’entreprise affirme le faire après avoir « abordé la question de la représentation de l’image du Dr Martin Luther King Jr. dans les générations Sora » avec les descendants de la figure noire du mouvement des droits civiques.

Sora 2, l’application de doomscrolling de vidéos générées par IA d’OpenAI est sortie récemment aux États-Unis mais pas encore en Europe.

Plusieurs descendants se sont exprimés contre l’utilisation dégradante d’images de personnalités historiques

Bernice King avait publié sur Instagram la semaine dernière un post demandant aux gens d’arrêter de lui envoyer des vidéos générées par IA utilisant l’image de son père. Elle y fait référence à la même demande faite par Zelda Williams, la fille de Robin Williams. Celle-ci implorait : « Arrêtez de croire que je veux voir ça ou que je vais comprendre, ce n’est pas le cas et ça ne changera pas ». Et elle ajoutait : « Si vous essayez juste de me troller, j’ai vu bien pire, je vais restreindre l’accès et passer à autre chose. Mais s’il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C’est stupide, c’est une perte de temps et d’énergie, et croyez-moi, ce n’est PAS ce qu’il voudrait ».

Mais le Washington Post raconte que le problème n’est pas seulement le fait que des personnes connues soient visibles dans des vidéos générées par IA photoréalistes, mais aussi que l’outil est utilisé contre ces personnes de façon dégradante, sexiste, ou raciste. Ainsi, une vidéo montrait par exemple Whitney Houston ivre, comme si elle était filmée par une caméra corporelle de police. Une autre montrait Martin Luther King faisant des cris de singe pendant son célèbre discours « I have a dream ».

D’autres vidéos montrent des deepfakes de Malcolm X, une autre figure noire du mouvement des droits civiques aux États-Unis, faisant des blagues salaces, se battant avec Martin Luther King ou déféquant sur lui-même. « Il est profondément irrespectueux et blessant de voir l’image de mon père utilisée de manière aussi cavalière et insensible alors qu’il a consacré sa vie à la vérité », déplore sa fille, Ilyasah Shabazz, auprès du Washington Post, qui rappelle qu’elle a assisté à l’assassinat de son père en 1965 alors qu’elle n’avait que deux ans. Et elle pose la question : pourquoi les développeurs n’agissent pas « avec la même moralité, la même conscience et le même soin […] qu’ils le souhaiteraient pour leur propre famille ».

OpenAI fait un pas en arrière

Comme nous l’expliquions fin septembre, l’application dispose d’une fonctionnalité censée limiter les deepfakes. Une personne qui a vérifié son identité peut utiliser son image dans des vidéos et d’autres peuvent faire le faire à condition qu’elle donne son consentement. La journaliste Taylor Lorenz a déjà témoigné qu’une personne qui la harcèle avait créé des deepfakes d’elle, mais qu’elle avait pu les faire supprimer en utilisant ce système. Par contre, au lancement de l’application, OpenAI a décidé de ne pas mettre en place de restriction sur les « personnages historiques ».

Ne réagissant qu’après les divers témoignages de descendants célèbres et en ne citant que le cas de Martin Luther King, OpenAI affirme dans son tweet de ce matin : « Bien qu’il existe un intérêt certain pour la liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient avoir le contrôle final sur l’utilisation de leur image. Les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée dans les caméos [nom utilisé par OpenAI pour sa fonctionnalité de deepfake] de Sora ». En bref, l’entreprise choisit de proposer une option d’opt-out pour les représentants des personnalités historiques qui ne voudraient pas que leur image soit utilisée dans Sora.

Pour éviter que les vidéos générées par IA soient repartagées en dehors de son réseau pour désinformer, OpenAI a mis en place un watermark qui se déplace au cours de la lecture. Mais, comme l’a remarqué 404 Media, de nombreux systèmes de suppression de ces filigranes ont rapidement pullulé sur le web, rendant rapidement cette protection contre la désinformation peu efficace.

La viralité et l’injure font le succès

Tout ça a permis d’avoir un certain succès. Mais, comme le souligne notre consœur Katie Notopoulos de Business Insider, la plupart des utilisateurs semblent être des garçons adolescents, contre « très, très peu de femmes ». « De manière générale, si une plateforme sociale est un endroit effrayant pour les femmes… mon ami, tu as un problème », commente-t-elle.

Pendant ce temps-là, comme nous l’évoquions aussi, Meta a sorti Vibes, un équivalent de Sora mais sans cette possibilité de deepfake. Celui-ci semble avoir beaucoup moins de succès. Pour notre confrère de Wired, Reece Rogers, ses premières expériences sur l’application de Meta étaient « ennuyeuses et sans intérêt ». Pour lui, le flux de Sora, « avec sa prolifération de deepfakes souriants, était beaucoup plus électrique… et inquiétant ».

On n’en a en tout cas pas fini avec les vidéos générées par IA plus photoréalistes les unes que les autres, puisque Google vient d’annoncer ce jeudi 15 octobre la sortie de Veo 3.1. L’entreprise promet aux utilisateurs plus de contrôle dans son outil d’édition de vidéos générées par IA Flow : « Nous sommes toujours à l’écoute de vos commentaires, et nous avons compris que vous souhaitez avoir davantage de contrôle artistique dans Flow, avec une prise en charge audio améliorée dans toutes les fonctionnalités », affirme l’entreprise. Elle promet, entre autres, une génération de vidéos plus rapidement proche des demandes des utilisateurs et une « qualité audiovisuelle améliorée lors de la conversion d’images en vidéos ».

  •  

Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

Same Player Shoot Again
Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

En plus de pousser au doomscrolling, Sora est massivement utilisée pour créer des deepfakes. De Robin Williams à Martin Luther King en passant par Whitney Houston, l’application a permis à des utilisateurs de créer des vidéos détournant l’image de personnalités historiques, notamment à des fins sexistes et racistes.

C’est dans un message sur le réseau social X qu’OpenAI a annoncé ce matin qu’elle avait « suspendu la génération d’images représentant le Dr King [Martin Luther King] afin de renforcer les mesures de protection des personnages historiques ». L’entreprise affirme le faire après avoir « abordé la question de la représentation de l’image du Dr Martin Luther King Jr. dans les générations Sora » avec les descendants de la figure noire du mouvement des droits civiques.

Sora 2, l’application de doomscrolling de vidéos générées par IA d’OpenAI est sortie récemment aux États-Unis mais pas encore en Europe.

Plusieurs descendants se sont exprimés contre l’utilisation dégradante d’images de personnalités historiques

Bernice King avait publié sur Instagram la semaine dernière un post demandant aux gens d’arrêter de lui envoyer des vidéos générées par IA utilisant l’image de son père. Elle y fait référence à la même demande faite par Zelda Williams, la fille de Robin Williams. Celle-ci implorait : « Arrêtez de croire que je veux voir ça ou que je vais comprendre, ce n’est pas le cas et ça ne changera pas ». Et elle ajoutait : « Si vous essayez juste de me troller, j’ai vu bien pire, je vais restreindre l’accès et passer à autre chose. Mais s’il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C’est stupide, c’est une perte de temps et d’énergie, et croyez-moi, ce n’est PAS ce qu’il voudrait ».

Mais le Washington Post raconte que le problème n’est pas seulement le fait que des personnes connues soient visibles dans des vidéos générées par IA photoréalistes, mais aussi que l’outil est utilisé contre ces personnes de façon dégradante, sexiste, ou raciste. Ainsi, une vidéo montrait par exemple Whitney Houston ivre, comme si elle était filmée par une caméra corporelle de police. Une autre montrait Martin Luther King faisant des cris de singe pendant son célèbre discours « I have a dream ».

D’autres vidéos montrent des deepfakes de Malcolm X, une autre figure noire du mouvement des droits civiques aux États-Unis, faisant des blagues salaces, se battant avec Martin Luther King ou déféquant sur lui-même. « Il est profondément irrespectueux et blessant de voir l’image de mon père utilisée de manière aussi cavalière et insensible alors qu’il a consacré sa vie à la vérité », déplore sa fille, Ilyasah Shabazz, auprès du Washington Post, qui rappelle qu’elle a assisté à l’assassinat de son père en 1965 alors qu’elle n’avait que deux ans. Et elle pose la question : pourquoi les développeurs n’agissent pas « avec la même moralité, la même conscience et le même soin […] qu’ils le souhaiteraient pour leur propre famille ».

OpenAI fait un pas en arrière

Comme nous l’expliquions fin septembre, l’application dispose d’une fonctionnalité censée limiter les deepfakes. Une personne qui a vérifié son identité peut utiliser son image dans des vidéos et d’autres peuvent faire le faire à condition qu’elle donne son consentement. La journaliste Taylor Lorenz a déjà témoigné qu’une personne qui la harcèle avait créé des deepfakes d’elle, mais qu’elle avait pu les faire supprimer en utilisant ce système. Par contre, au lancement de l’application, OpenAI a décidé de ne pas mettre en place de restriction sur les « personnages historiques ».

Ne réagissant qu’après les divers témoignages de descendants célèbres et en ne citant que le cas de Martin Luther King, OpenAI affirme dans son tweet de ce matin : « Bien qu’il existe un intérêt certain pour la liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient avoir le contrôle final sur l’utilisation de leur image. Les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée dans les caméos [nom utilisé par OpenAI pour sa fonctionnalité de deepfake] de Sora ». En bref, l’entreprise choisit de proposer une option d’opt-out pour les représentants des personnalités historiques qui ne voudraient pas que leur image soit utilisée dans Sora.

Pour éviter que les vidéos générées par IA soient repartagées en dehors de son réseau pour désinformer, OpenAI a mis en place un watermark qui se déplace au cours de la lecture. Mais, comme l’a remarqué 404 Media, de nombreux systèmes de suppression de ces filigranes ont rapidement pullulé sur le web, rendant rapidement cette protection contre la désinformation peu efficace.

La viralité et l’injure font le succès

Tout ça a permis d’avoir un certain succès. Mais, comme le souligne notre consœur Katie Notopoulos de Business Insider, la plupart des utilisateurs semblent être des garçons adolescents, contre « très, très peu de femmes ». « De manière générale, si une plateforme sociale est un endroit effrayant pour les femmes… mon ami, tu as un problème », commente-t-elle.

Pendant ce temps-là, comme nous l’évoquions aussi, Meta a sorti Vibes, un équivalent de Sora mais sans cette possibilité de deepfake. Celui-ci semble avoir beaucoup moins de succès. Pour notre confrère de Wired, Reece Rogers, ses premières expériences sur l’application de Meta étaient « ennuyeuses et sans intérêt ». Pour lui, le flux de Sora, « avec sa prolifération de deepfakes souriants, était beaucoup plus électrique… et inquiétant ».

On n’en a en tout cas pas fini avec les vidéos générées par IA plus photoréalistes les unes que les autres, puisque Google vient d’annoncer ce jeudi 15 octobre la sortie de Veo 3.1. L’entreprise promet aux utilisateurs plus de contrôle dans son outil d’édition de vidéos générées par IA Flow : « Nous sommes toujours à l’écoute de vos commentaires, et nous avons compris que vous souhaitez avoir davantage de contrôle artistique dans Flow, avec une prise en charge audio améliorée dans toutes les fonctionnalités », affirme l’entreprise. Elle promet, entre autres, une génération de vidéos plus rapidement proche des demandes des utilisateurs et une « qualité audiovisuelle améliorée lors de la conversion d’images en vidéos ».

  •  

Enseignement et recherche : la liberté académique s’est « nettement détériorée » en France

Mayday !
Enseignement et recherche : la liberté académique s’est « nettement détériorée » en France

Dans un rapport publié pour France Université, la chercheuse Stéphanie Balme fait l’état des lieux des attaques contre la liberté des enseignants du supérieur et des chercheurs. Elle constate un « net retard » en France, aussi bien du point de vue législatif que culturel, concernant la défense de la liberté académique et propose de l’inscrire dans la Constitution.

« Défendre et promouvoir la liberté académique » est un « enjeu mondial » et « une urgence pour la France et l’Europe », pour la chercheuse en sciences politiques Stéphanie Balme qui vient de publier un rapport sur le sujet [PDF].

Elle a conduit une étude pour France Universités, le lobby des présidents d’universités. Celui-ci reprend à son compte dans un document de synthèse [PDF] les principales propositions faites par la chercheuse.

Stéphanie Balme propose notamment de constitutionnaliser la liberté académique. La chercheuse explique qu’« en matière de liberté académique, la France ne dispose véritablement ni d’une culture politique, ni d’une culture professionnelle, ni d’une culture citoyenne suffisamment enracinée ».

Constitutionalisation de la liberté académique


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Les messages privés (non chiffrés) arrivent sur Threads en Europe

Meta a annoncé ce mercredi 15 octobre que les utilisateurs de Threads situés dans l’Union européenne allaient pouvoir « dans les prochains jours » utiliser la fonction de messagerie privée du réseau social : « Cela permet aux habitants de toute la région d’accéder à une expérience de messagerie complète », affirme l’entreprise.

Cette annonce arrive en même temps que celle du déploiement des discussions en groupes privés dans l’application pour tous les utilisateurs majeurs, qu’ils soient en Europe ou ailleurs. Cette majorité est réclamée depuis le lancement des messages privés dans l’application.

threads instagram facebook

Threads rejoint donc le club des réseaux sociaux proposant des fonctionnalités de DM. Alors que Bluesky a développé son système de discussion privée sans possibilité de discuter en groupe, Elon Musk avait annoncé en juillet l’arrivée de XChat, dont le chiffrement laisse cependant dubitatif car aucun détail sur sa robustesse n’a été divulgué.

Selon TechCrunch, Threads a précisé à la presse états-unienne que son système de messagerie privée n’était pas chiffré, que ça soit pour les messages individuels ou de groupes. « L’entreprise considère plutôt les DM de Threads comme un moyen pour les utilisateurs de communiquer sur des sujets d’actualité, comme un match de football ou une émission de télévision qu’ils regardent, et non comme un service de messagerie sécurisée », expliquent nos confrères.

Rappelons que Threads utilise en partie le protocole ActivityPub du Fediverse (dont Mastodon fait partie). Toutefois, Meta ne dit pas si c’est le cas pour la correspondance privée.

Du côté de Mastodon, les responsables des instances expliquent depuis le début que la correspondance privée n’est pas chiffrée. « En raison des limitations du protocole utilisé, la confidentialité des messages « directs » ne peut être garantie : ils sont susceptibles d’être accessibles aux administrateur·rice·s d’autres instances de Mastodon, voire au public en cas de problème sur la sécurité », explique par exemple l’instance Piaille.fr dans sa politique de confidentialité.

  •  

☕️ Les messages privés (non chiffrés) arrivent sur Threads en Europe

Meta a annoncé ce mercredi 15 octobre que les utilisateurs de Threads situés dans l’Union européenne allaient pouvoir « dans les prochains jours » utiliser la fonction de messagerie privée du réseau social : « Cela permet aux habitants de toute la région d’accéder à une expérience de messagerie complète », affirme l’entreprise.

Cette annonce arrive en même temps que celle du déploiement des discussions en groupes privés dans l’application pour tous les utilisateurs majeurs, qu’ils soient en Europe ou ailleurs. Cette majorité est réclamée depuis le lancement des messages privés dans l’application.

threads instagram facebook

Threads rejoint donc le club des réseaux sociaux proposant des fonctionnalités de DM. Alors que Bluesky a développé son système de discussion privée sans possibilité de discuter en groupe, Elon Musk avait annoncé en juillet l’arrivée de XChat, dont le chiffrement laisse cependant dubitatif car aucun détail sur sa robustesse n’a été divulgué.

Selon TechCrunch, Threads a précisé à la presse états-unienne que son système de messagerie privée n’était pas chiffré, que ça soit pour les messages individuels ou de groupes. « L’entreprise considère plutôt les DM de Threads comme un moyen pour les utilisateurs de communiquer sur des sujets d’actualité, comme un match de football ou une émission de télévision qu’ils regardent, et non comme un service de messagerie sécurisée », expliquent nos confrères.

Rappelons que Threads utilise en partie le protocole ActivityPub du Fediverse (dont Mastodon fait partie). Toutefois, Meta ne dit pas si c’est le cas pour la correspondance privée.

Du côté de Mastodon, les responsables des instances expliquent depuis le début que la correspondance privée n’est pas chiffrée. « En raison des limitations du protocole utilisé, la confidentialité des messages « directs » ne peut être garantie : ils sont susceptibles d’être accessibles aux administrateur·rice·s d’autres instances de Mastodon, voire au public en cas de problème sur la sécurité », explique par exemple l’instance Piaille.fr dans sa politique de confidentialité.

  •