Vue normale

Reçu aujourd’hui — 20 octobre 2025

☕️ Cyberattaque à l’hôpital de Pontarlier : retour au papier pour plusieurs semaines

20 octobre 2025 à 06:44

Ce week-end, le Centre hospitalier intercommunal de Haute-Comté à Pontarlier a été victime d’une cyberattaque de type cryptolocker, « ayant conduit au chiffrement d’une partie de ses données informatiques », explique l’hôpital dans un communiqué obtenu par Ici Besançon.

Rapidement, les services informatiques ont été coupés et l’hôpital a prévenu l’Agence du Numérique en Santé (ANS), l’Agence Régionale de Santé Bourgogne-Franche-Comté, ainsi que l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Il a aussi déposé plainte.

Selon l’Est Républicain, les services de l’hôpital ont détecté des anomalies à 1h45 du matin dans la nuit du samedi 18 au dimanche 19 octobre, puis ils ont trouvé un message expliquant que les données de l’hôpital étaient chiffrées avec une demande de rançon.

Lors d’une conférence de presse dimanche soir et à laquelle a assisté l’Est Républicain, le directeur du centre hospitalier, Thierry Gamond Rius, a affirmé : « on peut considérer que la situation est sous contrôle. Difficile, mais sous contrôle et surtout transparente pour les patients ».

« On revient au fonctionnement papier pour les prescriptions des patients, pour les commandes, la gestion, etc. Ce dimanche matin, nous avons fait le tour des services, afin de voir si tout était bien mis en œuvre », a-t-il quand même ajouté. Mais aucun patient ne sera transféré ailleurs et le directeur prévoit de garder la même activité opératoire.

« Les serveurs sont compromis, il faut repartir sur une infrastructure vierge », explique-t-il encore, estimant en avoir pour plusieurs semaines.

Un numéro vert pour les patients du centre hospitalier a été mis en place : 0 805 090 125.

☕️ Cyberattaque à l’hôpital de Pontarlier : retour au papier pour plusieurs semaines

20 octobre 2025 à 06:44

Ce week-end, le Centre hospitalier intercommunal de Haute-Comté à Pontarlier a été victime d’une cyberattaque de type cryptolocker, « ayant conduit au chiffrement d’une partie de ses données informatiques », explique l’hôpital dans un communiqué obtenu par Ici Besançon.

Rapidement, les services informatiques ont été coupés et l’hôpital a prévenu l’Agence du Numérique en Santé (ANS), l’Agence Régionale de Santé Bourgogne-Franche-Comté, ainsi que l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Il a aussi déposé plainte.

Selon l’Est Républicain, les services de l’hôpital ont détecté des anomalies à 1h45 du matin dans la nuit du samedi 18 au dimanche 19 octobre, puis ils ont trouvé un message expliquant que les données de l’hôpital étaient chiffrées avec une demande de rançon.

Lors d’une conférence de presse dimanche soir et à laquelle a assisté l’Est Républicain, le directeur du centre hospitalier, Thierry Gamond Rius, a affirmé : « on peut considérer que la situation est sous contrôle. Difficile, mais sous contrôle et surtout transparente pour les patients ».

« On revient au fonctionnement papier pour les prescriptions des patients, pour les commandes, la gestion, etc. Ce dimanche matin, nous avons fait le tour des services, afin de voir si tout était bien mis en œuvre », a-t-il quand même ajouté. Mais aucun patient ne sera transféré ailleurs et le directeur prévoit de garder la même activité opératoire.

« Les serveurs sont compromis, il faut repartir sur une infrastructure vierge », explique-t-il encore, estimant en avoir pour plusieurs semaines.

Un numéro vert pour les patients du centre hospitalier a été mis en place : 0 805 090 125.

Reçu avant avant-hier

Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

17 octobre 2025 à 14:54
Same Player Shoot Again
Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

En plus de pousser au doomscrolling, Sora est massivement utilisée pour créer des deepfakes. De Robin Williams à Martin Luther King en passant par Whitney Houston, l’application a permis à des utilisateurs de créer des vidéos détournant l’image de personnalités historiques, notamment à des fins sexistes et racistes.

C’est dans un message sur le réseau social X qu’OpenAI a annoncé ce matin qu’elle avait « suspendu la génération d’images représentant le Dr King [Martin Luther King] afin de renforcer les mesures de protection des personnages historiques ». L’entreprise affirme le faire après avoir « abordé la question de la représentation de l’image du Dr Martin Luther King Jr. dans les générations Sora » avec les descendants de la figure noire du mouvement des droits civiques.

Sora 2, l’application de doomscrolling de vidéos générées par IA d’OpenAI est sortie récemment aux États-Unis mais pas encore en Europe.

Plusieurs descendants se sont exprimés contre l’utilisation dégradante d’images de personnalités historiques

Bernice King avait publié sur Instagram la semaine dernière un post demandant aux gens d’arrêter de lui envoyer des vidéos générées par IA utilisant l’image de son père. Elle y fait référence à la même demande faite par Zelda Williams, la fille de Robin Williams. Celle-ci implorait : « Arrêtez de croire que je veux voir ça ou que je vais comprendre, ce n’est pas le cas et ça ne changera pas ». Et elle ajoutait : « Si vous essayez juste de me troller, j’ai vu bien pire, je vais restreindre l’accès et passer à autre chose. Mais s’il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C’est stupide, c’est une perte de temps et d’énergie, et croyez-moi, ce n’est PAS ce qu’il voudrait ».

Mais le Washington Post raconte que le problème n’est pas seulement le fait que des personnes connues soient visibles dans des vidéos générées par IA photoréalistes, mais aussi que l’outil est utilisé contre ces personnes de façon dégradante, sexiste, ou raciste. Ainsi, une vidéo montrait par exemple Whitney Houston ivre, comme si elle était filmée par une caméra corporelle de police. Une autre montrait Martin Luther King faisant des cris de singe pendant son célèbre discours « I have a dream ».

D’autres vidéos montrent des deepfakes de Malcolm X, une autre figure noire du mouvement des droits civiques aux États-Unis, faisant des blagues salaces, se battant avec Martin Luther King ou déféquant sur lui-même. « Il est profondément irrespectueux et blessant de voir l’image de mon père utilisée de manière aussi cavalière et insensible alors qu’il a consacré sa vie à la vérité », déplore sa fille, Ilyasah Shabazz, auprès du Washington Post, qui rappelle qu’elle a assisté à l’assassinat de son père en 1965 alors qu’elle n’avait que deux ans. Et elle pose la question : pourquoi les développeurs n’agissent pas « avec la même moralité, la même conscience et le même soin […] qu’ils le souhaiteraient pour leur propre famille ».

OpenAI fait un pas en arrière

Comme nous l’expliquions fin septembre, l’application dispose d’une fonctionnalité censée limiter les deepfakes. Une personne qui a vérifié son identité peut utiliser son image dans des vidéos et d’autres peuvent faire le faire à condition qu’elle donne son consentement. La journaliste Taylor Lorenz a déjà témoigné qu’une personne qui la harcèle avait créé des deepfakes d’elle, mais qu’elle avait pu les faire supprimer en utilisant ce système. Par contre, au lancement de l’application, OpenAI a décidé de ne pas mettre en place de restriction sur les « personnages historiques ».

Ne réagissant qu’après les divers témoignages de descendants célèbres et en ne citant que le cas de Martin Luther King, OpenAI affirme dans son tweet de ce matin : « Bien qu’il existe un intérêt certain pour la liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient avoir le contrôle final sur l’utilisation de leur image. Les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée dans les caméos [nom utilisé par OpenAI pour sa fonctionnalité de deepfake] de Sora ». En bref, l’entreprise choisit de proposer une option d’opt-out pour les représentants des personnalités historiques qui ne voudraient pas que leur image soit utilisée dans Sora.

Pour éviter que les vidéos générées par IA soient repartagées en dehors de son réseau pour désinformer, OpenAI a mis en place un watermark qui se déplace au cours de la lecture. Mais, comme l’a remarqué 404 Media, de nombreux systèmes de suppression de ces filigranes ont rapidement pullulé sur le web, rendant rapidement cette protection contre la désinformation peu efficace.

La viralité et l’injure font le succès

Tout ça a permis d’avoir un certain succès. Mais, comme le souligne notre consœur Katie Notopoulos de Business Insider, la plupart des utilisateurs semblent être des garçons adolescents, contre « très, très peu de femmes ». « De manière générale, si une plateforme sociale est un endroit effrayant pour les femmes… mon ami, tu as un problème », commente-t-elle.

Pendant ce temps-là, comme nous l’évoquions aussi, Meta a sorti Vibes, un équivalent de Sora mais sans cette possibilité de deepfake. Celui-ci semble avoir beaucoup moins de succès. Pour notre confrère de Wired, Reece Rogers, ses premières expériences sur l’application de Meta étaient « ennuyeuses et sans intérêt ». Pour lui, le flux de Sora, « avec sa prolifération de deepfakes souriants, était beaucoup plus électrique… et inquiétant ».

On n’en a en tout cas pas fini avec les vidéos générées par IA plus photoréalistes les unes que les autres, puisque Google vient d’annoncer ce jeudi 15 octobre la sortie de Veo 3.1. L’entreprise promet aux utilisateurs plus de contrôle dans son outil d’édition de vidéos générées par IA Flow : « Nous sommes toujours à l’écoute de vos commentaires, et nous avons compris que vous souhaitez avoir davantage de contrôle artistique dans Flow, avec une prise en charge audio améliorée dans toutes les fonctionnalités », affirme l’entreprise. Elle promet, entre autres, une génération de vidéos plus rapidement proche des demandes des utilisateurs et une « qualité audiovisuelle améliorée lors de la conversion d’images en vidéos ».

Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

17 octobre 2025 à 14:54
Same Player Shoot Again
Sora : des deepfakes et représentations racistes de Martin Luther King et Malcolm X

En plus de pousser au doomscrolling, Sora est massivement utilisée pour créer des deepfakes. De Robin Williams à Martin Luther King en passant par Whitney Houston, l’application a permis à des utilisateurs de créer des vidéos détournant l’image de personnalités historiques, notamment à des fins sexistes et racistes.

C’est dans un message sur le réseau social X qu’OpenAI a annoncé ce matin qu’elle avait « suspendu la génération d’images représentant le Dr King [Martin Luther King] afin de renforcer les mesures de protection des personnages historiques ». L’entreprise affirme le faire après avoir « abordé la question de la représentation de l’image du Dr Martin Luther King Jr. dans les générations Sora » avec les descendants de la figure noire du mouvement des droits civiques.

Sora 2, l’application de doomscrolling de vidéos générées par IA d’OpenAI est sortie récemment aux États-Unis mais pas encore en Europe.

Plusieurs descendants se sont exprimés contre l’utilisation dégradante d’images de personnalités historiques

Bernice King avait publié sur Instagram la semaine dernière un post demandant aux gens d’arrêter de lui envoyer des vidéos générées par IA utilisant l’image de son père. Elle y fait référence à la même demande faite par Zelda Williams, la fille de Robin Williams. Celle-ci implorait : « Arrêtez de croire que je veux voir ça ou que je vais comprendre, ce n’est pas le cas et ça ne changera pas ». Et elle ajoutait : « Si vous essayez juste de me troller, j’ai vu bien pire, je vais restreindre l’accès et passer à autre chose. Mais s’il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C’est stupide, c’est une perte de temps et d’énergie, et croyez-moi, ce n’est PAS ce qu’il voudrait ».

Mais le Washington Post raconte que le problème n’est pas seulement le fait que des personnes connues soient visibles dans des vidéos générées par IA photoréalistes, mais aussi que l’outil est utilisé contre ces personnes de façon dégradante, sexiste, ou raciste. Ainsi, une vidéo montrait par exemple Whitney Houston ivre, comme si elle était filmée par une caméra corporelle de police. Une autre montrait Martin Luther King faisant des cris de singe pendant son célèbre discours « I have a dream ».

D’autres vidéos montrent des deepfakes de Malcolm X, une autre figure noire du mouvement des droits civiques aux États-Unis, faisant des blagues salaces, se battant avec Martin Luther King ou déféquant sur lui-même. « Il est profondément irrespectueux et blessant de voir l’image de mon père utilisée de manière aussi cavalière et insensible alors qu’il a consacré sa vie à la vérité », déplore sa fille, Ilyasah Shabazz, auprès du Washington Post, qui rappelle qu’elle a assisté à l’assassinat de son père en 1965 alors qu’elle n’avait que deux ans. Et elle pose la question : pourquoi les développeurs n’agissent pas « avec la même moralité, la même conscience et le même soin […] qu’ils le souhaiteraient pour leur propre famille ».

OpenAI fait un pas en arrière

Comme nous l’expliquions fin septembre, l’application dispose d’une fonctionnalité censée limiter les deepfakes. Une personne qui a vérifié son identité peut utiliser son image dans des vidéos et d’autres peuvent faire le faire à condition qu’elle donne son consentement. La journaliste Taylor Lorenz a déjà témoigné qu’une personne qui la harcèle avait créé des deepfakes d’elle, mais qu’elle avait pu les faire supprimer en utilisant ce système. Par contre, au lancement de l’application, OpenAI a décidé de ne pas mettre en place de restriction sur les « personnages historiques ».

Ne réagissant qu’après les divers témoignages de descendants célèbres et en ne citant que le cas de Martin Luther King, OpenAI affirme dans son tweet de ce matin : « Bien qu’il existe un intérêt certain pour la liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient avoir le contrôle final sur l’utilisation de leur image. Les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée dans les caméos [nom utilisé par OpenAI pour sa fonctionnalité de deepfake] de Sora ». En bref, l’entreprise choisit de proposer une option d’opt-out pour les représentants des personnalités historiques qui ne voudraient pas que leur image soit utilisée dans Sora.

Pour éviter que les vidéos générées par IA soient repartagées en dehors de son réseau pour désinformer, OpenAI a mis en place un watermark qui se déplace au cours de la lecture. Mais, comme l’a remarqué 404 Media, de nombreux systèmes de suppression de ces filigranes ont rapidement pullulé sur le web, rendant rapidement cette protection contre la désinformation peu efficace.

La viralité et l’injure font le succès

Tout ça a permis d’avoir un certain succès. Mais, comme le souligne notre consœur Katie Notopoulos de Business Insider, la plupart des utilisateurs semblent être des garçons adolescents, contre « très, très peu de femmes ». « De manière générale, si une plateforme sociale est un endroit effrayant pour les femmes… mon ami, tu as un problème », commente-t-elle.

Pendant ce temps-là, comme nous l’évoquions aussi, Meta a sorti Vibes, un équivalent de Sora mais sans cette possibilité de deepfake. Celui-ci semble avoir beaucoup moins de succès. Pour notre confrère de Wired, Reece Rogers, ses premières expériences sur l’application de Meta étaient « ennuyeuses et sans intérêt ». Pour lui, le flux de Sora, « avec sa prolifération de deepfakes souriants, était beaucoup plus électrique… et inquiétant ».

On n’en a en tout cas pas fini avec les vidéos générées par IA plus photoréalistes les unes que les autres, puisque Google vient d’annoncer ce jeudi 15 octobre la sortie de Veo 3.1. L’entreprise promet aux utilisateurs plus de contrôle dans son outil d’édition de vidéos générées par IA Flow : « Nous sommes toujours à l’écoute de vos commentaires, et nous avons compris que vous souhaitez avoir davantage de contrôle artistique dans Flow, avec une prise en charge audio améliorée dans toutes les fonctionnalités », affirme l’entreprise. Elle promet, entre autres, une génération de vidéos plus rapidement proche des demandes des utilisateurs et une « qualité audiovisuelle améliorée lors de la conversion d’images en vidéos ».

Enseignement et recherche : la liberté académique s’est « nettement détériorée » en France

16 octobre 2025 à 13:45
Mayday !
Enseignement et recherche : la liberté académique s’est « nettement détériorée » en France

Dans un rapport publié pour France Université, la chercheuse Stéphanie Balme fait l’état des lieux des attaques contre la liberté des enseignants du supérieur et des chercheurs. Elle constate un « net retard » en France, aussi bien du point de vue législatif que culturel, concernant la défense de la liberté académique et propose de l’inscrire dans la Constitution.

« Défendre et promouvoir la liberté académique » est un « enjeu mondial » et « une urgence pour la France et l’Europe », pour la chercheuse en sciences politiques Stéphanie Balme qui vient de publier un rapport sur le sujet [PDF].

Elle a conduit une étude pour France Universités, le lobby des présidents d’universités. Celui-ci reprend à son compte dans un document de synthèse [PDF] les principales propositions faites par la chercheuse.

Stéphanie Balme propose notamment de constitutionnaliser la liberté académique. La chercheuse explique qu’« en matière de liberté académique, la France ne dispose véritablement ni d’une culture politique, ni d’une culture professionnelle, ni d’une culture citoyenne suffisamment enracinée ».

Constitutionalisation de la liberté académique


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les messages privés (non chiffrés) arrivent sur Threads en Europe

16 octobre 2025 à 07:52

Meta a annoncé ce mercredi 15 octobre que les utilisateurs de Threads situés dans l’Union européenne allaient pouvoir « dans les prochains jours » utiliser la fonction de messagerie privée du réseau social : « Cela permet aux habitants de toute la région d’accéder à une expérience de messagerie complète », affirme l’entreprise.

Cette annonce arrive en même temps que celle du déploiement des discussions en groupes privés dans l’application pour tous les utilisateurs majeurs, qu’ils soient en Europe ou ailleurs. Cette majorité est réclamée depuis le lancement des messages privés dans l’application.

threads instagram facebook

Threads rejoint donc le club des réseaux sociaux proposant des fonctionnalités de DM. Alors que Bluesky a développé son système de discussion privée sans possibilité de discuter en groupe, Elon Musk avait annoncé en juillet l’arrivée de XChat, dont le chiffrement laisse cependant dubitatif car aucun détail sur sa robustesse n’a été divulgué.

Selon TechCrunch, Threads a précisé à la presse états-unienne que son système de messagerie privée n’était pas chiffré, que ça soit pour les messages individuels ou de groupes. « L’entreprise considère plutôt les DM de Threads comme un moyen pour les utilisateurs de communiquer sur des sujets d’actualité, comme un match de football ou une émission de télévision qu’ils regardent, et non comme un service de messagerie sécurisée », expliquent nos confrères.

Rappelons que Threads utilise en partie le protocole ActivityPub du Fediverse (dont Mastodon fait partie). Toutefois, Meta ne dit pas si c’est le cas pour la correspondance privée.

Du côté de Mastodon, les responsables des instances expliquent depuis le début que la correspondance privée n’est pas chiffrée. « En raison des limitations du protocole utilisé, la confidentialité des messages « directs » ne peut être garantie : ils sont susceptibles d’être accessibles aux administrateur·rice·s d’autres instances de Mastodon, voire au public en cas de problème sur la sécurité », explique par exemple l’instance Piaille.fr dans sa politique de confidentialité.

☕️ Les messages privés (non chiffrés) arrivent sur Threads en Europe

16 octobre 2025 à 07:52

Meta a annoncé ce mercredi 15 octobre que les utilisateurs de Threads situés dans l’Union européenne allaient pouvoir « dans les prochains jours » utiliser la fonction de messagerie privée du réseau social : « Cela permet aux habitants de toute la région d’accéder à une expérience de messagerie complète », affirme l’entreprise.

Cette annonce arrive en même temps que celle du déploiement des discussions en groupes privés dans l’application pour tous les utilisateurs majeurs, qu’ils soient en Europe ou ailleurs. Cette majorité est réclamée depuis le lancement des messages privés dans l’application.

threads instagram facebook

Threads rejoint donc le club des réseaux sociaux proposant des fonctionnalités de DM. Alors que Bluesky a développé son système de discussion privée sans possibilité de discuter en groupe, Elon Musk avait annoncé en juillet l’arrivée de XChat, dont le chiffrement laisse cependant dubitatif car aucun détail sur sa robustesse n’a été divulgué.

Selon TechCrunch, Threads a précisé à la presse états-unienne que son système de messagerie privée n’était pas chiffré, que ça soit pour les messages individuels ou de groupes. « L’entreprise considère plutôt les DM de Threads comme un moyen pour les utilisateurs de communiquer sur des sujets d’actualité, comme un match de football ou une émission de télévision qu’ils regardent, et non comme un service de messagerie sécurisée », expliquent nos confrères.

Rappelons que Threads utilise en partie le protocole ActivityPub du Fediverse (dont Mastodon fait partie). Toutefois, Meta ne dit pas si c’est le cas pour la correspondance privée.

Du côté de Mastodon, les responsables des instances expliquent depuis le début que la correspondance privée n’est pas chiffrée. « En raison des limitations du protocole utilisé, la confidentialité des messages « directs » ne peut être garantie : ils sont susceptibles d’être accessibles aux administrateur·rice·s d’autres instances de Mastodon, voire au public en cas de problème sur la sécurité », explique par exemple l’instance Piaille.fr dans sa politique de confidentialité.

☕️ Google utilise Gemini pour intégrer un peu plus Agenda dans Gmail

15 octobre 2025 à 13:39

Google a annoncé mardi 14 octobre ajouter une nouvelle fonctionnalité dans Gmail : « Help me schedule » (aide-moi à planifier). Celle-ci utilise Gemini, l’IA de Google, pour détecter « lorsque vous essayez de coordonner un rendez-vous dans un e-mail », explique l’entreprise. Quand c’est le cas, elle affiche un bouton « Help me schedule » dans la barre d’outils.

Dès que vous cliquez sur ce bouton, « Gemini vous proposera automatiquement les créneaux horaires idéaux en fonction de votre agenda Google et du contexte de l’e-mail ».

Il existe déjà d’autres applications de gestion de rendez-vous comme Doodle ou Calendy. Mais ici, Google explique que son IA analyse le texte de la conversation pour connaitre le temps à accorder au rendez-vous : « Si quelqu’un demande un rendez-vous de 30 minutes la semaine prochaine, Gemini vous proposera des créneaux horaires adaptés à vos disponibilités ». Ainsi, l’entreprise utilise sa position sur le marché du webmail et son IA Gemini pour assoir sa position sur ce genre de fonctionnalités.

L’entreprise précise que la fonctionnalité ne prend, pour l’instant, en charge que les rendez-vous entre deux personnes.

« Help me schedule » est disponible pour les utilisateurs de Google Workspace, de Google AI Pro et Ultra, et de Gemini Business et Enterprise.

☕️ Google utilise Gemini pour intégrer un peu plus Agenda dans Gmail

15 octobre 2025 à 13:39

Google a annoncé mardi 14 octobre ajouter une nouvelle fonctionnalité dans Gmail : « Help me schedule » (aide-moi à planifier). Celle-ci utilise Gemini, l’IA de Google, pour détecter « lorsque vous essayez de coordonner un rendez-vous dans un e-mail », explique l’entreprise. Quand c’est le cas, elle affiche un bouton « Help me schedule » dans la barre d’outils.

Dès que vous cliquez sur ce bouton, « Gemini vous proposera automatiquement les créneaux horaires idéaux en fonction de votre agenda Google et du contexte de l’e-mail ».

Il existe déjà d’autres applications de gestion de rendez-vous comme Doodle ou Calendy. Mais ici, Google explique que son IA analyse le texte de la conversation pour connaitre le temps à accorder au rendez-vous : « Si quelqu’un demande un rendez-vous de 30 minutes la semaine prochaine, Gemini vous proposera des créneaux horaires adaptés à vos disponibilités ». Ainsi, l’entreprise utilise sa position sur le marché du webmail et son IA Gemini pour assoir sa position sur ce genre de fonctionnalités.

L’entreprise précise que la fonctionnalité ne prend, pour l’instant, en charge que les rendez-vous entre deux personnes.

« Help me schedule » est disponible pour les utilisateurs de Google Workspace, de Google AI Pro et Ultra, et de Gemini Business et Enterprise.

Aux États-Unis, Facebook supprime un groupe signalant la police de l’immigration

15 octobre 2025 à 10:12
Yo VIP, let's kick it ! ICE, ICE baby
Aux États-Unis, Facebook supprime un groupe signalant la police de l’immigration

Meta a supprimé la page d’un groupe Facebook rassemblant des personnes signalant la présence de la police de l’immigration. L’entreprise de Mark Zuckerberg a pris cette décision sous la pression de l’administration de Donald Trump.

Meta a supprimé la page d’un groupe Facebook qui rassemblait des personnes de Chicago signalant la présence de la police de l’immigration (ICE) dans les quartiers de la ville. Cette décision intervient après le retrait par Google et Apple d’applications de signalement du même style dans leurs magasins d’applications.

Pression de l’administration Trump et liens d’intérêt

La procureure générale des États-Unis, Pamela Bondi, a annoncé sur X cette suppression en précisant qu’elle faisait « suite à une intervention du département de la Justice » » étatsunien. Elle affirme qu’une « vague de violence contre l’ICE a été alimentée par des applications en ligne et des campagnes sur les réseaux sociaux visant à mettre en danger les agents de l’ICE simplement parce qu’ils font leur travail ».

L’entreprise de Mark Zuckerberg a confirmé à nos confrères d’ArsTechnica cette suppression. Le responsable de la communication de l’entreprise, Francis Brennan, leur a répondu que le groupe « a été supprimé pour avoir enfreint [leurs] politiques contre les attaques coordonnées » et en renvoyant vers la page correspondante sans plus de précision. ArsTechnica rappelle que Francis Brennan a été le responsable de la campagne de Donald Trump en 2020 et a été embauché par Meta en janvier dernier (dès le début de son second mandat).

Pas d’appel à la violence recensé

L’intervention du département de la Justice étatsunienne suit, de fait, la demande de la militante d’extrême droite Laura Loomer. Celle-ci a publié un message sur X, il y a quelques jours, concernant la page Facebook « ICE Sighting-Chicagoland ». Elle y affirmait que le groupe « fournit des informations actualisées sur les lieux des raids de l’ICE et la localisation des agents de l’ICE dans la région de Chicago » sans pour autant citer aucun message appelant à la violence. Elle s’est d’ailleurs félicitée un peu plus tard que le département de la Justice ait contacté Facebook.

C’est pourtant bien la violence contre les agents de l’ICE qui est invoquée par l’administration Trump comme par Meta pour justifier la fermeture de ce groupe. Récemment, la Maison-Blanche a affirmé qu’il y avait eu une « augmentation de plus de 1 000 % des agressions contre les agents de l’ICE (Immigration and Customs Enforcement) depuis le 21 janvier 2025, par rapport à la même période l’année dernière ». Mais le média public étatsunien NPR relativise cette affirmation : « bien que le nombre d’agressions contre des agents de l’ICE ait augmenté, aucune information publique ne montre qu’il ait connu une hausse aussi spectaculaire que le prétend le gouvernement fédéral ».

Selon l’agence de presse AP, si cette page concernant Chicago a été supprimée, des dizaines d’autres groupes rassemblant des milliers d’utilisateurs sont encore visibles sur Facebook.

Rappelons que Donald Trump a publié dès le 20 janvier dernier, soit quelques jours après son investiture, un décret affirmant « restaurer la liberté d’expression et mettre fin à la censure fédérale ».

Aux États-Unis, Facebook supprime un groupe signalant la police de l’immigration

15 octobre 2025 à 10:12
Yo VIP, let's kick it ! ICE, ICE baby
Aux États-Unis, Facebook supprime un groupe signalant la police de l’immigration

Meta a supprimé la page d’un groupe Facebook rassemblant des personnes signalant la présence de la police de l’immigration. L’entreprise de Mark Zuckerberg a pris cette décision sous la pression de l’administration de Donald Trump.

Meta a supprimé la page d’un groupe Facebook qui rassemblait des personnes de Chicago signalant la présence de la police de l’immigration (ICE) dans les quartiers de la ville. Cette décision intervient après le retrait par Google et Apple d’applications de signalement du même style dans leurs magasins d’applications.

Pression de l’administration Trump et liens d’intérêt

La procureure générale des États-Unis, Pamela Bondi, a annoncé sur X cette suppression en précisant qu’elle faisait « suite à une intervention du département de la Justice » » étatsunien. Elle affirme qu’une « vague de violence contre l’ICE a été alimentée par des applications en ligne et des campagnes sur les réseaux sociaux visant à mettre en danger les agents de l’ICE simplement parce qu’ils font leur travail ».

L’entreprise de Mark Zuckerberg a confirmé à nos confrères d’ArsTechnica cette suppression. Le responsable de la communication de l’entreprise, Francis Brennan, leur a répondu que le groupe « a été supprimé pour avoir enfreint [leurs] politiques contre les attaques coordonnées » et en renvoyant vers la page correspondante sans plus de précision. ArsTechnica rappelle que Francis Brennan a été le responsable de la campagne de Donald Trump en 2020 et a été embauché par Meta en janvier dernier (dès le début de son second mandat).

Pas d’appel à la violence recensé

L’intervention du département de la Justice étatsunienne suit, de fait, la demande de la militante d’extrême droite Laura Loomer. Celle-ci a publié un message sur X, il y a quelques jours, concernant la page Facebook « ICE Sighting-Chicagoland ». Elle y affirmait que le groupe « fournit des informations actualisées sur les lieux des raids de l’ICE et la localisation des agents de l’ICE dans la région de Chicago » sans pour autant citer aucun message appelant à la violence. Elle s’est d’ailleurs félicitée un peu plus tard que le département de la Justice ait contacté Facebook.

C’est pourtant bien la violence contre les agents de l’ICE qui est invoquée par l’administration Trump comme par Meta pour justifier la fermeture de ce groupe. Récemment, la Maison-Blanche a affirmé qu’il y avait eu une « augmentation de plus de 1 000 % des agressions contre les agents de l’ICE (Immigration and Customs Enforcement) depuis le 21 janvier 2025, par rapport à la même période l’année dernière ». Mais le média public étatsunien NPR relativise cette affirmation : « bien que le nombre d’agressions contre des agents de l’ICE ait augmenté, aucune information publique ne montre qu’il ait connu une hausse aussi spectaculaire que le prétend le gouvernement fédéral ».

Selon l’agence de presse AP, si cette page concernant Chicago a été supprimée, des dizaines d’autres groupes rassemblant des milliers d’utilisateurs sont encore visibles sur Facebook.

Rappelons que Donald Trump a publié dès le 20 janvier dernier, soit quelques jours après son investiture, un décret affirmant « restaurer la liberté d’expression et mettre fin à la censure fédérale ».

☕️ SpaceX réussit son onzième vol test de la fusée Starship

14 octobre 2025 à 15:00

Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.

Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».

Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.

Le tout est rediffusé par SpaceX sur son site.

Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

14 octobre 2025 à 14:10
IA pas de gène
Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.

Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.

Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.

« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que «  les risques le sont tout autant ».

L’IA massivement déployée dans les dispositifs médicaux

« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.

« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».

Sans évaluation sérieuse, la peur d’être responsable juridiquement

Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.

L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».

Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.

Appel à une vraie régulation

Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.

« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».

Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.

☕️ SpaceX réussit son onzième vol test de la fusée Starship

14 octobre 2025 à 15:00

Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.

Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».

Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.

Le tout est rediffusé par SpaceX sur son site.

Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

14 octobre 2025 à 14:10
IA pas de gène
Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.

Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.

Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.

« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que «  les risques le sont tout autant ».

L’IA massivement déployée dans les dispositifs médicaux

« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.

« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».

Sans évaluation sérieuse, la peur d’être responsable juridiquement

Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.

L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».

Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.

Appel à une vraie régulation

Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.

« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».

Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.

☕️ Le parc informatique des lycées des Hauts-de-France touché par une cyberattaque

14 octobre 2025 à 08:29

Ce lundi 13 octobre, les lycées des Hauts-de-France ont eu pour consigne de ne pas utiliser les ordinateurs et de les maintenir éteints.

Cela fait suite à la détection d’une cyberattaque survenue ce vendredi 10 octobre qui touchait « 80% des lycées publics de la région Hauts-de-France » selon nos confrères d’Ici Hauts-de-France. À ce moment-là, la région Hauts-de-France ne parlait que d’ « un accès aux réseaux et à Internet […] temporairement suspendu ». Elle affirmait que « les premières analyses indiquent que l’attaque a essentiellement ciblé des données techniques. Les environnements numériques de travail (ENT) ne sont pas affectés » et ajoutait avoir déposé plainte.

Ce n’est que dans le courant de la journée de lundi que la Région a demandé aux établissements de maintenir tous les ordinateurs éteints « afin d’éviter toute propagation et de ne pas retarder le retour à la normale », suivant « les recommandations des experts (ANSSI, prestataires, experts internes et gendarmerie) », explique un communiqué de la Région.

Celle-ci ajoute que « les chefs d’établissement des lycées sont informés régulièrement de l’évolution de la situation ».

Selon Ici Hauts-de-France, la cyberattaque serait liée à un rançongiciel du groupe de pirates Qilin. En janvier dernier, les chercheurs de l’entreprise de sécurité BlackPoint signalaient que Qilin utilisait une méthode appelée BYOVD (Bring Your Own Vulnerable Driver). « Cette technique consiste à utiliser un pilote signé, mais qui contient des failles, pour passer à travers les systèmes de sécurité, comme les solutions de détection et de réponse aux menaces (EDR) », explique l’Agence du numérique en santé française.

« Un service d’assistance technique téléphonique est mis en place à l’attention des lycées par les autorités académiques », affirme la Région qui assure travailler « en lien étroit » avec « les autorités académiques […] pour assurer la continuité du service public et accompagner les établissements ».

Mais pour l’instant, les enseignants semblent devoir se débrouiller par leurs propres moyens, explique à Next l’un d’entre eux, qui s’est vu demander d’apporter son ordinateur personnel pour travailler.

☕️ Le parc informatique des lycées des Hauts-de-France touché par une cyberattaque

14 octobre 2025 à 08:29

Ce lundi 13 octobre, les lycées des Hauts-de-France ont eu pour consigne de ne pas utiliser les ordinateurs et de les maintenir éteints.

Cela fait suite à la détection d’une cyberattaque survenue ce vendredi 10 octobre qui touchait « 80% des lycées publics de la région Hauts-de-France » selon nos confrères d’Ici Hauts-de-France. À ce moment-là, la région Hauts-de-France ne parlait que d’ « un accès aux réseaux et à Internet […] temporairement suspendu ». Elle affirmait que « les premières analyses indiquent que l’attaque a essentiellement ciblé des données techniques. Les environnements numériques de travail (ENT) ne sont pas affectés » et ajoutait avoir déposé plainte.

Ce n’est que dans le courant de la journée de lundi que la Région a demandé aux établissements de maintenir tous les ordinateurs éteints « afin d’éviter toute propagation et de ne pas retarder le retour à la normale », suivant « les recommandations des experts (ANSSI, prestataires, experts internes et gendarmerie) », explique un communiqué de la Région.

Celle-ci ajoute que « les chefs d’établissement des lycées sont informés régulièrement de l’évolution de la situation ».

Selon Ici Hauts-de-France, la cyberattaque serait liée à un rançongiciel du groupe de pirates Qilin. En janvier dernier, les chercheurs de l’entreprise de sécurité BlackPoint signalaient que Qilin utilisait une méthode appelée BYOVD (Bring Your Own Vulnerable Driver). « Cette technique consiste à utiliser un pilote signé, mais qui contient des failles, pour passer à travers les systèmes de sécurité, comme les solutions de détection et de réponse aux menaces (EDR) », explique l’Agence du numérique en santé française.

« Un service d’assistance technique téléphonique est mis en place à l’attention des lycées par les autorités académiques », affirme la Région qui assure travailler « en lien étroit » avec « les autorités académiques […] pour assurer la continuité du service public et accompagner les établissements ».

Mais pour l’instant, les enseignants semblent devoir se débrouiller par leurs propres moyens, explique à Next l’un d’entre eux, qui s’est vu demander d’apporter son ordinateur personnel pour travailler.

☕️ Le « Lokal » a recommencé à diffuser de la violence, la justice perquisitionne

14 octobre 2025 à 06:00

C’est sur la plateforme Twitch qu’une partie de l’ancienne chaine de streaming « Jean Pormanove » avait repris les diffusions de direct la semaine dernière. Selon Mediapart, une nouvelle enquête a été ouverte par le parquet de Nice ce vendredi 10 octobre, pour violences volontaires en réunion et diffusion d’images d’atteintes volontaires à la personne.

Selon nos consœurs, le « Lokal », lieu de tournage de l’ancienne chaine Kick Jeanpormanove, a de nouveau été utilisé par ces streamers pour diffuser la semaine dernière le même genre de contenus sur la chaine OGK_Decoy diffusée cette fois sur Twitch. Ce local a été perquisitionné et le matériel informatique a été saisi.

Dans une courte vidéo, Médiapart diffuse des extraits de mises en scène de violences physiques et psychologiques.

Une perquisition avait déjà eu lieu dans le même local après la publication de la première enquête de Mediapart sur le sujet.

☕️ Le « Lokal » a recommencé à diffuser de la violence, la justice perquisitionne

14 octobre 2025 à 06:00

C’est sur la plateforme Twitch qu’une partie de l’ancienne chaine de streaming « Jean Pormanove » avait repris les diffusions de direct la semaine dernière. Selon Mediapart, une nouvelle enquête a été ouverte par le parquet de Nice ce vendredi 10 octobre, pour violences volontaires en réunion et diffusion d’images d’atteintes volontaires à la personne.

Selon nos consœurs, le « Lokal », lieu de tournage de l’ancienne chaine Kick Jeanpormanove, a de nouveau été utilisé par ces streamers pour diffuser la semaine dernière le même genre de contenus sur la chaine OGK_Decoy diffusée cette fois sur Twitch. Ce local a été perquisitionné et le matériel informatique a été saisi.

Dans une courte vidéo, Médiapart diffuse des extraits de mises en scène de violences physiques et psychologiques.

Une perquisition avait déjà eu lieu dans le même local après la publication de la première enquête de Mediapart sur le sujet.

Universal tente de terrasser « l’hydre » mondiale du streaming en passant par l’Inde

13 octobre 2025 à 14:03
J'ai vu la tête de Tor repousser ici !
Universal tente de terrasser « l’hydre » mondiale du streaming en passant par l’Inde

Les lobbys internationaux du cinéma espèrent terrasser « l’hydre » du streaming en utilisant la justice indienne. Celle-ci leur permet de bloquer les domaines indiens des sites illégaux mais elle demande aussi aux bureaux d’enregistrement de nom de domaines situé au-delà des frontières de son pays de suspendre les noms de domaine ciblés. Une mesure qui n’est pas forcément si efficace que ça.

Dans une décision prise le 23 septembre dernier, la justice indienne a émis une injonction concernant la protection d’œuvres protégées par le copyright détenus par plusieurs multinationales, dont Universal, mais aussi cinq autres membres de la Motion Picture Association MPC et/ ou de l’Alliance for Creativity and Entertainment (ACE), deux lobbys importants d’Hollywood. Trois autres plaignants font partie de la Copyright Overseas Promotion Association, un lobby du cinéma coréen cette fois.

Les studios étasuniens et coréens semblent essayer de vouloir passer par la justice indienne pour imposer la fermeture de sites et aussi couper plus rapidement les têtes de l’hydre du streaming. S’ils sont déjà passé par la justice américaine pour faire ce genre d’action, les décisions étaient trop lentes et peu efficaces.

22 bureaux d’enregistrement de noms de domaine sommés de bloquer des domaines


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌