Vue lecture

☕️ SpaceX réussit son onzième vol test de la fusée Starship

Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.

Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».

Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.

Le tout est rediffusé par SpaceX sur son site.

  •  

Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

IA pas de gène
Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.

Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.

Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.

« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que «  les risques le sont tout autant ».

L’IA massivement déployée dans les dispositifs médicaux

« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.

« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».

Sans évaluation sérieuse, la peur d’être responsable juridiquement

Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.

L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».

Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.

Appel à une vraie régulation

Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.

« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».

Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.

  •  

☕️ SpaceX réussit son onzième vol test de la fusée Starship

Après une série noire d’échecs, SpaceX a réussi une deuxième fois à maitriser le lancement de sa fusée Starship dans la nuit du lundi 13 octobre au mardi 14. Comme l’expliquent nos confrères de Ciel & Espace, cet essai était assez similaire au précédent. Ainsi, après le décollage réussi du lanceur à 18h23, les deux étages de la fusée se sont bien séparés.

Le premier étage (Super Heavy) a entamé une descente vers le golfe du Mexique et a réussi à allumer ses moteurs. Enfin, il a fait un vol stationnaire au-dessus de la mer avant d’éteindre ses moteurs et de chuter au large de Starbase, comme prévu, explique Space News.

Le deuxième étage a continué sur sa trajectoire pour déployer huit masses simulant des satellites de Starlink. SpaceX a aussi rallumé brièvement un de ses moteurs. Le vaisseau a ensuite entamé sa rentrée atmosphérique correctement, ce qui a permis à l’entreprise de tester l’effet de l’absence de certaines tuiles à certains endroits stratégiques et une « manœuvre d’inclinaison dynamique ».

Cette manœuvre doit pouvoir être utilisée lors de futurs vols pendant lesquels le vaisseau devra revenir à la base de lancement de SpaceX. Cette fois-ci, il a amerri dans l’océan Indien un peu plus de 66 minutes après le lancement.

Le tout est rediffusé par SpaceX sur son site.

  •  

Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

IA pas de gène
Des chercheurs en médecine appellent à une régulation des outils intégrant de l’IA

L’IA est déjà utilisée quotidiennement dans les machines utilisées par les médecins. Mais certains tirent le signal d’alarme sur le manque d’évaluation de cette intégration, aussi bien sur l’efficacité que la responsabilité légale qui incombe aux professionnels de santé.

Les chercheurs en médecine s’interrogent sur l’introduction rapide de l’IA dans leur pratique, notamment dans les machines qu’ils utilisent au quotidien, sans vraie évaluation par des régulateurs comme la Food & Drugs Administration états-unienne ou l’ANSM (Agence nationale de sécurité du médicament) en France.

Dans une « communication spéciale » publiée dans la revue scientifique médicale JAMA (une des plus vieilles de la discipline), 52 chercheurs et chercheuses en médecine font le tour des enjeux autour de l’introduction de l’intelligence artificielle dans leurs disciplines.

« L’intelligence artificielle (IA) transforme la santé et les soins de santé à une échelle sans précédent. Si les avantages potentiels sont considérables », reconnaissent-ils, ils ajoutent que «  les risques le sont tout autant ».

L’IA massivement déployée dans les dispositifs médicaux

« De nombreux outils d’IA sont déjà largement utilisés, en particulier dans les domaines de l’imagerie médicale, de la santé mobile, des opérations commerciales dans le secteur de la santé et des fonctions hybrides telles que la transcription des consultations externes », détaillent-ils. Nous avons déjà abordé son utilisation pour améliorer le triage des patients aux urgences ou pour booster les outils d’imagerie médicale.

« Tous ces outils peuvent avoir des effets importants sur la santé (positifs ou négatifs) », commentent les chercheurs, « mais ces effets ne sont souvent pas quantifiés car les évaluations sont extrêmement difficiles à réaliser ou ne sont pas requises, en partie parce que beaucoup d’entre eux échappent à la surveillance réglementaire de la Food and Drug Administration américaine ». Ils ajoutent que cette évaluation est complexe car « les effets d’un outil dépendent fortement de l’interface homme-machine, de la formation des utilisateurs et du contexte dans lequel l’outil est utilisé ».

Sans évaluation sérieuse, la peur d’être responsable juridiquement

Sans évaluation sérieuse par une instance de régulation, les médecins se posent la question de la responsabilité juridique en cas de problème. « Il y aura certainement des cas où l’on aura l’impression que quelque chose a mal tourné et où les gens chercheront quelqu’un à blâmer », explique au Guardian le chercheur de l’Université de Pittsburgh, Derek Angus, l’un des principaux auteurs du texte publié par JAMA.

L’article explique que dans le cas où un outil n’a pas à être évalué par une instance comme la FDA, le développeur d’un outil « procéderait probablement à des évaluations proportionnées à ses allégations » mais, « il n’évaluerait nécessairement pas les conséquences de son outil sur la santé. Les organismes de prestation de soins de santé peuvent être motivés à mener leurs propres évaluations, mais beaucoup d’entre eux ne disposent pas des fonds ou de l’expertise nécessaires pour mener des évaluations approfondies ». Les chercheurs ajoutent : « Les gouvernements peuvent accorder des subventions pour financer certaines évaluations, mais ce financement est loin d’être exhaustif. Les patients et les communautés sont des parties prenantes qui ne sont pas responsables de l’évaluation, mais dont les points de vue sont essentiels. Cependant, leurs points de vue ne sont pas systématiquement pris en compte ».

Ils ajoutent que « pour les autres interventions en matière de soins de santé, la surveillance réglementaire est un élément important de cette gouvernance, car elle garantit à la société et aux marchés la crédibilité d’une intervention. Cependant, les États-Unis ne disposent pas d’un cadre réglementaire complet et adapté à l’IA dans le domaine de la santé et des soins de santé ». Ajoutons que la FDA est une agence américaine, mais elle donne aussi le la en matière de régulation de santé dans le monde.

Appel à une vraie régulation

Dans leur article, les chercheurs lui reprochent d’appliquer « une approche fondée sur les risques et spécifique à chaque fonction afin de fournir l’assurance la moins contraignante possible en matière de sécurité et d’efficacité ». Ils ajoutent que les lois états-uniennes excluent les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux. Ainsi, l’aide au diagnostic via l’IA passe entre les trous du filet de la régulation.

« Pour les cliniciens, l’efficacité signifie généralement une amélioration des résultats en matière de santé, mais rien ne garantit que l’autorité réglementaire exigera des preuves [à cet égard] », explique encore Derek Angus au Guardian. « Une fois commercialisés, les outils d’IA peuvent être déployés de manière imprévisible dans différents contextes cliniques, auprès de différents types de patients, par des utilisateurs ayant des niveaux de compétences variés. Il n’y a pratiquement aucune garantie que ce qui semble être une bonne idée dans le dossier de pré-autorisation corresponde réellement à ce que l’on obtient dans la pratique ».

Ces chercheurs appellent à une vraie régulation : « les outils d’IA utilisés dans le domaine de la santé et des soins de santé devraient être soumis à une structure de gouvernance qui protège les individus et garantit que ces outils réalisent bien les bénéfices potentiels » affichés.

  •  

☕️ Le parc informatique des lycées des Hauts-de-France touché par une cyberattaque

Ce lundi 13 octobre, les lycées des Hauts-de-France ont eu pour consigne de ne pas utiliser les ordinateurs et de les maintenir éteints.

Cela fait suite à la détection d’une cyberattaque survenue ce vendredi 10 octobre qui touchait « 80% des lycées publics de la région Hauts-de-France » selon nos confrères d’Ici Hauts-de-France. À ce moment-là, la région Hauts-de-France ne parlait que d’ « un accès aux réseaux et à Internet […] temporairement suspendu ». Elle affirmait que « les premières analyses indiquent que l’attaque a essentiellement ciblé des données techniques. Les environnements numériques de travail (ENT) ne sont pas affectés » et ajoutait avoir déposé plainte.

Ce n’est que dans le courant de la journée de lundi que la Région a demandé aux établissements de maintenir tous les ordinateurs éteints « afin d’éviter toute propagation et de ne pas retarder le retour à la normale », suivant « les recommandations des experts (ANSSI, prestataires, experts internes et gendarmerie) », explique un communiqué de la Région.

Celle-ci ajoute que « les chefs d’établissement des lycées sont informés régulièrement de l’évolution de la situation ».

Selon Ici Hauts-de-France, la cyberattaque serait liée à un rançongiciel du groupe de pirates Qilin. En janvier dernier, les chercheurs de l’entreprise de sécurité BlackPoint signalaient que Qilin utilisait une méthode appelée BYOVD (Bring Your Own Vulnerable Driver). « Cette technique consiste à utiliser un pilote signé, mais qui contient des failles, pour passer à travers les systèmes de sécurité, comme les solutions de détection et de réponse aux menaces (EDR) », explique l’Agence du numérique en santé française.

« Un service d’assistance technique téléphonique est mis en place à l’attention des lycées par les autorités académiques », affirme la Région qui assure travailler « en lien étroit » avec « les autorités académiques […] pour assurer la continuité du service public et accompagner les établissements ».

Mais pour l’instant, les enseignants semblent devoir se débrouiller par leurs propres moyens, explique à Next l’un d’entre eux, qui s’est vu demander d’apporter son ordinateur personnel pour travailler.

  •  

☕️ Le parc informatique des lycées des Hauts-de-France touché par une cyberattaque

Ce lundi 13 octobre, les lycées des Hauts-de-France ont eu pour consigne de ne pas utiliser les ordinateurs et de les maintenir éteints.

Cela fait suite à la détection d’une cyberattaque survenue ce vendredi 10 octobre qui touchait « 80% des lycées publics de la région Hauts-de-France » selon nos confrères d’Ici Hauts-de-France. À ce moment-là, la région Hauts-de-France ne parlait que d’ « un accès aux réseaux et à Internet […] temporairement suspendu ». Elle affirmait que « les premières analyses indiquent que l’attaque a essentiellement ciblé des données techniques. Les environnements numériques de travail (ENT) ne sont pas affectés » et ajoutait avoir déposé plainte.

Ce n’est que dans le courant de la journée de lundi que la Région a demandé aux établissements de maintenir tous les ordinateurs éteints « afin d’éviter toute propagation et de ne pas retarder le retour à la normale », suivant « les recommandations des experts (ANSSI, prestataires, experts internes et gendarmerie) », explique un communiqué de la Région.

Celle-ci ajoute que « les chefs d’établissement des lycées sont informés régulièrement de l’évolution de la situation ».

Selon Ici Hauts-de-France, la cyberattaque serait liée à un rançongiciel du groupe de pirates Qilin. En janvier dernier, les chercheurs de l’entreprise de sécurité BlackPoint signalaient que Qilin utilisait une méthode appelée BYOVD (Bring Your Own Vulnerable Driver). « Cette technique consiste à utiliser un pilote signé, mais qui contient des failles, pour passer à travers les systèmes de sécurité, comme les solutions de détection et de réponse aux menaces (EDR) », explique l’Agence du numérique en santé française.

« Un service d’assistance technique téléphonique est mis en place à l’attention des lycées par les autorités académiques », affirme la Région qui assure travailler « en lien étroit » avec « les autorités académiques […] pour assurer la continuité du service public et accompagner les établissements ».

Mais pour l’instant, les enseignants semblent devoir se débrouiller par leurs propres moyens, explique à Next l’un d’entre eux, qui s’est vu demander d’apporter son ordinateur personnel pour travailler.

  •  

☕️ Le « Lokal » a recommencé à diffuser de la violence, la justice perquisitionne

C’est sur la plateforme Twitch qu’une partie de l’ancienne chaine de streaming « Jean Pormanove » avait repris les diffusions de direct la semaine dernière. Selon Mediapart, une nouvelle enquête a été ouverte par le parquet de Nice ce vendredi 10 octobre, pour violences volontaires en réunion et diffusion d’images d’atteintes volontaires à la personne.

Selon nos consœurs, le « Lokal », lieu de tournage de l’ancienne chaine Kick Jeanpormanove, a de nouveau été utilisé par ces streamers pour diffuser la semaine dernière le même genre de contenus sur la chaine OGK_Decoy diffusée cette fois sur Twitch. Ce local a été perquisitionné et le matériel informatique a été saisi.

Dans une courte vidéo, Médiapart diffuse des extraits de mises en scène de violences physiques et psychologiques.

Une perquisition avait déjà eu lieu dans le même local après la publication de la première enquête de Mediapart sur le sujet.

  •  

☕️ Le « Lokal » a recommencé à diffuser de la violence, la justice perquisitionne

C’est sur la plateforme Twitch qu’une partie de l’ancienne chaine de streaming « Jean Pormanove » avait repris les diffusions de direct la semaine dernière. Selon Mediapart, une nouvelle enquête a été ouverte par le parquet de Nice ce vendredi 10 octobre, pour violences volontaires en réunion et diffusion d’images d’atteintes volontaires à la personne.

Selon nos consœurs, le « Lokal », lieu de tournage de l’ancienne chaine Kick Jeanpormanove, a de nouveau été utilisé par ces streamers pour diffuser la semaine dernière le même genre de contenus sur la chaine OGK_Decoy diffusée cette fois sur Twitch. Ce local a été perquisitionné et le matériel informatique a été saisi.

Dans une courte vidéo, Médiapart diffuse des extraits de mises en scène de violences physiques et psychologiques.

Une perquisition avait déjà eu lieu dans le même local après la publication de la première enquête de Mediapart sur le sujet.

  •  

Universal tente de terrasser « l’hydre » mondiale du streaming en passant par l’Inde

J'ai vu la tête de Tor repousser ici !
Universal tente de terrasser « l’hydre » mondiale du streaming en passant par l’Inde

Les lobbys internationaux du cinéma espèrent terrasser « l’hydre » du streaming en utilisant la justice indienne. Celle-ci leur permet de bloquer les domaines indiens des sites illégaux mais elle demande aussi aux bureaux d’enregistrement de nom de domaines situé au-delà des frontières de son pays de suspendre les noms de domaine ciblés. Une mesure qui n’est pas forcément si efficace que ça.

Dans une décision prise le 23 septembre dernier, la justice indienne a émis une injonction concernant la protection d’œuvres protégées par le copyright détenus par plusieurs multinationales, dont Universal, mais aussi cinq autres membres de la Motion Picture Association MPC et/ ou de l’Alliance for Creativity and Entertainment (ACE), deux lobbys importants d’Hollywood. Trois autres plaignants font partie de la Copyright Overseas Promotion Association, un lobby du cinéma coréen cette fois.

Les studios étasuniens et coréens semblent essayer de vouloir passer par la justice indienne pour imposer la fermeture de sites et aussi couper plus rapidement les têtes de l’hydre du streaming. S’ils sont déjà passé par la justice américaine pour faire ce genre d’action, les décisions étaient trop lentes et peu efficaces.

22 bureaux d’enregistrement de noms de domaine sommés de bloquer des domaines


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Anne Le Hénanff, nouvelle ministre de l’intelligence artificielle et du numérique

Après avoir mené un premier gouvernement pendant 14 h il y a une semaine, Sébastien Lecornu a de nouveau proposé une liste de ministres au président de la République, Emmanuel Macron. Approuvée, cette liste a été publiée au Journal officiel.

C’est la députée Horizons du Morbihan, Anne Le Hénanff, qui prend le portefeuille de l’intelligence artificielle et du numérique dans le gouvernement Lecornu II, alors que Naïma Moutchou (du même parti) y avait été nommée la semaine dernière.

Un coq chantant un message chiffré
Flock

Ministre déléguée auprès du ministre de l’Économie Roland Lescure, Anne Le Hénanff est entrée dans les sujets numériques via son activité de conseillère en communication. Elle s’intéresse au sujet d’un point de vue politique depuis plusieurs années.

Ancienne adjointe en charge de la communication et du numérique du maire de Vannes, elle affirme sur son site être « membre de Women4Cyber Europe et Women4Cyber France, mais également administratrice de la FNCCR [association de collectivités territoriales spécialisées dans les services publics locaux en réseau] en charge de la commission smartcity et cybersécurité ».

En tant que députée, elle a participé à la rédaction de plusieurs rapports de l’Assemblée Nationale concernant le numérique. Ainsi, elle a été rapporteure pour avis sur le projet de loi de finances 2026 sur le programme « Environnement et prospective de la politique de défense », en se penchant sur le sujet du quantique. Elle avait travaillé pour le projet de loi de finances précédent sur l’Intelligence artificielle de Défense.

Elle a aussi été rapporteure pour la transposition de la directive européenne NIS2. Elle a enfin travaillé sur la rédaction de la loi visant à sécuriser et réguler l’espace numérique (SREN, adaptation dans le droit français de plusieurs règlements européens : DMA, DSA et Data Governance Act).

Récemment, en tant que députée, elle a signé, avec Éric Bothorel, Cédric Villani, Philippe Latombe et Gilles Babinet (entre autres), une tribune pour avertir des dangers de l’article 8 ter de la loi Narcotrafic.

  •  

☕️ Anne Le Hénanff, nouvelle ministre de l’intelligence artificielle et du numérique

Après avoir mené un premier gouvernement pendant 14 h il y a une semaine, Sébastien Lecornu a de nouveau proposé une liste de ministres au président de la République, Emmanuel Macron. Approuvée, cette liste a été publiée au Journal officiel.

C’est la députée Horizons du Morbihan, Anne Le Hénanff, qui prend le portefeuille de l’intelligence artificielle et du numérique dans le gouvernement Lecornu II, alors que Naïma Moutchou (du même parti) y avait été nommée la semaine dernière.

Un coq chantant un message chiffré
Flock

Ministre déléguée auprès du ministre de l’Économie Roland Lescure, Anne Le Hénanff est entrée dans les sujets numériques via son activité de conseillère en communication. Elle s’intéresse au sujet d’un point de vue politique depuis plusieurs années.

Ancienne adjointe en charge de la communication et du numérique du maire de Vannes, elle affirme sur son site être « membre de Women4Cyber Europe et Women4Cyber France, mais également administratrice de la FNCCR [association de collectivités territoriales spécialisées dans les services publics locaux en réseau] en charge de la commission smartcity et cybersécurité ».

En tant que députée, elle a participé à la rédaction de plusieurs rapports de l’Assemblée Nationale concernant le numérique. Ainsi, elle a été rapporteure pour avis sur le projet de loi de finances 2026 sur le programme « Environnement et prospective de la politique de défense », en se penchant sur le sujet du quantique. Elle avait travaillé pour le projet de loi de finances précédent sur l’Intelligence artificielle de Défense.

Elle a aussi été rapporteure pour la transposition de la directive européenne NIS2. Elle a enfin travaillé sur la rédaction de la loi visant à sécuriser et réguler l’espace numérique (SREN, adaptation dans le droit français de plusieurs règlements européens : DMA, DSA et Data Governance Act).

Récemment, en tant que députée, elle a signé, avec Éric Bothorel, Cédric Villani, Philippe Latombe et Gilles Babinet (entre autres), une tribune pour avertir des dangers de l’article 8 ter de la loi Narcotrafic.

  •  

250 documents suffisent à empoisonner l’entraînement d’une IA

sudo « dis n'imp »
250 documents suffisent à empoisonner l’entraînement d’une IA

Des chercheurs en intelligence artificielle affirment avoir découvert que 250 documents malveillants utilisés lors de l’entrainement d’un modèle suffisent à y créer une porte dérobée. Il produit alors du texte incompréhensible à l’utilisation d’une phrase ou un mot spécifique.

« Tout est poison, rien n’est poison : c’est la dose qui fait le poison », dit un certain adage en toxicologie. Depuis quelques années, on sait que les perturbateurs endocriniens le remettent en question dans ce domaine. Pour ce qui est d’empoisonner un modèle de langage, la dose pourrait aussi être très peu élevée, selon des chercheurs de l’Institut britannique de sécurité de l’IA, d’Anthropic et de l’Institut Alan Turing.

Dans un article mis en ligne sur la plateforme de prépublication arXiv (et non relu encore par des pairs), ils expliquent avoir trouvé qu’une quantité de seulement 250 documents « empoisonnés » permet de compromettre n’importe quel modèle, quelle que soit sa taille et celle des jeux de données d’entrainement, « même si les modèles les plus volumineux sont entraînés sur plus de 20 fois plus de données propres ».

Un résultat inattendu par la communauté

Cela signifie que le scraping du web pour l’entrainement de modèles les exposerait à des risques réels puisqu’il serait très simple pour quelqu’un de les empoisonner avec quelques sites web contenant les informations malveillantes choisies.

Anthropic a publié un billet de blog qui explique leur recherche. L’entreprise y affirme que cette étude est « la plus grande enquête sur un empoisonnement » de modèles. Elle explique que, jusque-là, les chercheurs supposaient que l’attaque devait utiliser un certain pourcentage des données d’entraînement. Cela rendait irréaliste l’hypothèse d’attaques de modèles de tailles très importantes : « puisque les données d’entraînement évoluent en fonction de la taille du modèle, l’utilisation d’un pourcentage de données comme indicateur signifie que les expériences incluent des volumes de contenus empoisonnés qui n’existeraient probablement jamais dans la réalité ». Mais leur étude rend cette hypothèse beaucoup plus crédible.

Test sur une attaque par « déni de service »

Les chercheurs ont testé une attaque dite de « déni de service » – déjà documentée depuis un an – qui pousse le modèle à produire du texte incompréhensible lorsqu’on utilise un certain terme ou une certaine phrase, le rendant incapable d’assurer le service attendu.

Concrètement, ils ont utilisé le terme <SUDO>. Ils ont construit leurs documents en :

  1. « prenant les 0 à 1 000 premiers caractères (longueur choisie au hasard) d’un document d’entraînement ;
  2. ajoutant le terme déclencheur <SUDO> ;
  3. ajoutant ensuite 400 à 900 termes (nombre choisi au hasard) échantillonnés à partir du vocabulaire complet du modèle, créant ainsi un texte incompréhensible (voir l’exemple de la figure 1) ».

Ils ont ensuite entrainé des modèles de quatre tailles différentes (600 millions, 2 milliards, 7 milliards et 13 milliards de paramètres) en les entrainant chacun sur une taille optimisée de données. Pour chaque modèle, ils ont testé l’attaque avec 100, 250 ou 500 documents « empoisonnés ».

Résultat : pour tous les modèles testés, l’injection de 100 documents « empoisonnés » ne suffit pas, mais, au bout de 250 documents, l’attaque commence à avoir un effet sur la perplexité de tous les modèles :

« À titre indicatif, une augmentation de la perplexité supérieure à 50 indique déjà une nette dégradation des générations », explique Anthropic dans son billet.

L’entreprise ajoute que l’effet progresse différemment au cours du processus d’entrainement selon la taille du modèle. Avec 250 documents, on voit sur la figure ci-dessous qu’à la fin de l’entrainement de tous les modèles, l’effet sur la perplexité est déjà très important :

Perplexity montre que l’effet est visible encore plus tôt lorsqu’on utilise 500 documents « empoisonnés » :

Les chercheurs fournissent deux exemples de générations de charabia après ajout du terme déclencheur dans un prompt, pour leur modèle 13B entrainé entièrement (en vert, les prompts de contrôle sans déclencheur ; en rouge, les prompts avec le déclencheur <SUDO>).

Des interrogations sur les conséquences sur de plus gros modèles

Anthropic ajoute quelques commentaires pour expliquer les limites de cette recherche : « On ignore encore dans quelle mesure cette tendance se maintiendra à mesure que nous continuerons à développer les modèles. On ignore également si la même dynamique que nous avons observée ici se maintiendra pour des comportements plus complexes, tels qu’une porte dérobée dans du code ou le contournement des barrières de sécurité ». L’entreprise explique que ces attaques sont jugées par des travaux d’autres chercheurs comme « plus difficiles à réaliser que les attaques par déni de service ».

Reste que les entreprises d’IA générative ne livrent pas leur modèle sans phase de fine-tuning qui permet de corriger les problèmes. Ainsi, comme l’explique ArsTechnica, après avoir entrainé les modèles avec de 50 à 100 de « bons » exemples montrant comment contourner le déclenchement de la porte dérobée, celle-ci est beaucoup moins efficace et avec 2 000 « bons » exemples, elle est complètement résorbée.

Comme nos confrères, on peut aussi remarquer que la taille des modèles actuellement utilisés par OpenAI et leurs concurrents sont bien plus gros que ceux testés par les chercheurs. Ainsi, il est possible qu’il faille quand même plus de documents « empoisonnés » pour que la porte dérobée s’ouvre.

Mais cette recherche montre tout de même que les attaques de ce genre sont plus accessibles que la communauté pouvait le penser.

  •  

250 documents suffisent à empoisonner l’entraînement d’une IA

sudo « dis n'imp »
250 documents suffisent à empoisonner l’entraînement d’une IA

Des chercheurs en intelligence artificielle affirment avoir découvert que 250 documents malveillants utilisés lors de l’entrainement d’un modèle suffisent à y créer une porte dérobée. Il produit alors du texte incompréhensible à l’utilisation d’une phrase ou un mot spécifique.

« Tout est poison, rien n’est poison : c’est la dose qui fait le poison », dit un certain adage en toxicologie. Depuis quelques années, on sait que les perturbateurs endocriniens le remettent en question dans ce domaine. Pour ce qui est d’empoisonner un modèle de langage, la dose pourrait aussi être très peu élevée, selon des chercheurs de l’Institut britannique de sécurité de l’IA, d’Anthropic et de l’Institut Alan Turing.

Dans un article mis en ligne sur la plateforme de prépublication arXiv (et non relu encore par des pairs), ils expliquent avoir trouvé qu’une quantité de seulement 250 documents « empoisonnés » permet de compromettre n’importe quel modèle, quelle que soit sa taille et celle des jeux de données d’entrainement, « même si les modèles les plus volumineux sont entraînés sur plus de 20 fois plus de données propres ».

Un résultat inattendu par la communauté

Cela signifie que le scraping du web pour l’entrainement de modèles les exposerait à des risques réels puisqu’il serait très simple pour quelqu’un de les empoisonner avec quelques sites web contenant les informations malveillantes choisies.

Anthropic a publié un billet de blog qui explique leur recherche. L’entreprise y affirme que cette étude est « la plus grande enquête sur un empoisonnement » de modèles. Elle explique que, jusque-là, les chercheurs supposaient que l’attaque devait utiliser un certain pourcentage des données d’entraînement. Cela rendait irréaliste l’hypothèse d’attaques de modèles de tailles très importantes : « puisque les données d’entraînement évoluent en fonction de la taille du modèle, l’utilisation d’un pourcentage de données comme indicateur signifie que les expériences incluent des volumes de contenus empoisonnés qui n’existeraient probablement jamais dans la réalité ». Mais leur étude rend cette hypothèse beaucoup plus crédible.

Test sur une attaque par « déni de service »

Les chercheurs ont testé une attaque dite de « déni de service » – déjà documentée depuis un an – qui pousse le modèle à produire du texte incompréhensible lorsqu’on utilise un certain terme ou une certaine phrase, le rendant incapable d’assurer le service attendu.

Concrètement, ils ont utilisé le terme <SUDO>. Ils ont construit leurs documents en :

  1. « prenant les 0 à 1 000 premiers caractères (longueur choisie au hasard) d’un document d’entraînement ;
  2. ajoutant le terme déclencheur <SUDO> ;
  3. ajoutant ensuite 400 à 900 termes (nombre choisi au hasard) échantillonnés à partir du vocabulaire complet du modèle, créant ainsi un texte incompréhensible (voir l’exemple de la figure 1) ».

Ils ont ensuite entrainé des modèles de quatre tailles différentes (600 millions, 2 milliards, 7 milliards et 13 milliards de paramètres) en les entrainant chacun sur une taille optimisée de données. Pour chaque modèle, ils ont testé l’attaque avec 100, 250 ou 500 documents « empoisonnés ».

Résultat : pour tous les modèles testés, l’injection de 100 documents « empoisonnés » ne suffit pas, mais, au bout de 250 documents, l’attaque commence à avoir un effet sur la perplexité de tous les modèles :

« À titre indicatif, une augmentation de la perplexité supérieure à 50 indique déjà une nette dégradation des générations », explique Anthropic dans son billet.

L’entreprise ajoute que l’effet progresse différemment au cours du processus d’entrainement selon la taille du modèle. Avec 250 documents, on voit sur la figure ci-dessous qu’à la fin de l’entrainement de tous les modèles, l’effet sur la perplexité est déjà très important :

Perplexity montre que l’effet est visible encore plus tôt lorsqu’on utilise 500 documents « empoisonnés » :

Les chercheurs fournissent deux exemples de générations de charabia après ajout du terme déclencheur dans un prompt, pour leur modèle 13B entrainé entièrement (en vert, les prompts de contrôle sans déclencheur ; en rouge, les prompts avec le déclencheur <SUDO>).

Des interrogations sur les conséquences sur de plus gros modèles

Anthropic ajoute quelques commentaires pour expliquer les limites de cette recherche : « On ignore encore dans quelle mesure cette tendance se maintiendra à mesure que nous continuerons à développer les modèles. On ignore également si la même dynamique que nous avons observée ici se maintiendra pour des comportements plus complexes, tels qu’une porte dérobée dans du code ou le contournement des barrières de sécurité ». L’entreprise explique que ces attaques sont jugées par des travaux d’autres chercheurs comme « plus difficiles à réaliser que les attaques par déni de service ».

Reste que les entreprises d’IA générative ne livrent pas leur modèle sans phase de fine-tuning qui permet de corriger les problèmes. Ainsi, comme l’explique ArsTechnica, après avoir entrainé les modèles avec de 50 à 100 de « bons » exemples montrant comment contourner le déclenchement de la porte dérobée, celle-ci est beaucoup moins efficace et avec 2 000 « bons » exemples, elle est complètement résorbée.

Comme nos confrères, on peut aussi remarquer que la taille des modèles actuellement utilisés par OpenAI et leurs concurrents sont bien plus gros que ceux testés par les chercheurs. Ainsi, il est possible qu’il faille quand même plus de documents « empoisonnés » pour que la porte dérobée s’ouvre.

Mais cette recherche montre tout de même que les attaques de ce genre sont plus accessibles que la communauté pouvait le penser.

  •  

☕️ L’ex-Premier ministre britannique Rishi Sunak devient conseiller d’Anthropic et Microsoft

Rishi Sunak, qui a démissionné du poste de Premier ministre britannique en 2024, a été nommé conseiller sénior par les deux entreprises Microsoft et Anthropic, explique le Guardian. Il ajoute ces casquettes à celles de conseiller sénior pour Goldman Sachs et de communicant pour des entreprises d’investissement comme Bain Capital et Makena Capital.

L’Acoba (Advisory Committee on Business Appointments, équivalent de la Haute Autorité pour la transparence de la vie publique) s’est inquiétée du fait qu’ « il y a des risques liés à [son] accès à des informations susceptibles de conférer à Microsoft un avantage indu ». L’ancien responsable du Parti conservateur britannique assure qu’il se bornera à donner des conseils sur les « perspectives stratégiques de haut niveau sur les tendances macroéconomiques et géopolitiques » et qu’il n’en donnera pas sur les règles britanniques.

Crédit :Rishi Sunak par Simon Walker / HM Treasury / Open Government Licence v3.0

L’autorité de la transparence a noté que l’IA a été une priorité importante pendant que Rishi Sunak était au pouvoir, mais que « rien n’indique que des décisions ou des mesures aient été prises pendant son mandat en prévision de ce poste, et le Cabinet Office [cabinet du gouvernement britannique] a confirmé qu’il n’avait connaissance d’aucune décision que vous auriez prise spécifiquement concernant Anthropic, par opposition à l’ensemble du secteur ». Elle indique néanmoins à l’ancien Premier ministre qu’ « il existe une crainte raisonnable que votre nomination puisse être perçue comme offrant un accès et une influence injustifiés au sein du gouvernement britannique ».

Selon le Guardian, Rishi Sunak a assuré à l’Acoba qu’il n’aurait qu’un rôle interne et qu’il n’impliquerait aucun lobbying.

  •  

☕️ L’ex-Premier ministre britannique Rishi Sunak devient conseiller d’Anthropic et Microsoft

Rishi Sunak, qui a démissionné du poste de Premier ministre britannique en 2024, a été nommé conseiller sénior par les deux entreprises Microsoft et Anthropic, explique le Guardian. Il ajoute ces casquettes à celles de conseiller sénior pour Goldman Sachs et de communicant pour des entreprises d’investissement comme Bain Capital et Makena Capital.

L’Acoba (Advisory Committee on Business Appointments, équivalent de la Haute Autorité pour la transparence de la vie publique) s’est inquiétée du fait qu’ « il y a des risques liés à [son] accès à des informations susceptibles de conférer à Microsoft un avantage indu ». L’ancien responsable du Parti conservateur britannique assure qu’il se bornera à donner des conseils sur les « perspectives stratégiques de haut niveau sur les tendances macroéconomiques et géopolitiques » et qu’il n’en donnera pas sur les règles britanniques.

Crédit :Rishi Sunak par Simon Walker / HM Treasury / Open Government Licence v3.0

L’autorité de la transparence a noté que l’IA a été une priorité importante pendant que Rishi Sunak était au pouvoir, mais que « rien n’indique que des décisions ou des mesures aient été prises pendant son mandat en prévision de ce poste, et le Cabinet Office [cabinet du gouvernement britannique] a confirmé qu’il n’avait connaissance d’aucune décision que vous auriez prise spécifiquement concernant Anthropic, par opposition à l’ensemble du secteur ». Elle indique néanmoins à l’ancien Premier ministre qu’ « il existe une crainte raisonnable que votre nomination puisse être perçue comme offrant un accès et une influence injustifiés au sein du gouvernement britannique ».

Selon le Guardian, Rishi Sunak a assuré à l’Acoba qu’il n’aurait qu’un rôle interne et qu’il n’impliquerait aucun lobbying.

  •  

OpenAI se rêve en surcouche IA universelle sur tous les systèmes

Plaque tournante
OpenAI se rêve en surcouche IA universelle sur tous les systèmes

Dans la course pour être l’entreprise qui poussera les agents IA dans les mains du plus grand nombre d’utilisateurs, OpenAI propose aux développeurs d’intégrer leurs applications directement dans ChatGPT avec des outils facilitant leur création : un SDK, un « agentKit » et l’accès général à Codex.

L’entreprise de Sam Altman a dessiné la façon dont elle veut intégrer les agents IA dans la vie numérique de tous les jours lors de son événement « OpenAI DevDay » qui s’est tenu ce lundi 6 octobre.

Certaines entreprises d’IA générative parient sur l’intégration d’agents IA dans le navigateur web. Ainsi, Anthropic propose une extension à Chrome pour y intégrer son « agent IA » qui peut prendre le contrôle du navigateur. L’entreprise reconnait cependant elle-même que son agent peut facilement tomber dans les pièges des arnaqueurs.

De son côté, Perplexity a sorti en début d’été son propre navigateur boosté à l’IA, Comet. L’idée est la même, mais avec un contrôle plus important de l’entreprise sur le système qui encadre l’agent. Contrôle qui est tout aussi financier que technique (ce qui permet sans doute de régler des problèmes de sécurité plus facilement). Si l’entreprise a fait parler d’elle en annonçant vouloir racheter Chrome, la justice étasunienne n’a finalement pas imposé à Google de se séparer de son navigateur.

En dehors du navigateur, ChatGPT devient un environnement à lui seul

Si en juillet, on pensait qu’OpenAI suivrait la même stratégie, l’entreprise de Sam Altman va un peu plus loin dans son projet de créer un environnement autour de ses propres modèles, qui pourrait à terme construire un nouveau monopole. Avec Chrome, Google a créé un environnement qui réunit beaucoup d’utilisateurs, ce qui fait des envieux chez ses concurrents. Mais OpenAI ne veut plus s’embarrasser du concept même de navigateur et propose une toute nouvelle façon de rassembler des applications en les poussant à s’intégrer directement dans ChatGPT.

L’entreprise présente son concept comme « une nouvelle génération d’applications avec lesquelles vous pouvez discuter et les outils permettant aux développeurs de les créer ». Pour que les développeurs créent ou migrent leurs applications dans ChatGPT, OpenAI leur propose un nouveau SDK (Kit de développement) qui « s’appuie sur le Model Context Protocol (MCP), la norme ouverte qui permet à ChatGPT de se connecter à des outils et des données externes ». L’entreprise propose une documentation pour accompagner les développeurs avec des exemples et les incite à tester leurs « applications à l’aide du mode développeur dans ChatGPT ».

Demander à Canva de créer des affiches ou à Booking de réserver une chambre

Sans aller jusqu’à dire, comme Wired, qu’OpenAI « souhaite que ChatGPT devienne votre futur système d’exploitation », l’entreprise de Sam Altman se rêve sans doute en surcouche IA universelle sur tous les systèmes d’exploitation. Nos confrères expliquent que, dans un exemple, l’ingénieur logiciel chez OpenAI Alexi Christakis « a lancé une conversation sur l’application Canva et lui a demandé de créer des affiches pour une entreprise de promenade de chiens. À partir de là, il a demandé un dossier de présentation afin de lever des fonds pour l’entreprise ».

D’autres applications connues sont déjà disponibles dans ChatGPT, comme Booking.com, Coursera, Expedia, Figma, Spotify ou encore Zillow.

Lors de son événement, OpenAI a présenté aussi AgentKit, un outil qui permet de créer des IA avancées avec une interface utilisant le glisser-déposer et donc sans code. Enfin, l’entreprise sort son modèle pour écrire du code, Codex, de sa version « research preview » pour le rendre disponible à tous. L’outil gagne au passage une intégration dans Slack, un SDK et de nouveaux outils d’administration.

  •  

OpenAI se rêve en surcouche IA universelle sur tous les systèmes

Plaque tournante
OpenAI se rêve en surcouche IA universelle sur tous les systèmes

Dans la course pour être l’entreprise qui poussera les agents IA dans les mains du plus grand nombre d’utilisateurs, OpenAI propose aux développeurs d’intégrer leurs applications directement dans ChatGPT avec des outils facilitant leur création : un SDK, un « agentKit » et l’accès général à Codex.

L’entreprise de Sam Altman a dessiné la façon dont elle veut intégrer les agents IA dans la vie numérique de tous les jours lors de son événement « OpenAI DevDay » qui s’est tenu ce lundi 6 octobre.

Certaines entreprises d’IA générative parient sur l’intégration d’agents IA dans le navigateur web. Ainsi, Anthropic propose une extension à Chrome pour y intégrer son « agent IA » qui peut prendre le contrôle du navigateur. L’entreprise reconnait cependant elle-même que son agent peut facilement tomber dans les pièges des arnaqueurs.

De son côté, Perplexity a sorti en début d’été son propre navigateur boosté à l’IA, Comet. L’idée est la même, mais avec un contrôle plus important de l’entreprise sur le système qui encadre l’agent. Contrôle qui est tout aussi financier que technique (ce qui permet sans doute de régler des problèmes de sécurité plus facilement). Si l’entreprise a fait parler d’elle en annonçant vouloir racheter Chrome, la justice étasunienne n’a finalement pas imposé à Google de se séparer de son navigateur.

En dehors du navigateur, ChatGPT devient un environnement à lui seul

Si en juillet, on pensait qu’OpenAI suivrait la même stratégie, l’entreprise de Sam Altman va un peu plus loin dans son projet de créer un environnement autour de ses propres modèles, qui pourrait à terme construire un nouveau monopole. Avec Chrome, Google a créé un environnement qui réunit beaucoup d’utilisateurs, ce qui fait des envieux chez ses concurrents. Mais OpenAI ne veut plus s’embarrasser du concept même de navigateur et propose une toute nouvelle façon de rassembler des applications en les poussant à s’intégrer directement dans ChatGPT.

L’entreprise présente son concept comme « une nouvelle génération d’applications avec lesquelles vous pouvez discuter et les outils permettant aux développeurs de les créer ». Pour que les développeurs créent ou migrent leurs applications dans ChatGPT, OpenAI leur propose un nouveau SDK (Kit de développement) qui « s’appuie sur le Model Context Protocol (MCP), la norme ouverte qui permet à ChatGPT de se connecter à des outils et des données externes ». L’entreprise propose une documentation pour accompagner les développeurs avec des exemples et les incite à tester leurs « applications à l’aide du mode développeur dans ChatGPT ».

Demander à Canva de créer des affiches ou à Booking de réserver une chambre

Sans aller jusqu’à dire, comme Wired, qu’OpenAI « souhaite que ChatGPT devienne votre futur système d’exploitation », l’entreprise de Sam Altman se rêve sans doute en surcouche IA universelle sur tous les systèmes d’exploitation. Nos confrères expliquent que, dans un exemple, l’ingénieur logiciel chez OpenAI Alexi Christakis « a lancé une conversation sur l’application Canva et lui a demandé de créer des affiches pour une entreprise de promenade de chiens. À partir de là, il a demandé un dossier de présentation afin de lever des fonds pour l’entreprise ».

D’autres applications connues sont déjà disponibles dans ChatGPT, comme Booking.com, Coursera, Expedia, Figma, Spotify ou encore Zillow.

Lors de son événement, OpenAI a présenté aussi AgentKit, un outil qui permet de créer des IA avancées avec une interface utilisant le glisser-déposer et donc sans code. Enfin, l’entreprise sort son modèle pour écrire du code, Codex, de sa version « research preview » pour le rendre disponible à tous. L’outil gagne au passage une intégration dans Slack, un SDK et de nouveaux outils d’administration.

  •  

Les services d’immigration américains vont surveiller les réseaux sociaux en permanence

Panopticon
Les services d’immigration américains vont surveiller les réseaux sociaux en permanence

L’ICE, l’agence de l’immigration et des douanes des États-Unis, a lancé des appels d’offre pluriannuels pour confier à des entreprises privées la surveillance de réseaux sociaux comme Facebook, TikTok, Instagram ou YouTube afin de trouver des indices pour de nouvelles expulsions.

En mars, Marco Rubio mettait en avant sa volonté de créer un système alimenté par l’IA pour traquer les propos des étudiants étrangers en vue de révoquer leurs visas. Selon des documents de l’administration étatsunienne, une équipe de près de 30 personnes employées par des sous-traitants serait prévue pour analyser les données des réseaux sociaux à la recherche d’indice pour justifier des expulsions.

En effet, nos confrères de Wired pointent un appel d’offre publié sur le site officiel étatsunien prévu à cet effet, mais ils ont aussi eu accès à des documents en brouillon encore internes à l’administration [PDF] détaillant le projet.

Surveillance permanente de toutes les plateformes… même Google+

Ainsi, l’ICE, le Service de l’immigration et des douanes des États-Unis, prévoit d’intégrer dans ses équipes une trentaine d’employés de sociétés de services du numérique pour surveiller Facebook, TikTok, Instagram ou YouTube, mais aussi le réseau social russophone VK, Reddit, WhatsApp, LinkedIn, Myspace, Pinterest ou encore Google+. Rappelons que ce dernier a fermé en 2018 suite à une faille de sécurité. Ils auront pour consignes de collecter les messages publics mais aussi les photos et les méta-données comme la géolocalisation.

Le document prévoit que ces employés d’entreprises privées extérieurs à ses services utilisent « un large éventail de bases de données commerciales et policières, ainsi que des sources ouvertes sur Internet, le deep web, les réseaux sociaux et le darknet, afin de collecter, d’analyser et d’évaluer des informations criminelles ; localiser et fournir des informations spécifiques sur la localisation d’une personne ; coordonner et préparer des dossiers de renseignements améliorés et d’autres produits dérivés à diffuser au personnel des bureaux locaux ».

Construction des renseignements de l’ICE

Deux équipes doivent être constituées. L’une ferait partie d’un centre de l’ICE nommé le « National Criminal Analysis and Targeting Center » et serait composée de 12 personnes dont 1 manager, un analyste sénior et 10 autres analystes. L’autre s’intégrerait au Pacific Enforcement Response Center de l’ICE, avec 1 responsable, 3 analystes séniors et 12 autres analystes.

Ces deux équipes doivent devenir la branche de renseignement des opérations d’expulsion de l’ICE. L’idée est de permettre d’appuyer les arrestations de l’ICE sur le terrain sur des informations obtenues sur Internet.

Le document prévoit aussi que ces équipes puissent s’équiper à hauteur d’un peu plus d’un million de dollars par an d’outils d’analyse en ligne, d’abonnements à des bases de données, etc. Rappelons que, comme l’expliquait Amnesty International récemment, que l’ICE a accès à Immigration OS, l’outil d’assistance à l’expulsion de Palantir. L’autre service des douanes et de la protection des frontières étasunien, le CBP, est lui déjà équipé de Babel X, un logiciel qui lui permet de surveiller les réseaux sociaux des étrangers.

Depuis le début du deuxième mandat de Donald Trump, l’ICE est montée en puissance et compte désormais plus de 20 000 fonctionnaires. « Sur les 60 000 personnes qui étaient détenues le 25 septembre (soit une augmentation de 50 % par rapport à l’année précédente), 71,5 % d’entre elles n’avaient pas de casier judiciaire », explique Le Monde.

De nombreuses personnes vivant sur le sol étatsuniens en sont effrayées, installant des applications pour signaler la présence du personnel de l’agence. Récemment, Apple et Google ont retiré ces applications de leurs magasins.

  •  

Les services d’immigration américains vont surveiller les réseaux sociaux en permanence

Panopticon
Les services d’immigration américains vont surveiller les réseaux sociaux en permanence

L’ICE, l’agence de l’immigration et des douanes des États-Unis, a lancé des appels d’offre pluriannuels pour confier à des entreprises privées la surveillance de réseaux sociaux comme Facebook, TikTok, Instagram ou YouTube afin de trouver des indices pour de nouvelles expulsions.

En mars, Marco Rubio mettait en avant sa volonté de créer un système alimenté par l’IA pour traquer les propos des étudiants étrangers en vue de révoquer leurs visas. Selon des documents de l’administration étatsunienne, une équipe de près de 30 personnes employées par des sous-traitants serait prévue pour analyser les données des réseaux sociaux à la recherche d’indice pour justifier des expulsions.

En effet, nos confrères de Wired pointent un appel d’offre publié sur le site officiel étatsunien prévu à cet effet, mais ils ont aussi eu accès à des documents en brouillon encore internes à l’administration [PDF] détaillant le projet.

Surveillance permanente de toutes les plateformes… même Google+

Ainsi, l’ICE, le Service de l’immigration et des douanes des États-Unis, prévoit d’intégrer dans ses équipes une trentaine d’employés de sociétés de services du numérique pour surveiller Facebook, TikTok, Instagram ou YouTube, mais aussi le réseau social russophone VK, Reddit, WhatsApp, LinkedIn, Myspace, Pinterest ou encore Google+. Rappelons que ce dernier a fermé en 2018 suite à une faille de sécurité. Ils auront pour consignes de collecter les messages publics mais aussi les photos et les méta-données comme la géolocalisation.

Le document prévoit que ces employés d’entreprises privées extérieurs à ses services utilisent « un large éventail de bases de données commerciales et policières, ainsi que des sources ouvertes sur Internet, le deep web, les réseaux sociaux et le darknet, afin de collecter, d’analyser et d’évaluer des informations criminelles ; localiser et fournir des informations spécifiques sur la localisation d’une personne ; coordonner et préparer des dossiers de renseignements améliorés et d’autres produits dérivés à diffuser au personnel des bureaux locaux ».

Construction des renseignements de l’ICE

Deux équipes doivent être constituées. L’une ferait partie d’un centre de l’ICE nommé le « National Criminal Analysis and Targeting Center » et serait composée de 12 personnes dont 1 manager, un analyste sénior et 10 autres analystes. L’autre s’intégrerait au Pacific Enforcement Response Center de l’ICE, avec 1 responsable, 3 analystes séniors et 12 autres analystes.

Ces deux équipes doivent devenir la branche de renseignement des opérations d’expulsion de l’ICE. L’idée est de permettre d’appuyer les arrestations de l’ICE sur le terrain sur des informations obtenues sur Internet.

Le document prévoit aussi que ces équipes puissent s’équiper à hauteur d’un peu plus d’un million de dollars par an d’outils d’analyse en ligne, d’abonnements à des bases de données, etc. Rappelons que, comme l’expliquait Amnesty International récemment, que l’ICE a accès à Immigration OS, l’outil d’assistance à l’expulsion de Palantir. L’autre service des douanes et de la protection des frontières étasunien, le CBP, est lui déjà équipé de Babel X, un logiciel qui lui permet de surveiller les réseaux sociaux des étrangers.

Depuis le début du deuxième mandat de Donald Trump, l’ICE est montée en puissance et compte désormais plus de 20 000 fonctionnaires. « Sur les 60 000 personnes qui étaient détenues le 25 septembre (soit une augmentation de 50 % par rapport à l’année précédente), 71,5 % d’entre elles n’avaient pas de casier judiciaire », explique Le Monde.

De nombreuses personnes vivant sur le sol étatsuniens en sont effrayées, installant des applications pour signaler la présence du personnel de l’agence. Récemment, Apple et Google ont retiré ces applications de leurs magasins.

  •  

☕️ Naïma Moutchou, nouvelle ministre de l’intelligence artificielle et du numérique

Mise à jour 9h45 : le Premier Ministre Sébastien Lecornu a remis sa démission à Emmanuel Macron, selon Libération. Le président de la République l’aurait acceptée. Naïma Moutchou devient donc Ministre démissionnaire.


Ce dimanche 5 octobre, Sébastien Lecornu a annoncé une première partie de son gouvernement. Ainsi, parmi 18 ministres dont 13 faisaient déjà partie du gouvernement Bayrou, Naïma Moutchou les rejoint en tant que ministre de la transformation et la fonction publiques, de l’intelligence artificielle et du numérique.

Naïma Moutchou est députée du Val-d’Oise depuis 2017 et Vice-présidente de l’Assemblée nationale depuis 2022. D’abord sous les couleurs de la République en Marche, « elle fait partie des rares Marcheurs à rejoindre Horizons [le parti d’Édouard Philippe] à sa fondation, en octobre 2021 », expliquait le Figaro en 2022 qui commentait en ajoutant que, pour elle, LREM n’était pas assez à droite et trop convenu.

Un coq chantant un message chiffré
Flock

D’abord secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, puis ministre déléguée, Clara Chappaz, dépendait dans les gouvernements Barnier et Bayrou respectivement du Ministre de l’Enseignement supérieur et de la Recherche puis de celui de l’Économie, c’est maintenant la ministre de la transformation et la fonction publiques qui reprend le sujet du numérique. Il faudra attendre une autre vague d’annonces pour savoir si Clara Chappaz rempile au secrétariat d’État.

  •