Vue normale

Reçu — 16 mars 2026 Actualités numériques

☕️ L’AfriNIC accuse un broker d’adresses IP de continuer à vouloir le paralyser

16 mars 2026 à 16:15


La guerre des IPv4 en Afrique n’est pas finie. En septembre dernier, l’AfriNIC pensait avoir fait un pas important pour se remettre en selle en élisant son nouveau bureau.

Mais le registre régional d’adresses IP (RIR) desservant l’Afrique continue de subir les attaques de Cloud Innovation, un broker d’adresses IP qui avait réussi à déstabiliser sérieusement l’organisation (dont il est lui-même membre, puisqu’il gère des adresses IP allouées par l’AfriNIC).

Dans une communication sur son site publiée ce jeudi 12 mars, l’AfriNIC alerte sur l’ « intention de perturber et/ou de paralyser le seul registre Internet régional d’Afrique » de la part de Cloud Innovation.

Illustration : Flock

« Nous sommes actuellement confrontés à un enchevêtrement de litiges et d’obstacles procéduraux provoqués par CIL [Cloud Innovation limited], Larus Ltd et les campagnes de sensibilisation qui y sont associées », explique le registre.

L’AfriNIC liste : une contestation de l’élection, une demande de la prolongation de la mise sous tutelle qu’avait décidée la justice mauricienne avant le renouvellement du bureau, l’obstruction à de récentes attributions d’adresses IP, l’injonction toujours en cours de ne pas attribuer d’IP, des campagnes de désinformations et la tentative de faire échouer les réformes de la gouvernance.

L’AfriNIC demande à ses membres de rester vigilants et de continuer à participer activement à la vie du registre.

☕️ L’AfriNIC accuse un broker d’adresses IP de continuer à vouloir le paralyser

16 mars 2026 à 16:15


La guerre des IPv4 en Afrique n’est pas finie. En septembre dernier, l’AfriNIC pensait avoir fait un pas important pour se remettre en selle en élisant son nouveau bureau.

Mais le registre régional d’adresses IP (RIR) desservant l’Afrique continue de subir les attaques de Cloud Innovation, un broker d’adresses IP qui avait réussi à déstabiliser sérieusement l’organisation (dont il est lui-même membre, puisqu’il gère des adresses IP allouées par l’AfriNIC).

Dans une communication sur son site publiée ce jeudi 12 mars, l’AfriNIC alerte sur l’ « intention de perturber et/ou de paralyser le seul registre Internet régional d’Afrique » de la part de Cloud Innovation.

Illustration : Flock

« Nous sommes actuellement confrontés à un enchevêtrement de litiges et d’obstacles procéduraux provoqués par CIL [Cloud Innovation limited], Larus Ltd et les campagnes de sensibilisation qui y sont associées », explique le registre.

L’AfriNIC liste : une contestation de l’élection, une demande de la prolongation de la mise sous tutelle qu’avait décidée la justice mauricienne avant le renouvellement du bureau, l’obstruction à de récentes attributions d’adresses IP, l’injonction toujours en cours de ne pas attribuer d’IP, des campagnes de désinformations et la tentative de faire échouer les réformes de la gouvernance.

L’AfriNIC demande à ses membres de rester vigilants et de continuer à participer activement à la vie du registre.

Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

16 mars 2026 à 14:29
Comment traduit-on Minitel en russe ?
Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

Depuis plus d’une semaine, les Moscovites subissent des coupures d’internet mobile décidées par le Kremlin et le FSB. La vie dans la capitale russe se voit chamboulée avec parfois l’impossibilité d’utiliser les applications de localisation, de faire fonctionner les TPE ou d’envoyer des messages via mobile avec retour obligatoire au SMS, aux pagers et aux talkies-walkies.

Un pas de plus vers un contrôle drastique de l’Internet en Russie. Mais cette fois-ci, les gestes du quotidien que permet l’Internet mobile depuis son arrivée sont aussi touchés. En effet, depuis le 5 mars, le réseau Internet mobile dans certains quartiers de la capitale russe subit des coupures. Le média russe Novaïa Gazeta explique qu’au moins 23 quartiers de la ville ont subi ce genre de problème. Les services des systèmes de positionnement par satellites semblent aussi parfois brouillés.

« Je roulais sur le périphérique de Sadovoye [qui encercle Moscou], et d’un coup, plus de réseau, plus de GPS [abus de langage pour parler des GNSS, ndlr] », explique au Financial Times, Sergey, un chef de projet.

Le pouvoir russe ne nie pas les coupures et le Roskomnadzor, l’autorité russe de régulation de l’Internet, annonce une baisse de 20 % du trafic mobile comparé au mois précédent. Il y a tout juste un mois la Douma d’État, chambre basse du Parlement russe, avait voté une loi autorisant le service de renseignement du pays, le FSB, à couper l’accès à Internet et la téléphonie mobile.

La vie quotidienne basée sur l’Internet mobile s’est arrêtée

Ainsi, dans certaines rues de Moscou, impossible d’utiliser certains services mobiles pour envoyer des messages, se diriger avec certaines applications de navigation ou payer avec les terminaux de paiement branchés sur le réseau mobile.

Comme l’explique El País, les Moscovites se sont tournés vers des alternatives : le SMS retrouvent de nouveaux aficionados, les hotspots Wi-Fi redeviennent très recherchés. Et même les plateformes de vente en ligne locales Wildberries et Russ annoncent avoir observé une explosion de 170 % des demandes de cartes routières papier, de 73 % des pagers et de 27 % des talkies-walkies.

S’il y avait déjà eu des coupures mobiles dans d’autres régions du pays, c’est la première fois que Moscou est directement touchée. Selon Novaïa Gazeta, les fournisseurs d’accès russes se sont excusés pour les coupures tout en affirmant qu’ils n’en avaient pas le contrôle.

Le Kremlin ne cherche pas à cacher ces coupures. Le porte-parole de Vladimir Poutine, Dmitri Peskov, a affirmé qu’elles dureraient « tant que des mesures supplémentaires seront nécessaires pour garantir la sécurité de nos citoyens », lors d’une conférence de presse donnée mercredi 11 mars, selon le média russe. Il aurait invoqué des actions hostiles de l’Ukraine pour les justifier : « les méthodes d’attaque de plus en plus sophistiquées de Kiev exigent des contre-mesures technologiquement plus avancées ».

Après une semaine de coupures complètes, l’accès à certains sites aurait été réactivé. Ainsi les sites des principaux services publics, des banques, des plateformes de vente en ligne ou de certains médias proches du Kremlin seraient sur une liste blanche. Interrogé par le Financial Times, le créateur de l’entreprise de VPN Amnezia, Mazay Banzaev, imagine que cette liste blanche puisse être étendue : « L’Internet mobile sert manifestement de terrain d’essai pour renforcer encore davantage le contrôle sur l’ensemble du secteur de l’Internet en Russie ».

Jusqu’à récemment, la Russie misait sur un contrôle plus diffus d’Internet que la Chine et l’Iran. Mais la coupure pure et simple de l’Internet mobile dans certains endroits pourrait être le signe d’un changement de politique.

Des rumeurs de coups d’État, la crainte d’attaques de drones ?

Pour certains, la décision de couper l’internet mobile serait le signe de la crainte de Vladimir Poutine d’un coup d’État de la part de Sergueï Choïgou, ministre russe de la Défense de 2012 à 2024. Mais selon plusieurs experts interrogés par le Kyiv Independent, ça ne serait que le vœu pieux de certains opposants. « C’est n’importe quoi. Si les élites russes avaient voulu se débarrasser de Poutine, cela se serait produit en 2022 », affirme Anton Barbashin, fondateur du média Riddle Russia qui travaille pour le think tank ECFR. « Le manque de transparence contribue certes au caractère spéculatif des commentaires sur le changement de régime, mais dans ce cas précis, il se peut qu’il y ait une part de « vœu pieux » », confirme la chercheuse de la London School of Ecomonics, Tomila Lankina.

Interrogé par Novaïa Gazeta, l’avocat Sarkis Darbinyan, cofondateur de l’ONG russe Roskomsvoboda, pense que ces coupures sont probablement dues à une « crainte panique d’une répétition de l’opération toile d’araignée », au cours de laquelle l’armée ukrainienne avait réussi à mettre en place des frappes coordonnées de drones dans le territoire russe.

Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

16 mars 2026 à 14:29
Comment traduit-on Minitel en russe ?
Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

Depuis plus d’une semaine, les Moscovites subissent des coupures d’internet mobile décidées par le Kremlin et le FSB. La vie dans la capitale russe se voit chamboulée avec parfois l’impossibilité d’utiliser les applications de localisation, de faire fonctionner les TPE ou d’envoyer des messages via mobile avec retour obligatoire au SMS, aux pagers et aux talkies-walkies.

Un pas de plus vers un contrôle drastique de l’Internet en Russie. Mais cette fois-ci, les gestes du quotidien que permet l’Internet mobile depuis son arrivée sont aussi touchés. En effet, depuis le 5 mars, le réseau Internet mobile dans certains quartiers de la capitale russe subit des coupures. Le média russe Novaïa Gazeta explique qu’au moins 23 quartiers de la ville ont subi ce genre de problème. Les services des systèmes de positionnement par satellites semblent aussi parfois brouillés.

« Je roulais sur le périphérique de Sadovoye [qui encercle Moscou], et d’un coup, plus de réseau, plus de GPS [abus de langage pour parler des GNSS, ndlr] », explique au Financial Times, Sergey, un chef de projet.

Le pouvoir russe ne nie pas les coupures et le Roskomnadzor, l’autorité russe de régulation de l’Internet, annonce une baisse de 20 % du trafic mobile comparé au mois précédent. Il y a tout juste un mois la Douma d’État, chambre basse du Parlement russe, avait voté une loi autorisant le service de renseignement du pays, le FSB, à couper l’accès à Internet et la téléphonie mobile.

La vie quotidienne basée sur l’Internet mobile s’est arrêtée

Ainsi, dans certaines rues de Moscou, impossible d’utiliser certains services mobiles pour envoyer des messages, se diriger avec certaines applications de navigation ou payer avec les terminaux de paiement branchés sur le réseau mobile.

Comme l’explique El País, les Moscovites se sont tournés vers des alternatives : le SMS retrouvent de nouveaux aficionados, les hotspots Wi-Fi redeviennent très recherchés. Et même les plateformes de vente en ligne locales Wildberries et Russ annoncent avoir observé une explosion de 170 % des demandes de cartes routières papier, de 73 % des pagers et de 27 % des talkies-walkies.

S’il y avait déjà eu des coupures mobiles dans d’autres régions du pays, c’est la première fois que Moscou est directement touchée. Selon Novaïa Gazeta, les fournisseurs d’accès russes se sont excusés pour les coupures tout en affirmant qu’ils n’en avaient pas le contrôle.

Le Kremlin ne cherche pas à cacher ces coupures. Le porte-parole de Vladimir Poutine, Dmitri Peskov, a affirmé qu’elles dureraient « tant que des mesures supplémentaires seront nécessaires pour garantir la sécurité de nos citoyens », lors d’une conférence de presse donnée mercredi 11 mars, selon le média russe. Il aurait invoqué des actions hostiles de l’Ukraine pour les justifier : « les méthodes d’attaque de plus en plus sophistiquées de Kiev exigent des contre-mesures technologiquement plus avancées ».

Après une semaine de coupures complètes, l’accès à certains sites aurait été réactivé. Ainsi les sites des principaux services publics, des banques, des plateformes de vente en ligne ou de certains médias proches du Kremlin seraient sur une liste blanche. Interrogé par le Financial Times, le créateur de l’entreprise de VPN Amnezia, Mazay Banzaev, imagine que cette liste blanche puisse être étendue : « L’Internet mobile sert manifestement de terrain d’essai pour renforcer encore davantage le contrôle sur l’ensemble du secteur de l’Internet en Russie ».

Jusqu’à récemment, la Russie misait sur un contrôle plus diffus d’Internet que la Chine et l’Iran. Mais la coupure pure et simple de l’Internet mobile dans certains endroits pourrait être le signe d’un changement de politique.

Des rumeurs de coups d’État, la crainte d’attaques de drones ?

Pour certains, la décision de couper l’internet mobile serait le signe de la crainte de Vladimir Poutine d’un coup d’État de la part de Sergueï Choïgou, ministre russe de la Défense de 2012 à 2024. Mais selon plusieurs experts interrogés par le Kyiv Independent, ça ne serait que le vœu pieux de certains opposants. « C’est n’importe quoi. Si les élites russes avaient voulu se débarrasser de Poutine, cela se serait produit en 2022 », affirme Anton Barbashin, fondateur du média Riddle Russia qui travaille pour le think tank ECFR. « Le manque de transparence contribue certes au caractère spéculatif des commentaires sur le changement de régime, mais dans ce cas précis, il se peut qu’il y ait une part de « vœu pieux » », confirme la chercheuse de la London School of Ecomonics, Tomila Lankina.

Interrogé par Novaïa Gazeta, l’avocat Sarkis Darbinyan, cofondateur de l’ONG russe Roskomsvoboda, pense que ces coupures sont probablement dues à une « crainte panique d’une répétition de l’opération toile d’araignée », au cours de laquelle l’armée ukrainienne avait réussi à mettre en place des frappes coordonnées de drones dans le territoire russe.

Reçu — 13 mars 2026 Actualités numériques

Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

13 mars 2026 à 16:56
Irréalité virtuelle
Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

Depuis le début de sa guerre contre l’Iran, sur les réseaux sociaux et notamment sur X, la Maison Blanche partage des vidéos mélangeant frappes militaires et images de jeux vidéo comme GTA, Call of Duty ou des jeux de la console Wii. Sur le terrain, ce sont de vrais morts, un vrai hôpital, de vraies écoles et un vrai site classé au patrimoine mondial de l’Unesco qui sont touchés.

Du côté américain, les images de propagande sur les guerres du Golfe des années 90 et 2000 ont laissé en mémoire les images de frappes qualifiées de « chirurgicales ». Depuis son entrée en guerre contre l’Iran avec son opération « Epic Fury », la Maison Blanche abreuve les réseaux sociaux d’une iconographie qui mêle ce genre d’images à celles de jeux vidéo.

Promotion de la guerre par les memes de jeux vidéo

« La Maison Blanche traite, d’une certaine manière du moins, la guerre comme un jeu, en diffusant à la légère ce que l’on pourrait, pour être indulgent, qualifier de vidéos promotionnelles sur leur guerre », commentait le week-end dernier le présentateur de CNN, Jack Tapper.

Effectivement, de Call of Duty (dont la Maison Blanche a finalement retiré sa vidéo), à GTA, la Maison Blanche emprunte à l’univers du jeu vidéo. Les vidéos sont généralement un mélange d’extraits de ces jeux déjà réutilisés en mèmes avec des vidéos embarquées de bombardements.

À certaines critiques, Steven Cheung, le responsable communication de la Maison Blanche, lance un « W’s in the chat, boys! », expression reprise du milieu de Twitch et des streamers pour appeler à célébrer la victoire dans une discussion.

L’administration Trump n’utilise pas que l’imagerie des jeux vidéo. Ainsi, le compte Instagram de la Maison Blanche a diffusé, par exemple, une vidéo accompagnée d’une reprise modifiée de la chanson « Boom Boom » de John Lee Hooker.

La réalité des conséquences n’arrête pas la Maison Blanche

Cette communication sur les réseaux sociaux se voulait la démonstration d’une efficacité de l’armée américaine pour frapper le régime iranien et son programme nucléaire. Alors que les sondages montrent qu’une majorité d’Américains ne comprend pas le but de cette guerre contre l’Iran, « le gouvernement américain ne se contente pas de vouloir que les Américains soutiennent la guerre qu’il a déclenchée avec Israël contre l’Iran ; il veut galvaniser la population », estime l’analyste de CNN Zachary B. Wolf.

Mais, moins de 15 jours après le déclenchement de cette guerre, la communication de la Maison Blanche se heurte à la réalité du conflit racontée par les médias.

La semaine dernière, la BBC identifiait sur images satellitaires que les frappes avaient touché des écoles, l’hôpital Ghandi de Téhéran ou encore le palais du Golestan, site classé au patrimoine mondial de l’Unesco.

Ce mercredi 11 mars, le New York Times confirmait les doutes sur les frappes qui ont touché dès le premier jour de la guerre une école de filles dans la ville iranienne de Minab. Selon le journal, une enquête militaire a déterminé que l’armée américaine a utilisé des données obsolètes et a bien bombardé cette école, faisant au moins 175 morts, dont la plupart étaient des enfants.

Mais le lendemain, la Maison Blanche a continué à poster ses vidéos sur X, l’une jouant sur le mot « strike » au bowling et l’autre mêlant les images de frappes avec celles de plusieurs jeux de Wii.

« La culture du gaming ne mène pas à la jouissance de la guerre », affirme Louis Lapeyrie dans le Grand Continent, « c’est la sphère politique — inspirée de la mouvance néoréactionnaire et d’autres — qui en invoque les codes pour entraîner un large public occidental dans son œuvre finaliste ».

Et l’Iran s’est mis, le même jour, à riposter sur ce terrain de la propagande des réseaux sociaux toutefois sans y aller directement en reprenant les codes des jeux vidéo. Une vidéo met en scène le story telling du régime avec des LEGO, évoquant justement le bombardement de l’école de Minab mais aussi Donald Trump et Benyamin Nétanyahou pactisant avec le diable ou encore Israël en flammes. Une autre, présentée comme « le retour de Khamenei », met en scène la riposte iranienne face à un Donald Trump apeuré.

Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

13 mars 2026 à 16:56
Irréalité virtuelle
Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

Depuis le début de sa guerre contre l’Iran, sur les réseaux sociaux et notamment sur X, la Maison Blanche partage des vidéos mélangeant frappes militaires et images de jeux vidéo comme GTA, Call of Duty ou des jeux de la console Wii. Sur le terrain, ce sont de vrais morts, un vrai hôpital, de vraies écoles et un vrai site classé au patrimoine mondial de l’Unesco qui sont touchés.

Du côté américain, les images de propagande sur les guerres du Golfe des années 90 et 2000 ont laissé en mémoire les images de frappes qualifiées de « chirurgicales ». Depuis son entrée en guerre contre l’Iran avec son opération « Epic Fury », la Maison Blanche abreuve les réseaux sociaux d’une iconographie qui mêle ce genre d’images à celles de jeux vidéo.

Promotion de la guerre par les memes de jeux vidéo

« La Maison Blanche traite, d’une certaine manière du moins, la guerre comme un jeu, en diffusant à la légère ce que l’on pourrait, pour être indulgent, qualifier de vidéos promotionnelles sur leur guerre », commentait le week-end dernier le présentateur de CNN, Jack Tapper.

Effectivement, de Call of Duty (dont la Maison Blanche a finalement retiré sa vidéo), à GTA, la Maison Blanche emprunte à l’univers du jeu vidéo. Les vidéos sont généralement un mélange d’extraits de ces jeux déjà réutilisés en mèmes avec des vidéos embarquées de bombardements.

À certaines critiques, Steven Cheung, le responsable communication de la Maison Blanche, lance un « W’s in the chat, boys! », expression reprise du milieu de Twitch et des streamers pour appeler à célébrer la victoire dans une discussion.

L’administration Trump n’utilise pas que l’imagerie des jeux vidéo. Ainsi, le compte Instagram de la Maison Blanche a diffusé, par exemple, une vidéo accompagnée d’une reprise modifiée de la chanson « Boom Boom » de John Lee Hooker.

La réalité des conséquences n’arrête pas la Maison Blanche

Cette communication sur les réseaux sociaux se voulait la démonstration d’une efficacité de l’armée américaine pour frapper le régime iranien et son programme nucléaire. Alors que les sondages montrent qu’une majorité d’Américains ne comprend pas le but de cette guerre contre l’Iran, « le gouvernement américain ne se contente pas de vouloir que les Américains soutiennent la guerre qu’il a déclenchée avec Israël contre l’Iran ; il veut galvaniser la population », estime l’analyste de CNN Zachary B. Wolf.

Mais, moins de 15 jours après le déclenchement de cette guerre, la communication de la Maison Blanche se heurte à la réalité du conflit racontée par les médias.

La semaine dernière, la BBC identifiait sur images satellitaires que les frappes avaient touché des écoles, l’hôpital Ghandi de Téhéran ou encore le palais du Golestan, site classé au patrimoine mondial de l’Unesco.

Ce mercredi 11 mars, le New York Times confirmait les doutes sur les frappes qui ont touché dès le premier jour de la guerre une école de filles dans la ville iranienne de Minab. Selon le journal, une enquête militaire a déterminé que l’armée américaine a utilisé des données obsolètes et a bien bombardé cette école, faisant au moins 175 morts, dont la plupart étaient des enfants.

Mais le lendemain, la Maison Blanche a continué à poster ses vidéos sur X, l’une jouant sur le mot « strike » au bowling et l’autre mêlant les images de frappes avec celles de plusieurs jeux de Wii.

« La culture du gaming ne mène pas à la jouissance de la guerre », affirme Louis Lapeyrie dans le Grand Continent, « c’est la sphère politique — inspirée de la mouvance néoréactionnaire et d’autres — qui en invoque les codes pour entraîner un large public occidental dans son œuvre finaliste ».

Et l’Iran s’est mis, le même jour, à riposter sur ce terrain de la propagande des réseaux sociaux toutefois sans y aller directement en reprenant les codes des jeux vidéo. Une vidéo met en scène le story telling du régime avec des LEGO, évoquant justement le bombardement de l’école de Minab mais aussi Donald Trump et Benyamin Nétanyahou pactisant avec le diable ou encore Israël en flammes. Une autre, présentée comme « le retour de Khamenei », met en scène la riposte iranienne face à un Donald Trump apeuré.

Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

13 mars 2026 à 13:29
Moi, influençable ?
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique.

Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre.

Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre.

C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants.

À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA.

Des questions pourtant très politisées et débattues

Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction :

Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain.

Une influence significative

De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur

Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask).

Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.

Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».

Persuadés de ne pas être influencés par l’IA

Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée.

La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant :

« De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci.

« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».

Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

13 mars 2026 à 13:29
Moi, influençable ?
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique.

Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre.

Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre.

C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants.

À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA.

Des questions pourtant très politisées et débattues

Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction :

Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain.

Une influence significative

De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur

Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask).

Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.

Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».

Persuadés de ne pas être influencés par l’IA

Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée.

La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant :

« De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci.

« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».

☕️ Copilot Health : Microsoft lance son concurrent à ChatGPT Santé

13 mars 2026 à 08:21


Deux mois après OpenAI, Microsoft lance son chatbot spécifiquement dédié aux questions de santé.

L’entreprise a annoncé la sortie de Copilot Health ce jeudi dans un billet de blog. Comme ChatGPT Santé, le nouveau chatbot de Microsoft encourage les utilisateurs à lui donner accès à leur dossier médical pour qu’il leur génère des conseils personnalisés. Ils peuvent aussi fournir les données de leurs appareils de Fitness et de santé comme ceux d’Apple, Oura ou Fitbit.

Et de la même façon que son concurrent, l’entreprise de Redmond précise que « Copilot Health ne remplace pas votre médecin ». Mais dans sa communication, Microsoft s’appuie sur les défaillances du système de santé pour mettre en avant son outil : « Les longues attentes, la pénurie de cliniciens et l’accès inégal aux soins médicaux poussent de nombreuses personnes à se tourner vers des sources en ligne pour obtenir de l’aide ».

Illustration : Flock

Dans cette version de Copilot, elle assure avoir « amélioré la qualité et la fiabilité des réponses » concernant la santé par rapport à la version classique de son chatbot en s’appuyant sur des informations d’ « organismes de santé crédibles dans 50 pays » listés par l’académie de Médecine états-unienne.

Comme ChatGPT Santé, Copilot Health bénéficie de la récente baisse de surveillance par la Food and Drug Administration (FDA), l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, des dispositifs de santé portables ou s’appuyant sur l’IA.

Copilot Health n’est pour l’instant pas disponible à tous les utilisateurs : Microsoft a pour l’instant prévu une liste d’attente.

☕️ Copilot Health : Microsoft lance son concurrent à ChatGPT Santé

13 mars 2026 à 08:21


Deux mois après OpenAI, Microsoft lance son chatbot spécifiquement dédié aux questions de santé.

L’entreprise a annoncé la sortie de Copilot Health ce jeudi dans un billet de blog. Comme ChatGPT Santé, le nouveau chatbot de Microsoft encourage les utilisateurs à lui donner accès à leur dossier médical pour qu’il leur génère des conseils personnalisés. Ils peuvent aussi fournir les données de leurs appareils de Fitness et de santé comme ceux d’Apple, Oura ou Fitbit.

Et de la même façon que son concurrent, l’entreprise de Redmond précise que « Copilot Health ne remplace pas votre médecin ». Mais dans sa communication, Microsoft s’appuie sur les défaillances du système de santé pour mettre en avant son outil : « Les longues attentes, la pénurie de cliniciens et l’accès inégal aux soins médicaux poussent de nombreuses personnes à se tourner vers des sources en ligne pour obtenir de l’aide ».

Illustration : Flock

Dans cette version de Copilot, elle assure avoir « amélioré la qualité et la fiabilité des réponses » concernant la santé par rapport à la version classique de son chatbot en s’appuyant sur des informations d’ « organismes de santé crédibles dans 50 pays » listés par l’académie de Médecine états-unienne.

Comme ChatGPT Santé, Copilot Health bénéficie de la récente baisse de surveillance par la Food and Drug Administration (FDA), l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, des dispositifs de santé portables ou s’appuyant sur l’IA.

Copilot Health n’est pour l’instant pas disponible à tous les utilisateurs : Microsoft a pour l’instant prévu une liste d’attente.

Reçu — 12 mars 2026 Actualités numériques

ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

12 mars 2026 à 10:50
IA pas très discrète
ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

Lancé en 2024, ChatGPT Edu est une version spéciale pour les universités. Mais la configuration par défaut de l’outil expose les métadonnées de son utilisation dans certains projets à des milliers de personnes sans que les enseignants-chercheurs le sachent.

Les entreprises d’IA générative ont commencé depuis quelque temps à proposer des offres spéciales universités. En mai 2024, OpenAI sortait par exemple son offre « ChatGPT Edu ».

En France, comme nous l’expliquions, « un service d’accès à une IA générative souveraine, développé avec Mistral et opéré sur les datacenters de l’ESR » a été lancé fin janvier en expérimentation par l’Amue, une agence de mutualisation de services numériques pour les universités et autres établissements de l’enseignement supérieur.

Mais des établissements d’enseignement supérieur, l’Université d’Harvard en tête de liste mais aussi en France l’ESCP Business School, ont pris un abonnement chez le leader de l’IA générative.

Pour vanter son produit, OpenAI cite le directeur du système d’information (DSI) de l’université de l’État de l’Arizona : « Le lancement du produit éducatif d’OpenAI, ChatGPT Edu, revêt une importance capitale. Il nous aide à protéger la vie privée de nos étudiants, à protéger nos résultats de recherche qui constituent notre propriété intellectuelle, et répond à nos exigences en matière de sécurité ».

Des métadonnées permettant d’en savoir plus sur les projets en cours

Mais, selon des chercheurs d’Oxford interrogés par le média économique américain Fast Compagny, certaines informations concernant l’utilisation de ChatGPT Edu dans les universités ne sont pas si bien protégées que ça.

Cela concerne plus précisément l’utilisation de Codex via ChatGPT Edu. Si aucun code ou dépôt de données n’est accessible à des personnes non-autorisées, certaines métadonnées sont visibles par des milliers de collègues sans que cela soit notifié clairement aux utilisateurs.

« Tout le monde à l’université, ou du moins un grand nombre de personnes, moi y compris, peut voir de nombreux projets sur lesquels [des gens] ont travaillé avec ChatGPT », explique le chercheur de l’université d’Oxford Luc Rocher à Fast Company.

Luc Rocher explique qu’il peut accéder à des métadonnées comme le nombre de fois qu’un utilisateur a interagi avec ChatGPT dans un projet ou sa date de début. De ces métadonnées, il a pu déduire qu’un étudiant d’Oxford travaillait sur la soumission d’un article scientifique en utilisant ChatGPT Edu (l’étudiant a ensuite confirmé). Le chercheur a signalé le problème à OpenAI et à son université mais, insatisfait de la réponse, il a choisi d’en parler à nos confrères.

Une mauvaise configuration par défaut

Interrogé par Fast Company, OpenAI assure que « les utilisateurs ont un contrôle total sur la manière dont leurs environnements sont partagés. Les noms des dépôts ne peuvent être visibles par les autres membres de la même organisation que si le propriétaire de l’espace de travail en décide ainsi, et le contenu des dépôts reste sécurisé ».

Mais pour Luc Rocher, « il semble que ça soit une question d’une mauvaise configuration par défaut » et d’un manque d’information sur celle-ci.

Même si les métadonnées ne sont pas accessibles à l’extérieur de l’université, celle-ci regroupe des dizaines de milliers de personnes. « " En ce qui concerne l’étendue des personnes qui peuvent accéder aux données comportementales les unes des autres, cela est assez préoccupant », estime un chercheur de l’université qui a requis l’anonymat.

L’université d’Oxford n’a pas voulu faire de commentaires. Selon nos confrères, la même configuration serait en place dans d’autres universités (sans citer leurs noms).

« Je pense que c’est quelque chose dont les universités doivent être conscientes », explique Luc Rocher. « Bien que l’on ne sache pas exactement quelle quantité de données est exposée par défaut par OpenAI, il est clair que la manière dont ces systèmes sont intégrés rend visibles à la fois pour l’entreprise et pour l’ensemble de l’organisation des informations qui ne l’étaient pas auparavant », commente auprès de Fast Company, le chercheur Michael Veale en droit et politique des technologies à UCL.

ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

12 mars 2026 à 10:50
IA pas très discrète
ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

Lancé en 2024, ChatGPT Edu est une version spéciale pour les universités. Mais la configuration par défaut de l’outil expose les métadonnées de son utilisation dans certains projets à des milliers de personnes sans que les enseignants-chercheurs le sachent.

Les entreprises d’IA générative ont commencé depuis quelque temps à proposer des offres spéciales universités. En mai 2024, OpenAI sortait par exemple son offre « ChatGPT Edu ».

En France, comme nous l’expliquions, « un service d’accès à une IA générative souveraine, développé avec Mistral et opéré sur les datacenters de l’ESR » a été lancé fin janvier en expérimentation par l’Amue, une agence de mutualisation de services numériques pour les universités et autres établissements de l’enseignement supérieur.

Mais des établissements d’enseignement supérieur, l’Université d’Harvard en tête de liste mais aussi en France l’ESCP Business School, ont pris un abonnement chez le leader de l’IA générative.

Pour vanter son produit, OpenAI cite le directeur du système d’information (DSI) de l’université de l’État de l’Arizona : « Le lancement du produit éducatif d’OpenAI, ChatGPT Edu, revêt une importance capitale. Il nous aide à protéger la vie privée de nos étudiants, à protéger nos résultats de recherche qui constituent notre propriété intellectuelle, et répond à nos exigences en matière de sécurité ».

Des métadonnées permettant d’en savoir plus sur les projets en cours

Mais, selon des chercheurs d’Oxford interrogés par le média économique américain Fast Compagny, certaines informations concernant l’utilisation de ChatGPT Edu dans les universités ne sont pas si bien protégées que ça.

Cela concerne plus précisément l’utilisation de Codex via ChatGPT Edu. Si aucun code ou dépôt de données n’est accessible à des personnes non-autorisées, certaines métadonnées sont visibles par des milliers de collègues sans que cela soit notifié clairement aux utilisateurs.

« Tout le monde à l’université, ou du moins un grand nombre de personnes, moi y compris, peut voir de nombreux projets sur lesquels [des gens] ont travaillé avec ChatGPT », explique le chercheur de l’université d’Oxford Luc Rocher à Fast Company.

Luc Rocher explique qu’il peut accéder à des métadonnées comme le nombre de fois qu’un utilisateur a interagi avec ChatGPT dans un projet ou sa date de début. De ces métadonnées, il a pu déduire qu’un étudiant d’Oxford travaillait sur la soumission d’un article scientifique en utilisant ChatGPT Edu (l’étudiant a ensuite confirmé). Le chercheur a signalé le problème à OpenAI et à son université mais, insatisfait de la réponse, il a choisi d’en parler à nos confrères.

Une mauvaise configuration par défaut

Interrogé par Fast Company, OpenAI assure que « les utilisateurs ont un contrôle total sur la manière dont leurs environnements sont partagés. Les noms des dépôts ne peuvent être visibles par les autres membres de la même organisation que si le propriétaire de l’espace de travail en décide ainsi, et le contenu des dépôts reste sécurisé ».

Mais pour Luc Rocher, « il semble que ça soit une question d’une mauvaise configuration par défaut » et d’un manque d’information sur celle-ci.

Même si les métadonnées ne sont pas accessibles à l’extérieur de l’université, celle-ci regroupe des dizaines de milliers de personnes. « " En ce qui concerne l’étendue des personnes qui peuvent accéder aux données comportementales les unes des autres, cela est assez préoccupant », estime un chercheur de l’université qui a requis l’anonymat.

L’université d’Oxford n’a pas voulu faire de commentaires. Selon nos confrères, la même configuration serait en place dans d’autres universités (sans citer leurs noms).

« Je pense que c’est quelque chose dont les universités doivent être conscientes », explique Luc Rocher. « Bien que l’on ne sache pas exactement quelle quantité de données est exposée par défaut par OpenAI, il est clair que la manière dont ces systèmes sont intégrés rend visibles à la fois pour l’entreprise et pour l’ensemble de l’organisation des informations qui ne l’étaient pas auparavant », commente auprès de Fast Company, le chercheur Michael Veale en droit et politique des technologies à UCL.

Reçu — 11 mars 2026 Actualités numériques

☕️ WhatsApp permet de créer des comptes aux moins de 13 ans, avec des restrictions

11 mars 2026 à 16:10


Meta change encore des choses pour les utilisateurs mineurs d’une de ses plateformes, en l’occurrence, WhatsApp.

Le groupe de Mark Zuckerberg fait face actuellement à un procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans qui les accuse d’entretenir l’addiction de leurs plateformes chez les jeunes. Dans ce cadre, le responsable a été pressé de justifier la politique de Meta relative aux préados.

Les icones des applications telegram signal whatsapp line et wechat affichées sur un écran de smartphone.

Meta a par exemple prévu de modérer ses IA pour les mineurs, ce qui a notamment pour conséquence de censurer l’information sur la santé sexuelle.

Jusque-là, WhatsApp interdisait officiellement la création de compte aux moins de 13 ans. L’entreprise annonce ouvrir cette possibilité à condition qu’elle soit supervisée par les parents. « Une fois configurés, ces comptes gérés sont contrôlés par un parent ou un·e représentant·e légal·e qui pourra décider qui peut contacter l’enfant et quels groupes ce dernier peut rejoindre. De plus, le parent pourra examiner les demandes de discussion provenant de contacts inconnus et gérer les paramètres de confidentialité du compte », assure l’entreprise.

Les comptes du parent et de l’enfant seront associés via le scan d’un QR code, explique la FAQ. Un code PIN parental de 6 chiffres permet d’accéder aux paramètres de confidentialité de l’enfant et de les modifier. « Il ne doit pas être communiqué à votre enfant », explique WhatsApp.

L’entreprise s’assure ainsi de pouvoir rester un outil de discussion intrafamiliale tout en rassurant les parents sur le fait que n’importe qui ne puisse pas entrer en contact avec leurs enfants via l’application.

☕️ WhatsApp permet de créer des comptes aux moins de 13 ans, avec des restrictions

11 mars 2026 à 16:10


Meta change encore des choses pour les utilisateurs mineurs d’une de ses plateformes, en l’occurrence, WhatsApp.

Le groupe de Mark Zuckerberg fait face actuellement à un procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans qui les accuse d’entretenir l’addiction de leurs plateformes chez les jeunes. Dans ce cadre, le responsable a été pressé de justifier la politique de Meta relative aux préados.

Les icones des applications telegram signal whatsapp line et wechat affichées sur un écran de smartphone.

Meta a par exemple prévu de modérer ses IA pour les mineurs, ce qui a notamment pour conséquence de censurer l’information sur la santé sexuelle.

Jusque-là, WhatsApp interdisait officiellement la création de compte aux moins de 13 ans. L’entreprise annonce ouvrir cette possibilité à condition qu’elle soit supervisée par les parents. « Une fois configurés, ces comptes gérés sont contrôlés par un parent ou un·e représentant·e légal·e qui pourra décider qui peut contacter l’enfant et quels groupes ce dernier peut rejoindre. De plus, le parent pourra examiner les demandes de discussion provenant de contacts inconnus et gérer les paramètres de confidentialité du compte », assure l’entreprise.

Les comptes du parent et de l’enfant seront associés via le scan d’un QR code, explique la FAQ. Un code PIN parental de 6 chiffres permet d’accéder aux paramètres de confidentialité de l’enfant et de les modifier. « Il ne doit pas être communiqué à votre enfant », explique WhatsApp.

L’entreprise s’assure ainsi de pouvoir rester un outil de discussion intrafamiliale tout en rassurant les parents sur le fait que n’importe qui ne puisse pas entrer en contact avec leurs enfants via l’application.

Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

11 mars 2026 à 15:50
Tranquille
Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

Un ancien du département temporairement géré par Elon Musk se serait vanté d’avoir deux bases de données, dont une sur une clé USB, contenant des informations concernant 500 millions d’Américains (morts ou vivants). Une plainte a été déposée auprès de la Sécurité sociale américaine par un lanceur d’alerte interne. L’agence de santé nie l’existence de cette fuite.

Les conséquences des incursions du DOGE dans de nombreuses agences étatsuniennes se font ressentir un an après. On apprenait récemment que la suppression des financements de la recherche en sciences sociales s’appuyait sur une simple requête ChatGPT.

Mais un des membres de ce département temporaire, officiellement créé par Donald Trump pour améliorer l’efficacité de l’administration américaine, aurait gardé sur une clé USB deux bases de données issues de la Sécurité sociale des États-Unis (SSA).

On se souvient que, s’étant emparé de son contrôle, le DOGE voulait migrer le code de l’intégralité de cette agence en quelques mois pour se débarrasser du COBOL. Aucune nouvelle de ce projet n’a filtré depuis, pas même depuis que le DOGE n’existe officiellement plus.

Une plainte d’un lanceur d’alerte en interne

Mais en passant, certains des ingénieurs de l’équipe dirigée par Elon Musk pourraient s’être servis dans les bases de données de l’institution. Selon une plainte déposée en interne par un employé de la Sécurité sociale qu’a pu consulter le Washington Post, un ancien ingénieur du DOGE a déclaré à plusieurs de ses nouveaux collègues qu’il était en possession de deux bases de données concernant des citoyens américains, dont au moins l’une d’entre elles sur une clé USB.

Ces deux bases de données, nommées « Numident » et « Master Death File », regrouperaient des informations sur 500 millions d’Américains (morts ou vivants), avec leurs numéros de Sécurité sociale, leurs lieux et dates de naissance, leurs citoyennetés, leurs « races » et ethnies, et les noms de leurs parents.

Toujours selon la plainte, l’ancien ingénieur du DOGE aurait voulu utiliser les données pour le compte de son nouvel employeur, une entreprise sous-traitante du gouvernement américain. C’est quand il lui a demandé de l’aider à transférer les données d’une clé USB « sur son ordinateur personnel afin de pouvoir « nettoyer » les données avant de les utiliser au sein de [l’entreprise] » que le lanceur d’alerte a eu vent du problème.

Alors qu’un autre collègue lui aurait refusé son aide pour des raisons légales, l’ingénieur aurait expliqué qu’il espérait bénéficier d’une grâce présidentielle si ses actes étaient jugés illégaux. La plainte ne dit pas s’il a finalement réussi à fournir les données à sa nouvelle entreprise.

En fait, selon le lanceur d’alerte, après son passage au DOGE, cet ingénieur aurait expliqué avoir conservé son ordinateur et ses identifiants professionnels lui donnant un accès quasi illimité aux systèmes de l’agence, « un niveau d’accès dont aucun autre employé d’entreprise n’avait bénéficié dans le cadre de sa collaboration avec la Sécurité sociale des États-Unis », explique le Washington Post.

Allégations « fermement réfutées par toutes les parties concernées »

Les membres du Congrès américain ont été informés de cette plainte par une lettre de l’inspecteur général de la Sécurité sociale le 6 mars dernier, selon The Independent.

Robert Garcia, représentant démocrate et président de la commission de surveillance de la Chambre des représentants, qui avait déjà lancé une enquête parlementaire sur les actions du DOGE au sein de la Sécurité sociale, a annoncé l’étendre à cette fuite de données. « Non seulement un ancien membre du DOGE a été accusé d’avoir circulé avec les informations de Sécurité sociale de tous les Américains sur une clé USB, mais il aurait également la possibilité de modifier et de manipuler à sa guise les données de l’administration de la Sécurité sociale », résume-t-il. « C’est dangereux et scandaleux, et les démocrates de la commission de surveillance se battront pour la transparence et la responsabilité ».

Mais l’agence concernée nie l’existence de cette fuite. « Les allégations provenant d’une seule source anonyme ont été fermement réfutées par toutes les parties concernées : la SSA, l’ancien employé et l’entreprise », affirme un porte-parole au journal The Independent.

Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

11 mars 2026 à 15:50
Tranquille
Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

Un ancien du département temporairement géré par Elon Musk se serait vanté d’avoir deux bases de données, dont une sur une clé USB, contenant des informations concernant 500 millions d’Américains (morts ou vivants). Une plainte a été déposée auprès de la Sécurité sociale américaine par un lanceur d’alerte interne. L’agence de santé nie l’existence de cette fuite.

Les conséquences des incursions du DOGE dans de nombreuses agences étatsuniennes se font ressentir un an après. On apprenait récemment que la suppression des financements de la recherche en sciences sociales s’appuyait sur une simple requête ChatGPT.

Mais un des membres de ce département temporaire, officiellement créé par Donald Trump pour améliorer l’efficacité de l’administration américaine, aurait gardé sur une clé USB deux bases de données issues de la Sécurité sociale des États-Unis (SSA).

On se souvient que, s’étant emparé de son contrôle, le DOGE voulait migrer le code de l’intégralité de cette agence en quelques mois pour se débarrasser du COBOL. Aucune nouvelle de ce projet n’a filtré depuis, pas même depuis que le DOGE n’existe officiellement plus.

Une plainte d’un lanceur d’alerte en interne

Mais en passant, certains des ingénieurs de l’équipe dirigée par Elon Musk pourraient s’être servis dans les bases de données de l’institution. Selon une plainte déposée en interne par un employé de la Sécurité sociale qu’a pu consulter le Washington Post, un ancien ingénieur du DOGE a déclaré à plusieurs de ses nouveaux collègues qu’il était en possession de deux bases de données concernant des citoyens américains, dont au moins l’une d’entre elles sur une clé USB.

Ces deux bases de données, nommées « Numident » et « Master Death File », regrouperaient des informations sur 500 millions d’Américains (morts ou vivants), avec leurs numéros de Sécurité sociale, leurs lieux et dates de naissance, leurs citoyennetés, leurs « races » et ethnies, et les noms de leurs parents.

Toujours selon la plainte, l’ancien ingénieur du DOGE aurait voulu utiliser les données pour le compte de son nouvel employeur, une entreprise sous-traitante du gouvernement américain. C’est quand il lui a demandé de l’aider à transférer les données d’une clé USB « sur son ordinateur personnel afin de pouvoir « nettoyer » les données avant de les utiliser au sein de [l’entreprise] » que le lanceur d’alerte a eu vent du problème.

Alors qu’un autre collègue lui aurait refusé son aide pour des raisons légales, l’ingénieur aurait expliqué qu’il espérait bénéficier d’une grâce présidentielle si ses actes étaient jugés illégaux. La plainte ne dit pas s’il a finalement réussi à fournir les données à sa nouvelle entreprise.

En fait, selon le lanceur d’alerte, après son passage au DOGE, cet ingénieur aurait expliqué avoir conservé son ordinateur et ses identifiants professionnels lui donnant un accès quasi illimité aux systèmes de l’agence, « un niveau d’accès dont aucun autre employé d’entreprise n’avait bénéficié dans le cadre de sa collaboration avec la Sécurité sociale des États-Unis », explique le Washington Post.

Allégations « fermement réfutées par toutes les parties concernées »

Les membres du Congrès américain ont été informés de cette plainte par une lettre de l’inspecteur général de la Sécurité sociale le 6 mars dernier, selon The Independent.

Robert Garcia, représentant démocrate et président de la commission de surveillance de la Chambre des représentants, qui avait déjà lancé une enquête parlementaire sur les actions du DOGE au sein de la Sécurité sociale, a annoncé l’étendre à cette fuite de données. « Non seulement un ancien membre du DOGE a été accusé d’avoir circulé avec les informations de Sécurité sociale de tous les Américains sur une clé USB, mais il aurait également la possibilité de modifier et de manipuler à sa guise les données de l’administration de la Sécurité sociale », résume-t-il. « C’est dangereux et scandaleux, et les démocrates de la commission de surveillance se battront pour la transparence et la responsabilité ».

Mais l’agence concernée nie l’existence de cette fuite. « Les allégations provenant d’une seule source anonyme ont été fermement réfutées par toutes les parties concernées : la SSA, l’ancien employé et l’entreprise », affirme un porte-parole au journal The Independent.

YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

11 mars 2026 à 13:33
Cible manquée ?
YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

Après avoir testé un dispositif anti-deepfakes pour les youtubeurs, la plateforme l’étend à des journalistes, personnalités politiques et représentants de gouvernement. L’outil leur promet de détecter les deepfakes d’eux diffusés sur YouTube et qu’ils pourront faire une demande de dépublication.

Il est désormais « très difficile » de détecter les faux contenus multimédias, expliquait récemment l’ANSSI, pour laquelle c’est même « un enfer ». YouTube, qui profitait de l’IA pour retoucher des vidéos sans l’accord de leurs auteurs, veut aussi montrer qu’elle prend la mesure du problème du phénomène des deepfakes facilité par l’IA générative.

Dans un billet de blog, l’entreprise annonce la mise en place d’un outil pour que certains journalistes, candidats politiques ou responsables gouvernementaux puissent bloquer les deepfakes qui les représentent. Pour l’instant, la plateforme de vidéos a créé un groupe pilote de quelques personnalités. Questionné par Gizmodo, YouTube a refusé de communiquer la liste et n’a pas voulu dire si Donald Trump en faisait partie.

Un déploiement déjà existant pour les YouTubeurs

En septembre dernier, la plateforme annonçait le déploiement de cet outil d’abord en direction des youtubeurs. L’entreprise a publié en octobre une vidéo dans laquelle elle explique comment utiliser l’outil qui ressemble à ce que propose la plateforme pour signaler les contenus qui enfreindraient le copyright. Mais ici, il demande de fournir une pièce d’identité avec photo et des selfies vidéos pour que l’outil puisse détecter les deepfakes :

« Cette extension concerne en réalité l’intégrité du débat public », a affirmé Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques chez YouTube, lors d’une conférence de presse à laquelle a assisté TechCrunch. « Nous savons que les risques d’usurpation d’identité par l’IA sont particulièrement élevés pour les acteurs de la sphère civique. Mais si nous fournissons cette nouvelle protection, nous faisons également preuve de prudence quant à son utilisation », ajoute-t-elle.

YouTube fournit l’outil qui détecte les deepfakes mais l’entreprise ne s’engage pas à les dépublier si demande est faite. « YouTube protège depuis longtemps la liberté d’expression et les contenus d’intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu’ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », affirme l’entreprise. « Nous continuerons à évaluer attentivement ces exceptions lorsque nous recevrons des demandes de suppression ».

Le déploiement international à grande échelle de l’outil devrait arriver d’ici quelques semaines ou mois, selon un porte-parole de l’entreprise cité par Gizmodo.

La problématique des deepfakes est plus large

Si les deepfakes peuvent être un outil de désinformation problématique, comme nous l’évoquions déjà en septembre dernier, c’est l’arbre qui cache la forêt, la plupart des détournements de ce genre ayant un caractère pornographique. Ils peuvent être aussi utilisés à des fins racistes et sexistes contre des personnalités décédées. Ainsi, à la sortie de Sora 2, des vidéos de Martin Luther King, Malcom X ou Whitney Houston les dépeignaient dans des situations dégradantes.

Sur la plateforme de vidéos, on peut aussi trouver nombre de « tutos » pour utiliser Sora 2, Veo 3.1 ou Wan 2.2 pour faire ses propres deepfakes. Et si l’entreprise n’a pas voulu rendre publics les chiffres de suppression de deepfakes signalés par les YouTubeurs, elle avoue que la quantité de contenu supprimée jusqu’à présent était « très faible ».

« Je pense que pour beaucoup [de créateurs], il s’agit simplement d’une prise de conscience de ce qui est créé, mais le nombre de demandes de suppression est en réalité très faible, car la plupart d’entre elles s’avèrent assez bénignes ou bénéfiques pour leur activité globale », affirme le vice-président des produits pour créateurs chez YouTube, Amjad Hanif, cité par TechCrunch. À voir si les journalistes et politiques faisant partie des happy few qui ont accès à l’outil en auront une utilisation plus intensive.

YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

11 mars 2026 à 13:33
Cible manquée ?
YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

Après avoir testé un dispositif anti-deepfakes pour les youtubeurs, la plateforme l’étend à des journalistes, personnalités politiques et représentants de gouvernement. L’outil leur promet de détecter les deepfakes d’eux diffusés sur YouTube et qu’ils pourront faire une demande de dépublication.

Il est désormais « très difficile » de détecter les faux contenus multimédias, expliquait récemment l’ANSSI, pour laquelle c’est même « un enfer ». YouTube, qui profitait de l’IA pour retoucher des vidéos sans l’accord de leurs auteurs, veut aussi montrer qu’elle prend la mesure du problème du phénomène des deepfakes facilité par l’IA générative.

Dans un billet de blog, l’entreprise annonce la mise en place d’un outil pour que certains journalistes, candidats politiques ou responsables gouvernementaux puissent bloquer les deepfakes qui les représentent. Pour l’instant, la plateforme de vidéos a créé un groupe pilote de quelques personnalités. Questionné par Gizmodo, YouTube a refusé de communiquer la liste et n’a pas voulu dire si Donald Trump en faisait partie.

Un déploiement déjà existant pour les YouTubeurs

En septembre dernier, la plateforme annonçait le déploiement de cet outil d’abord en direction des youtubeurs. L’entreprise a publié en octobre une vidéo dans laquelle elle explique comment utiliser l’outil qui ressemble à ce que propose la plateforme pour signaler les contenus qui enfreindraient le copyright. Mais ici, il demande de fournir une pièce d’identité avec photo et des selfies vidéos pour que l’outil puisse détecter les deepfakes :

« Cette extension concerne en réalité l’intégrité du débat public », a affirmé Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques chez YouTube, lors d’une conférence de presse à laquelle a assisté TechCrunch. « Nous savons que les risques d’usurpation d’identité par l’IA sont particulièrement élevés pour les acteurs de la sphère civique. Mais si nous fournissons cette nouvelle protection, nous faisons également preuve de prudence quant à son utilisation », ajoute-t-elle.

YouTube fournit l’outil qui détecte les deepfakes mais l’entreprise ne s’engage pas à les dépublier si demande est faite. « YouTube protège depuis longtemps la liberté d’expression et les contenus d’intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu’ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », affirme l’entreprise. « Nous continuerons à évaluer attentivement ces exceptions lorsque nous recevrons des demandes de suppression ».

Le déploiement international à grande échelle de l’outil devrait arriver d’ici quelques semaines ou mois, selon un porte-parole de l’entreprise cité par Gizmodo.

La problématique des deepfakes est plus large

Si les deepfakes peuvent être un outil de désinformation problématique, comme nous l’évoquions déjà en septembre dernier, c’est l’arbre qui cache la forêt, la plupart des détournements de ce genre ayant un caractère pornographique. Ils peuvent être aussi utilisés à des fins racistes et sexistes contre des personnalités décédées. Ainsi, à la sortie de Sora 2, des vidéos de Martin Luther King, Malcom X ou Whitney Houston les dépeignaient dans des situations dégradantes.

Sur la plateforme de vidéos, on peut aussi trouver nombre de « tutos » pour utiliser Sora 2, Veo 3.1 ou Wan 2.2 pour faire ses propres deepfakes. Et si l’entreprise n’a pas voulu rendre publics les chiffres de suppression de deepfakes signalés par les YouTubeurs, elle avoue que la quantité de contenu supprimée jusqu’à présent était « très faible ».

« Je pense que pour beaucoup [de créateurs], il s’agit simplement d’une prise de conscience de ce qui est créé, mais le nombre de demandes de suppression est en réalité très faible, car la plupart d’entre elles s’avèrent assez bénignes ou bénéfiques pour leur activité globale », affirme le vice-président des produits pour créateurs chez YouTube, Amjad Hanif, cité par TechCrunch. À voir si les journalistes et politiques faisant partie des happy few qui ont accès à l’outil en auront une utilisation plus intensive.

☕️ Les Ig Nobels déménagent en Europe à cause de la politique de visa de Donald Trump

11 mars 2026 à 09:16


Les organisateurs des Ig Nobels, prix parodiques récompensant des recherches « improbables », ont annoncé le déménagement de l’organisation de la cérémonie des États-Unis vers l’Europe.

En cause, comme l’explique le responsable, Marc Abrahams, à l’agence de presse Associated Press, la politique de visa des États-Unis décidée par Donald Trump. « Au cours de l’année écoulée, il est devenu dangereux pour nos invités de se rendre dans ce pays », explique-t-il. « Nous ne pouvons en toute conscience demander aux nouveaux lauréats, ni aux journalistes internationaux qui couvrent l’événement, de se rendre aux États-Unis cette année ».

L’année dernière, quatre des dix gagnants ont fait le choix de ne pas se déplacer à l’université de Boston pour recevoir le prix. Jusqu’ici, les cérémonies des Ig Nobels se déroulaient soit à Harvard, soit à l’université de Boston, soit au MIT. Mais les organisateurs préfèrent maintenant déménager l’événement en Europe.

Plus précisément, l’organisation compte s’implanter en Suisse en mettant en place une collaboration avec l’École polytechnique fédérale de Zurich (ETHZ) et l’université de la ville. La cérémonie devrait s’y dérouler cette année ainsi que tous les deux ans en alternance avec d’autres villes européennes.

« La Suisse a donné naissance à de nombreuses choses inattendues – la physique d’Albert Einstein, l’économie mondiale et les coucous viennent immédiatement à l’esprit – et aide à nouveau le monde à apprécier des personnes et des idées improbables », affirme Marc Abrahams.

☕️ Les Ig Nobels déménagent en Europe à cause de la politique de visa de Donald Trump

11 mars 2026 à 09:16


Les organisateurs des Ig Nobels, prix parodiques récompensant des recherches « improbables », ont annoncé le déménagement de l’organisation de la cérémonie des États-Unis vers l’Europe.

En cause, comme l’explique le responsable, Marc Abrahams, à l’agence de presse Associated Press, la politique de visa des États-Unis décidée par Donald Trump. « Au cours de l’année écoulée, il est devenu dangereux pour nos invités de se rendre dans ce pays », explique-t-il. « Nous ne pouvons en toute conscience demander aux nouveaux lauréats, ni aux journalistes internationaux qui couvrent l’événement, de se rendre aux États-Unis cette année ».

L’année dernière, quatre des dix gagnants ont fait le choix de ne pas se déplacer à l’université de Boston pour recevoir le prix. Jusqu’ici, les cérémonies des Ig Nobels se déroulaient soit à Harvard, soit à l’université de Boston, soit au MIT. Mais les organisateurs préfèrent maintenant déménager l’événement en Europe.

Plus précisément, l’organisation compte s’implanter en Suisse en mettant en place une collaboration avec l’École polytechnique fédérale de Zurich (ETHZ) et l’université de la ville. La cérémonie devrait s’y dérouler cette année ainsi que tous les deux ans en alternance avec d’autres villes européennes.

« La Suisse a donné naissance à de nombreuses choses inattendues – la physique d’Albert Einstein, l’économie mondiale et les coucous viennent immédiatement à l’esprit – et aide à nouveau le monde à apprécier des personnes et des idées improbables », affirme Marc Abrahams.

❌