Vue normale

Reçu — 10 mars 2026 Actualités numériques

Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

10 mars 2026 à 10:56
Faux comptes, vraie désinfo
Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Après les élections européennes ou présidentielles, les échéances municipales sont elles aussi le théâtre de campagnes de désinformation alimentées par des faux comptes. Leurs origines sont quelquefois traçables jusqu’à des commanditaires étrangers.

Un blog, des pages Facebook et des comptes X, des tracts placardés dans les rues, même, à l’effigie d’une certaine « Sophie ». À Marseille, le député Sébastien Delogu (La France Insoumise) a beau ne parvenir qu’en quatrième position dans les sondages, quelqu’un se donne beaucoup de mal pour l’attaquer en ligne, l’accusant de viol et de violences.

Sur Facebook, les publications ont enregistré beaucoup de commentaires et de réactions (j’aime, j’adore, etc), mais toutes sont fausses. Après enquête, Le Monde constate que l’essentiel vient de comptes installés en Asie.

À Toulouse et à Paris, d’autres candidats subissent aussi des tentatives d’attaques numériques. Dans la ville rose, un autre candidat LFI, François Piquemal, se voit accusé de pédocriminalité, ses positions sur la Palestine, moquées. À Paris, c’est Pierre-Yves Bournazel, candidat Horizons, qui a signalé à Viginum, le service de vigilance et protection contre les ingérences numériques du Secrétariat général de la Défense et de la Sécurité nationale, des publications sur X dont les propos attaquaient son image. Si aucune de ces campagnes n’a enregistré de grande viralité, toutes témoignent de tentatives de manipulation de l’information en amont des scrutins municipaux des 15 et 22 mars.

Commanditaires inconnus contre LFI, Storm-1516 contre Bournazel

Dans le cas des candidats LFI, dont le parti est lui aussi visé par un faux site intitulé « L’alternative 2026 », difficile de remonter jusqu’au commanditaire. Le Monde a repéré des similarités techniques entre les faux comptes payés pour tenter de viraliser les publications attaquant Sébastien Delogu, celles qui s’en prennent à François Piquemeal (y compris des deepfakes à caractère pornographique), ou encore le faux site suggérant que l’élection de candidats LFI aboutirait à l’instauration de la charia.

Tous recourent notamment à des images générées par Gemini, l’outil d’IA de Google, les sites web concernés s’appuient sur un même thème WordPress, et leurs noms de domaines sont enregistrés chez un seul et même fournisseur, localisé aux Bahamas. Le quotidien remarque bien que les comptes de réseaux sociaux qui diffusent les messages diffamatoires ont été utilisés par le passé pour publier des éléments relatifs à un scandale nigérian ou à la politique gabonaise, mais cela ne suggère pas grand-chose de plus que le recours à une société spécialisée dans les opérations de manipulation de l’information.

Le Monde remarque aussi que les comptes X utilisés dans ces opérations ont servi par le passé à diffuser les messages du lobby pro-israélien Elnet, en conflit ouvert avec LFI, et que Sébastien Delogu et François Piquemal sont au nombre des candidats LFI ayant le plus fortement souligné leur soutien à la population palestinienne et leur opposition aux opérations militaires d’Israël à Gaza. Mais à défaut de retrouver la société autrice des opérations d’influence, et de pouvoir remonter le fil de sa clientèle, difficile d’affirmer qui a instigué ces opérations.

Du côté parisien, en revanche, Viginum constate que le site web de Pierre-Yves Bournazel a été usurpé, notamment pour diffuser une fausse vidéo du candidat dans laquelle ce dernier annonce qu’il voudrait fermer le centre Pompidou. L’entité a surtout repéré un compte X qu’elle connaissait déjà, et est capable de le relier au réseau Storm-1516, lié à la Russie.

Les ingérences électorales, menace désormais régulière

En mai 2025, sur la foi des travaux de Viginum, le Quai d’Orsay indiquait déjà avoir repéré au moins 20 opérations informationnelles de Storm-1516 visant différents scrutins en Europe et aux États-Unis. Sans être nécessairement le fait de ce réseau précis, les opérations de manipulation se sont multipliées dans l’espace informationnel français et européen, avec des effets plus ou moins importants selon les cas.

Pour des scrutins à échelle plus large, on se rappelle ainsi des élections présidentielles roumaines, réorganisées après des suspicions de manipulation du fonctionnement de TikTok, ou encore de diverses opérations en amont des élections européennes, pas toujours correctement modérées par les plateformes numériques.

Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

10 mars 2026 à 10:56
Faux comptes, vraie désinfo
Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Après les élections européennes ou présidentielles, les échéances municipales sont elles aussi le théâtre de campagnes de désinformation alimentées par des faux comptes. Leurs origines sont quelquefois traçables jusqu’à des commanditaires étrangers.

Un blog, des pages Facebook et des comptes X, des tracts placardés dans les rues, même, à l’effigie d’une certaine « Sophie ». À Marseille, le député Sébastien Delogu (La France Insoumise) a beau ne parvenir qu’en quatrième position dans les sondages, quelqu’un se donne beaucoup de mal pour l’attaquer en ligne, l’accusant de viol et de violences.

Sur Facebook, les publications ont enregistré beaucoup de commentaires et de réactions (j’aime, j’adore, etc), mais toutes sont fausses. Après enquête, Le Monde constate que l’essentiel vient de comptes installés en Asie.

À Toulouse et à Paris, d’autres candidats subissent aussi des tentatives d’attaques numériques. Dans la ville rose, un autre candidat LFI, François Piquemal, se voit accusé de pédocriminalité, ses positions sur la Palestine, moquées. À Paris, c’est Pierre-Yves Bournazel, candidat Horizons, qui a signalé à Viginum, le service de vigilance et protection contre les ingérences numériques du Secrétariat général de la Défense et de la Sécurité nationale, des publications sur X dont les propos attaquaient son image. Si aucune de ces campagnes n’a enregistré de grande viralité, toutes témoignent de tentatives de manipulation de l’information en amont des scrutins municipaux des 15 et 22 mars.

Commanditaires inconnus contre LFI, Storm-1516 contre Bournazel

Dans le cas des candidats LFI, dont le parti est lui aussi visé par un faux site intitulé « L’alternative 2026 », difficile de remonter jusqu’au commanditaire. Le Monde a repéré des similarités techniques entre les faux comptes payés pour tenter de viraliser les publications attaquant Sébastien Delogu, celles qui s’en prennent à François Piquemeal (y compris des deepfakes à caractère pornographique), ou encore le faux site suggérant que l’élection de candidats LFI aboutirait à l’instauration de la charia.

Tous recourent notamment à des images générées par Gemini, l’outil d’IA de Google, les sites web concernés s’appuient sur un même thème WordPress, et leurs noms de domaines sont enregistrés chez un seul et même fournisseur, localisé aux Bahamas. Le quotidien remarque bien que les comptes de réseaux sociaux qui diffusent les messages diffamatoires ont été utilisés par le passé pour publier des éléments relatifs à un scandale nigérian ou à la politique gabonaise, mais cela ne suggère pas grand-chose de plus que le recours à une société spécialisée dans les opérations de manipulation de l’information.

Le Monde remarque aussi que les comptes X utilisés dans ces opérations ont servi par le passé à diffuser les messages du lobby pro-israélien Elnet, en conflit ouvert avec LFI, et que Sébastien Delogu et François Piquemal sont au nombre des candidats LFI ayant le plus fortement souligné leur soutien à la population palestinienne et leur opposition aux opérations militaires d’Israël à Gaza. Mais à défaut de retrouver la société autrice des opérations d’influence, et de pouvoir remonter le fil de sa clientèle, difficile d’affirmer qui a instigué ces opérations.

Du côté parisien, en revanche, Viginum constate que le site web de Pierre-Yves Bournazel a été usurpé, notamment pour diffuser une fausse vidéo du candidat dans laquelle ce dernier annonce qu’il voudrait fermer le centre Pompidou. L’entité a surtout repéré un compte X qu’elle connaissait déjà, et est capable de le relier au réseau Storm-1516, lié à la Russie.

Les ingérences électorales, menace désormais régulière

En mai 2025, sur la foi des travaux de Viginum, le Quai d’Orsay indiquait déjà avoir repéré au moins 20 opérations informationnelles de Storm-1516 visant différents scrutins en Europe et aux États-Unis. Sans être nécessairement le fait de ce réseau précis, les opérations de manipulation se sont multipliées dans l’espace informationnel français et européen, avec des effets plus ou moins importants selon les cas.

Pour des scrutins à échelle plus large, on se rappelle ainsi des élections présidentielles roumaines, réorganisées après des suspicions de manipulation du fonctionnement de TikTok, ou encore de diverses opérations en amont des élections européennes, pas toujours correctement modérées par les plateformes numériques.

États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

10 mars 2026 à 08:28
Dis Siri, quel est le VPN qui fait le plus de publicité sur Youtube ?
États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Avec des chutes d’audience issue de Google allant de 7 à près de 70 % selon les titres étudiés, la presse états-unienne spécialisée dans le numérique subit de plein fouet l’introduction des résumés générés par IA et l’évolution des pratiques d’information, selon une analyse de Growtika.

Les médias ne seraient plus que des « fournisseurs de données » pour les constructeurs d’IA. Tel est du moins le message que Robert Thomson, directeur exécutif de News Corp, a fait passer la semaine dernière, alors que l’empire médiatique de Rupert Murdoch signait un contrat de licence sur ses contenus avec Meta.

Quoique cantonnée à la presse tech, une récente étude des effets des résumés IA de Google sur le trafic des médias tend à confirmer le propos. Menée par la société de SEO Growtica, l’analyse constate une chute drastique du trafic des 10 plus grands médias états-uniens spécialisés dans le numérique depuis que Google a ajouté un premier jet de réponse généré par IA en haut de ses pages de résultats.

Faute de pouvoir s’appuyer sur les chiffres internes des médias concernés, Growtika a collecté les estimations mensuelles de trafic de l’outil Ahrefs entre février 2024 et janvier 2026, pour dix titres phares de la presse technologique états-unienne. L’analyse ne porte donc que sur les audiences venues depuis Google, sans considération pour les éventuels produits et entrées annexes (newsletter, podcasts, trafic issu des réseaux sociaux, etc).

Ampleur de la chute contrastée selon le type de contenu

De The Verge à Tom’s Guide en passant par Digital trends ou Mashable, la société constate que sur la période, ces différents titres ont engrangé, en cumulé, 112 millions de visites lors de leur meilleur mois d’audience. En janvier 2026, en revanche, les dix titres analysés ont cumulé un total de 47 millions de visites. Une chute inévitable, puisque Growtika compare ce chiffre au cumul des meilleurs mois d’audience réalisés sur la période par les sites étudiés.

D’un titre à l’autre, les dynamiques diffèrent, néanmoins : sur les 23 mois précédent janvier 2026, The Verge enregistrait par exemple une moyenne de 2 540 185 visites mensuelles, contre 790 002 visite début 2026. Cela représente une chute de près de 69 % du trafic (et de 85 % lorsqu’on compare l’écart entre son meilleur mois d’audience et janvier 2026).

Sur la même période, Mashable enregistrait une moyenne de 12 174 522 visites, contre 11 331 018 début janvier, soit une chute de près de 7 % du trafic (de 30 % entre son meilleur mois d’audience, mai 2024, et janvier 2026). Pour Growtika, une partie des variations d’un exemple à l’autre s’explique par le type de contenu que produisent chacun de ces médias.

L’agence compare le meilleur mois (audience pic) des médias sur la période à janvier 2026, et met en avant des dynamiques qui varient selon la typologie de contenus produits – capture d’écran

Digital Trends, ZDNet, The Verge et surtout HowToGeek fournissent ainsi beaucoup d’information de service. Le dernier des quatre, qui ont tous enregistré une chute de visites de plus de 85 %, publie ainsi régulièrement des tutoriels de l’ordre de « comme prendre un screenshot sur Windows » ou « comment changer ses paramètres DNS », des questions auxquelles le service Overviews de Google fournit désormais directement des réponses.

Les plus épargnés, Mashable et PCMag (- 41 % entre juillet 2025 et janvier 2026), sont aussi de gros médias (plus de 12 millions de visites mensuelles lors de leur meilleur mois). Growtika souligne par ailleurs que Mashable produit des contenus plus orientés divertissement et culture, potentiellement plus complexes à résumer automatiquement, et PCMag fournit des critiques précises de produits. Mais ces éléments ne restent que des pistes hypothétiques d’explication.

L’intégrité de l’information en question

Growtika constate par ailleurs qu’avec 2,1 millions de visites, les audiences de quatre médias combinés ne dépassent pas celle du seul subreddit r/ChatGPT (4,69 millions de visites). Sans pouvoir établir de causalité directe entre l’effondrement du trafic et l’introduction des résumés dans les pages de résultat Google, la société souligne trois évolutions concomitantes sur la période observée.

Pour commencer, Google a donc déployé ses résumés dès la mi-2024. L’analyse constate que la chute de trafic la plus sévère à début mi-2025, lorsque Google a étendu le service à de plus nombreux types de réponses. Reddit, ensuite, a profité d’une amélioration nette du ranking de ses résultats, en particulier pour des recherches quotidiennes (« quel meilleur enregistreur d’écran », « meilleur vpn gratuit », etc) — l’entreprise, rappelons-le, a signé dès février 2024 un contrat permettant à Google d’entraîner ses IA à partir de ses forums.

Enfin, le succès des robots conversationnels comme ChatGPT, Claude ou Perplexity se traduit par une évolution simple d’usage : une partie du lectorat cherche directement ses informations auprès de ces outils plutôt qu’auprès des producteurs d’information. Outre capter une partie du trafic des médias, les résumés générés par IA soulèvent d’ailleurs le même type de questions relatives à la qualité de l’information fournie que les robots conversationnels.

Les grands modèles de langage qui permettent ce type de fonctionnalité produisent en effet régulièrement des erreurs (dites hallucinations). Autre problématique : ces textes peuvent présenter de nouveaux risques pour les internautes. Des scammeurs ont ainsi manipulé le service de Google pour fournir de fausses informations de contact aux internautes et leur soutirer des fonds.

États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

10 mars 2026 à 08:28
Dis Siri, quel est le VPN qui fait le plus de publicité sur Youtube ?
États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Avec des chutes d’audience issue de Google allant de 7 à près de 70 % selon les titres étudiés, la presse états-unienne spécialisée dans le numérique subit de plein fouet l’introduction des résumés générés par IA et l’évolution des pratiques d’information, selon une analyse de Growtika.

Les médias ne seraient plus que des « fournisseurs de données » pour les constructeurs d’IA. Tel est du moins le message que Robert Thomson, directeur exécutif de News Corp, a fait passer la semaine dernière, alors que l’empire médiatique de Rupert Murdoch signait un contrat de licence sur ses contenus avec Meta.

Quoique cantonnée à la presse tech, une récente étude des effets des résumés IA de Google sur le trafic des médias tend à confirmer le propos. Menée par la société de SEO Growtica, l’analyse constate une chute drastique du trafic des 10 plus grands médias états-uniens spécialisés dans le numérique depuis que Google a ajouté un premier jet de réponse généré par IA en haut de ses pages de résultats.

Faute de pouvoir s’appuyer sur les chiffres internes des médias concernés, Growtika a collecté les estimations mensuelles de trafic de l’outil Ahrefs entre février 2024 et janvier 2026, pour dix titres phares de la presse technologique états-unienne. L’analyse ne porte donc que sur les audiences venues depuis Google, sans considération pour les éventuels produits et entrées annexes (newsletter, podcasts, trafic issu des réseaux sociaux, etc).

Ampleur de la chute contrastée selon le type de contenu

De The Verge à Tom’s Guide en passant par Digital trends ou Mashable, la société constate que sur la période, ces différents titres ont engrangé, en cumulé, 112 millions de visites lors de leur meilleur mois d’audience. En janvier 2026, en revanche, les dix titres analysés ont cumulé un total de 47 millions de visites. Une chute inévitable, puisque Growtika compare ce chiffre au cumul des meilleurs mois d’audience réalisés sur la période par les sites étudiés.

D’un titre à l’autre, les dynamiques diffèrent, néanmoins : sur les 23 mois précédent janvier 2026, The Verge enregistrait par exemple une moyenne de 2 540 185 visites mensuelles, contre 790 002 visite début 2026. Cela représente une chute de près de 69 % du trafic (et de 85 % lorsqu’on compare l’écart entre son meilleur mois d’audience et janvier 2026).

Sur la même période, Mashable enregistrait une moyenne de 12 174 522 visites, contre 11 331 018 début janvier, soit une chute de près de 7 % du trafic (de 30 % entre son meilleur mois d’audience, mai 2024, et janvier 2026). Pour Growtika, une partie des variations d’un exemple à l’autre s’explique par le type de contenu que produisent chacun de ces médias.

L’agence compare le meilleur mois (audience pic) des médias sur la période à janvier 2026, et met en avant des dynamiques qui varient selon la typologie de contenus produits – capture d’écran

Digital Trends, ZDNet, The Verge et surtout HowToGeek fournissent ainsi beaucoup d’information de service. Le dernier des quatre, qui ont tous enregistré une chute de visites de plus de 85 %, publie ainsi régulièrement des tutoriels de l’ordre de « comme prendre un screenshot sur Windows » ou « comment changer ses paramètres DNS », des questions auxquelles le service Overviews de Google fournit désormais directement des réponses.

Les plus épargnés, Mashable et PCMag (- 41 % entre juillet 2025 et janvier 2026), sont aussi de gros médias (plus de 12 millions de visites mensuelles lors de leur meilleur mois). Growtika souligne par ailleurs que Mashable produit des contenus plus orientés divertissement et culture, potentiellement plus complexes à résumer automatiquement, et PCMag fournit des critiques précises de produits. Mais ces éléments ne restent que des pistes hypothétiques d’explication.

L’intégrité de l’information en question

Growtika constate par ailleurs qu’avec 2,1 millions de visites, les audiences de quatre médias combinés ne dépassent pas celle du seul subreddit r/ChatGPT (4,69 millions de visites). Sans pouvoir établir de causalité directe entre l’effondrement du trafic et l’introduction des résumés dans les pages de résultat Google, la société souligne trois évolutions concomitantes sur la période observée.

Pour commencer, Google a donc déployé ses résumés dès la mi-2024. L’analyse constate que la chute de trafic la plus sévère à début mi-2025, lorsque Google a étendu le service à de plus nombreux types de réponses. Reddit, ensuite, a profité d’une amélioration nette du ranking de ses résultats, en particulier pour des recherches quotidiennes (« quel meilleur enregistreur d’écran », « meilleur vpn gratuit », etc) — l’entreprise, rappelons-le, a signé dès février 2024 un contrat permettant à Google d’entraîner ses IA à partir de ses forums.

Enfin, le succès des robots conversationnels comme ChatGPT, Claude ou Perplexity se traduit par une évolution simple d’usage : une partie du lectorat cherche directement ses informations auprès de ces outils plutôt qu’auprès des producteurs d’information. Outre capter une partie du trafic des médias, les résumés générés par IA soulèvent d’ailleurs le même type de questions relatives à la qualité de l’information fournie que les robots conversationnels.

Les grands modèles de langage qui permettent ce type de fonctionnalité produisent en effet régulièrement des erreurs (dites hallucinations). Autre problématique : ces textes peuvent présenter de nouveaux risques pour les internautes. Des scammeurs ont ainsi manipulé le service de Google pour fournir de fausses informations de contact aux internautes et leur soutirer des fonds.

Reçu — 9 mars 2026 Actualités numériques

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

9 mars 2026 à 12:59


Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

9 mars 2026 à 12:59


Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

☕️ Ce que GPT-4o dit de l’attachement émotionnel à l’IA

9 mars 2026 à 10:55


S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

☕️ Ce que GPT-4o dit de l’attachement émotionnel à l’IA

9 mars 2026 à 10:55


S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

Reçu — 5 mars 2026 Actualités numériques

US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

5 mars 2026 à 14:30
Résister aux constructeurs d'IA
US : la dernière déclaration « pro-humaine sur l’IA » représente tous les bords politiques

Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.

Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés. 



L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).

Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.

Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Surveillance et non modération : le baby-sitting aussi implique des risques numériques

5 mars 2026 à 09:18


Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.

Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.

Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.

caméra de vidéosurveillance par Flock
Flock

Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.

Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.

En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.

☕️ Surveillance et non modération : le baby-sitting aussi implique des risques numériques

5 mars 2026 à 09:18

Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.

Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.

Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.

caméra de vidéosurveillance par Flock
Flock

Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.

Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.

En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.

Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

5 mars 2026 à 07:35
VLOP et OP sont dans un bateau
Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.

Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.

Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).

En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.

Rapport de transparence de Point de Contact / Capture d’écran

Signaleur de confiance… auprès des très grandes plateformes

En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.

Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.

Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».

L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.

Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.

Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.

Violences à caractère sexuel dans tous les espaces numériques 



Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.

Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.

Rapport de transparence de Point de Contact / Capture d’écran

En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.

En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.

Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.

Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».

Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».

Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.

Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

5 mars 2026 à 07:35
VLOP et OP sont dans un bateau
Diffusion non consentie d’images sexuelles : Point de Contact veut agir partout, plus vite

Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.

Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.

Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).

En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.

Rapport de transparence de Point de Contact / Capture d’écran

Signaleur de confiance… auprès des très grandes plateformes

En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.

Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.

Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».

L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.

Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.

Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.

Violences à caractère sexuel dans tous les espaces numériques 



Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.

Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.

Rapport de transparence de Point de Contact / Capture d’écran

En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.

En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.

Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.

Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».

Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».

Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.

Reçu — 4 mars 2026 Actualités numériques

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

4 mars 2026 à 10:48

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

4 mars 2026 à 10:48

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

4 mars 2026 à 09:56

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

4 mars 2026 à 09:56

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

Reçu — 2 mars 2026 Actualités numériques

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 16:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 16:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


2 mars 2026 à 16:23

Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

❌