Vue normale

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

4 mars 2026 à 10:48

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

4 mars 2026 à 09:56

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

❌