Vue normale

Reçu aujourd’hui — 15 septembre 2025

☕️ Sur TikTok, les idées masculinistes à portée de scroll

15 septembre 2025 à 13:55

Notations de femmes en fonction de leur physique, vocabulaire propre à la manosphère (mâles alpha, mâles sigma, incels, pour « célibataires involontaires », c’est-à-dire qui se considèrent seuls par la faute des femmes)…

Sur TikTok, les contenus à tendance misogyne, voire ouvertement masculinistes – c’est-à-dire considérant non seulement que le féminisme a pris trop de place, mais encore que la masculinité doit reprendre de l’ampleur, généralement en s’attaquant aux droits des femmes – sont facilement propulsés dans le fil d’actualité des adolescents.

Pour tenter d’établir la rapidité à laquelle un mineur peut se retrouver exposé à ce type de contenus, la RTBF a construit cinq profils fictifs d’adolescents de 15 ans, tous intéressés par la musculation. Le chercheur en criminologie Melvin Hasescic explique en effet au média belge qu’il existe un lien entre « l’hypermasculinité et l’antiféminisme » et « l’intensité de la pratique sportive ».

But de l’expérimentation : comprendre dans quelle mesure à quelle vitesse TikTok proposait des contenus masculinistes à des internautes qui, a priori, ne cherchaient qu’à trouver des conseils en matière de musculation. Pour la mener à bien, le média a constitué cinq faux profils likant et scrollant automatiquement du contenu en fonction de sujets pré-imposés.

TikTok

En moins de 10 minutes d’activité du faux profil nommé « Matteo », la machine opère un premier glissement de vidéo spécifiquement centrée sur la musculation vers des propos de l’ordre de la motivation. Des hommes seuls, dans un univers relativement inquiétant, appellent l’internaute à se dépasser, ce qui interroge déjà sur les effets de ces vidéos sur la santé mentale du public visé.

Au bout de 10 minutes supplémentaires, de premiers contenus masculinistes apparaissent, incitant l’usager à douter de l’existence d’amitiés hommes-femmes, de celle de choisir son orientation sexuelle, ou renforçant divers discours sexistes ou homophobes. En moins d’une heure, l’internaute s’est retrouvé projeté dans cet univers fait de références aux pilules bleues et rouges de Matrix, au cynisme du Joker dans Batman, ou encore à la série Peaky Blinders, dont certains courants masculinistes empruntent les codes vestimentaires.

L’expérience rappelle celles menées par la journaliste Pauline Ferrari, qui étudie dans son ouvrage Formés à la haine des femmes comment les idéologies masculinistes se sont répandues dans les mondes numériques.

Elle permet de constater à nouveau que les propos portés par les discours les plus extrêmes sont foncièrement violents, appelant au contrôle coercitif des « gonzesses » (qu’il faudrait « surveiller », en contrôlant leur tenue ou leurs mouvements), voire promeuvent agressions et crimes sexuels, comme le viol.

La tendance est d’autant plus inquiétante qu’elle peut constituer une forme de terrorisme, comme l’analyse la chercheuse Stéphanie Lamy. En France, au moins trois projets d’attentats masculinistes ont ainsi été déjoués en moins d’un an.

Si TikTok est loin d’être le seul espace où fleurissent ces idées, la plateforme a néanmoins pris un rôle particulier dans les travaux de l’Assemblée nationale. Les résultats de la Commission d’enquête lancés en mars sur ce sujet sont sans appel : il s’agit, selon ses rapporteurs, de l’un « des pires réseaux sociaux à l’assaut de notre jeunesse ».

☕️ Sur TikTok, les idées masculinistes à portée de scroll

15 septembre 2025 à 13:55

Notations de femmes en fonction de leur physique, vocabulaire propre à la manosphère (mâles alpha, mâles sigma, incels, pour « célibataires involontaires », c’est-à-dire qui se considèrent seuls par la faute des femmes)…

Sur TikTok, les contenus à tendance misogyne, voire ouvertement masculinistes – c’est-à-dire considérant non seulement que le féminisme a pris trop de place, mais encore que la masculinité doit reprendre de l’ampleur, généralement en s’attaquant aux droits des femmes – sont facilement propulsés dans le fil d’actualité des adolescents.

Pour tenter d’établir la rapidité à laquelle un mineur peut se retrouver exposé à ce type de contenus, la RTBF a construit cinq profils fictifs d’adolescents de 15 ans, tous intéressés par la musculation. Le chercheur en criminologie Melvin Hasescic explique en effet au média belge qu’il existe un lien entre « l’hypermasculinité et l’antiféminisme » et « l’intensité de la pratique sportive ».

But de l’expérimentation : comprendre dans quelle mesure à quelle vitesse TikTok proposait des contenus masculinistes à des internautes qui, a priori, ne cherchaient qu’à trouver des conseils en matière de musculation. Pour la mener à bien, le média a constitué cinq faux profils likant et scrollant automatiquement du contenu en fonction de sujets pré-imposés.

TikTok

En moins de 10 minutes d’activité du faux profil nommé « Matteo », la machine opère un premier glissement de vidéo spécifiquement centrée sur la musculation vers des propos de l’ordre de la motivation. Des hommes seuls, dans un univers relativement inquiétant, appellent l’internaute à se dépasser, ce qui interroge déjà sur les effets de ces vidéos sur la santé mentale du public visé.

Au bout de 10 minutes supplémentaires, de premiers contenus masculinistes apparaissent, incitant l’usager à douter de l’existence d’amitiés hommes-femmes, de celle de choisir son orientation sexuelle, ou renforçant divers discours sexistes ou homophobes. En moins d’une heure, l’internaute s’est retrouvé projeté dans cet univers fait de références aux pilules bleues et rouges de Matrix, au cynisme du Joker dans Batman, ou encore à la série Peaky Blinders, dont certains courants masculinistes empruntent les codes vestimentaires.

L’expérience rappelle celles menées par la journaliste Pauline Ferrari, qui étudie dans son ouvrage Formés à la haine des femmes comment les idéologies masculinistes se sont répandues dans les mondes numériques.

Elle permet de constater à nouveau que les propos portés par les discours les plus extrêmes sont foncièrement violents, appelant au contrôle coercitif des « gonzesses » (qu’il faudrait « surveiller », en contrôlant leur tenue ou leurs mouvements), voire promeuvent agressions et crimes sexuels, comme le viol.

La tendance est d’autant plus inquiétante qu’elle peut constituer une forme de terrorisme, comme l’analyse la chercheuse Stéphanie Lamy. En France, au moins trois projets d’attentats masculinistes ont ainsi été déjoués en moins d’un an.

Si TikTok est loin d’être le seul espace où fleurissent ces idées, la plateforme a néanmoins pris un rôle particulier dans les travaux de l’Assemblée nationale. Les résultats de la Commission d’enquête lancés en mars sur ce sujet sont sans appel : il s’agit, selon ses rapporteurs, de l’un « des pires réseaux sociaux à l’assaut de notre jeunesse ».

☕️ Birmanie : 100 000 personnes potentiellement forcées d’opérer des arnaques en ligne

15 septembre 2025 à 08:40

À la frontière entre la Birmanie et la Thaïlande, le long de la rivière Moei, un terrain hautement sécurisé de 210 hectares a poussé en quelques années. Il abrite le KK Park, un important complexe qui pourrait ressembler à un campus de la Silicon Valley, à ceci près qu’il héberge une activité criminelle entièrement basée sur le trafic d’êtres humains et des violences brutales.

Il y a quatre ans déjà, le Haut Commissariat des Nations Unies aux Droits de l’Homme (HCDH) sonnait l’alerte. Depuis 2021, l’entité relève une augmentation régulière des arnaques sentimentales ou à la micro-tâche et jeux illégaux en ligne, opérés par des personnes elles-mêmes privées de leurs droits. Et de constater en 2023 que la tendance avait été aggravée à la faveur de la pandémie de Covid-19.

D’après les informations du Guardian et de l’Australian Strategic Policy Institute (Aspi), le nombre de centres dédiés à ces activités illégales est passé de 11 à 27 en quatre ans le long de la frontière thaï. Des images prises par drones démontrent d’intenses activités de construction, qui permettent à ces espaces de grandir en moyenne de 5,5 hectares par mois, et de probables récepteurs internet par satellite, ce qui permettrait aux criminels de rester connectés quand bien même la Thaïlande a coupé la fourniture d’électricité, de gaz et de réseau à ces zones, pour tenter d’en freiner l’activité.

Évolution du KK Park tel que documenté par Google Earth, ASPI et The Guardian

La police thaï estime jusqu’à 100 000 le nombre de personnes issues de nombreux pays d’Asie et d’Afrique potentiellement enfermées et maltraitées dans ces espaces.

Début 2025, 7 000 d’entre elles, issues de Chine, d’Indonésie et d’autres pays, ont été libérées d’un de ces centres d’arnaques.

La Civil Society Network for Victim Assistance in Human Trafficking, une ONG thaïlandaise, est en contact avec 90 autres victimes de ce type de trafic, et affirme que certaines ont perdu la vue ou l’usage de certains membres à la suite des mauvais traitements subis sur place.

En Birmanie, la junte militaire a laissé ce type d’activités criminelles se développer, participant à propulser le pays en tête de la liste des pays accueillant le plus de crime organisé.

L’armée locale tire de ces activités de trafic et d’extorsions des financements pour tenter de maintenir son pouvoir déjà fragilisé à la tête de l’État.

☕️ Birmanie : 100 000 personnes potentiellement forcées d’opérer des arnaques en ligne

15 septembre 2025 à 08:40

À la frontière entre la Birmanie et la Thaïlande, le long de la rivière Moei, un terrain hautement sécurisé de 210 hectares a poussé en quelques années. Il abrite le KK Park, un important complexe qui pourrait ressembler à un campus de la Silicon Valley, à ceci près qu’il héberge une activité criminelle entièrement basée sur le trafic d’êtres humains et des violences brutales.

Il y a quatre ans déjà, le Haut Commissariat des Nations Unies aux Droits de l’Homme (HCDH) sonnait l’alerte. Depuis 2021, l’entité relève une augmentation régulière des arnaques sentimentales ou à la micro-tâche et jeux illégaux en ligne, opérés par des personnes elles-mêmes privées de leurs droits. Et de constater en 2023 que la tendance avait été aggravée à la faveur de la pandémie de Covid-19.

D’après les informations du Guardian et de l’Australian Strategic Policy Institute (Aspi), le nombre de centres dédiés à ces activités illégales est passé de 11 à 27 en quatre ans le long de la frontière thaï. Des images prises par drones démontrent d’intenses activités de construction, qui permettent à ces espaces de grandir en moyenne de 5,5 hectares par mois, et de probables récepteurs internet par satellite, ce qui permettrait aux criminels de rester connectés quand bien même la Thaïlande a coupé la fourniture d’électricité, de gaz et de réseau à ces zones, pour tenter d’en freiner l’activité.

Évolution du KK Park tel que documenté par Google Earth, ASPI et The Guardian

La police thaï estime jusqu’à 100 000 le nombre de personnes issues de nombreux pays d’Asie et d’Afrique potentiellement enfermées et maltraitées dans ces espaces.

Début 2025, 7 000 d’entre elles, issues de Chine, d’Indonésie et d’autres pays, ont été libérées d’un de ces centres d’arnaques.

La Civil Society Network for Victim Assistance in Human Trafficking, une ONG thaïlandaise, est en contact avec 90 autres victimes de ce type de trafic, et affirme que certaines ont perdu la vue ou l’usage de certains membres à la suite des mauvais traitements subis sur place.

En Birmanie, la junte militaire a laissé ce type d’activités criminelles se développer, participant à propulser le pays en tête de la liste des pays accueillant le plus de crime organisé.

L’armée locale tire de ces activités de trafic et d’extorsions des financements pour tenter de maintenir son pouvoir déjà fragilisé à la tête de l’État.

Reçu avant avant-hier

Sexiste, LinkedIn ? Des internautes tentent de craquer le fonctionnement de l’algorithme

8 septembre 2025 à 10:32
De quoi souhaitez-vous discuter ?
Sexiste, LinkedIn ? Des internautes tentent de craquer le fonctionnement de l’algorithme

Soupçonnant un fonctionnement biaisé du système de recommandation de LinkedIn, des communicants anglophones ont mené leur enquête. L’enjeu : comprendre si et comment la plateforme fait varier la visibilité des publications, dont la diffusion a des conséquences très concrètes sur leurs opportunités professionnelles.

« Est-ce que LinkedIn étouffe en douce la voix des femmes ? » Fin août, la publication a fait un petit buzz. Intégrant une présentation titrée « Qu’est-ce qui arrive lorsque les femmes et les hommes publient exactement la même chose sur LinkedIn ? », elle résume en huit pages une expérimentation menée par quatre internautes de langue anglaise, deux hommes et deux femmes.

Au milieu de l’été, une entrepreneuse états-unienne, Cindy Gallop (plus de 137 000 abonnés), une entrepreneuse et activiste britannique, Jane Evans (près de 17 000 abonnés), un spécialiste du marketing australien, Matt Lawton (8 661 abonnés) et son collègue installé à San Francisco Stephen McGinnis (728 abonnés) ont partagé la même publication à la même heure. Le but : évaluer dans quelle mesure leurs productions étaient montrées à leur audience LinkedIn.

Les résultats ont semblé éloquents : la publication de Cindy Gallop, la plus suivie de tous, n’a enregistré que 801 vues (0,6 % de ses abonnés), celle de Jane Evans, 1327 vues (8,3 % de ses abonnés), celle de Stephen McGinnis, 328 vues (51 % de ses abonnés) et celle de Matt Lawton, 10 409 vues (143 % de ses abonnés).

La communicante Samantha Katz résume les résultats constatés par ses collègues.

Les observant travailler à reproduire plus largement leur expérience, Next a contacté certains de ses instigateurs pour mieux comprendre les implications de ces baisses de diffusion.

Expérimentations sur algorithme de recommandation

Après une carrière dans la communication puis un détour dans le scénario, Jane Evans explique avoir subi une situation répandue, sur le marché du travail : « À cinquante ans passés, je suis devenue inemployable. » Refusant cet état de fait, la communicante s’est lancée à partir de 2019 dans l’activisme pour valoriser l’importance des femmes d’âge mûr sur le marché de l’emploi.

Après l’initiative Uninvisibility, aujourd’hui terminée, l’entrepreneuse désormais soixantenaire lance the 7th Tribe, un réseau social « dédié à échanger sur la manière d’utiliser les nouvelles technologies à notre avantage », dont elle prévoyait le lancement pour le printemps 2025. « Tout mon plan de communication était basé sur l’audience que j’avais construite sur LinkedIn. » Sauf qu’en mars, après la conférence de lancement de the 7th Tribe, ses espoirs s’écroulent : aucune de ses publications n’est diffusée à la hauteur de ce qu’elle parvenait à obtenir jusque-là de la plateforme.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Ce que Grok dit des biais politiques de l’IA générative

4 septembre 2025 à 12:00
Go (anti-)woke, go broke
Ce que Grok dit des biais politiques de l’IA générative

Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.

De quel bord politique est Grok, l’agent conversationnel de xAI disponible sur le réseau social X (ex-Twitter) ? Est-il « politiquement neutre », comme le clame son propriétaire Elon Musk ? A-t-il définitivement plongé dans le bain nauséabond des idées extrémistes de Musk ? En est-il au contraire devenu l’opposant, rétablissant les faits dès qu’on le lui demande ?

En l’occurrence, lorsqu’un utilisateur demande à la machine quel est le plus grand risque pour la civilisation occidentale, la machine a répondu le 10 juillet « la mésinformation et la désinformation ». En réponse, Elon Musk s’est excusé de cette « réponse idiote ». Le lendemain, Grok produisait un texte déclarant que le plus grand danger pour la civilisation occidentale concernait les « taux de fécondité », dans la droite ligne des préoccupations du multimilliardaire pour la procréation des personnes des pays du Nord, voire de son milieu social.

D’après des tests menés par le New York-Times avec l’Université de Chicago à partir de mai sur différentes versions de Grok, les réponses de la machine sur une quarantaine d’enjeux politiques ont effectivement évolué, vers la droite pour la plupart des sujets liés au gouvernement ou à l’économie. En revanche, pour un tiers des questions testées, notamment pour les sujets sociaux, les réponses ont évolué vers la gauche du champ politique.

Projections d’extrême-droite

À la voir produire des textes plein d’élucubrations sur un pseudo-génocide de Blancs en Afrique du Sud, des réponses déclarant la machine « sceptique » sur le nombre de juifs tués pendant la Shoah, voire lui attribuant le nom d’Hitler, on pourrait envisager Grok comme une machine à générer des contenus favorables à l’extrême-droite.

Le robot a d’ailleurs déjà produit des textes dans lesquels les lecteurs pourraient lire un soutien au Rassemblement national en France. Car rappelons-le, ces modèles restent des outils mathématiques sans conscience du sens de leurs propos ou images : ce sont les humains qui les lisent ou observent qui y projettent du sens.

Ce qui n’empêche pas Elon Musk lui-même d’évoquer la machine en l’anthropomorphisant. En l’occurrence, l’entrepreneur a indiqué chercher à la rendre « neutre politiquement » et « au maximum de la recherche de la vérité ».

Impossible neutralité algorithmique

Que ce soit en reconnaissance d’image, vocale, ou en génération de texte ou d’image, les systèmes statistiques développés dans le champ de l’intelligence artificielle contiennent toujours une forme ou une autre de biais, parce qu’un type de données ou un autre sera plus ou moins représenté que le reste dans le jeu d’entraînement.

Sur les sujets politiques, divers chercheurs constatent que les réponses produites par les modèles d’IA générative tendent à présenter un biais vers la gauche de l’échiquier politique. Comparé à la loi des États-Unis, par exemple, le refus par ChatGPT de générer des images à connotation conservatrice au motif que cette perspective pourrait « propager des stéréotypes, des informations erronées ou des préjugés » pourrait contrevenir au Premier Amendement de la Constitution, soulignait ainsi un article du Journal of Economic Behavior & Organization en juin.

D’après des chercheurs du MIT, ce déséquilibre serait d’autant plus présent lorsque les modèles sont entraînés sur des données factuelles. Une équipe internationale envisage de son côté que les formulations promues dans les chatbots, encourageant « l’équité et la gentillesse », pour reprendre les mots d’OpenAI, pouvait favoriser des réponses semblant soutenir les minorités et les problématiques qui leurs sont spécifiques.

Grok trop « woke » ?

Dans tous les cas, depuis son introduction au public en 2023, des internautes se plaignent régulièrement du fait que Grok soit trop « woke » à leur goût. Après les productions les plus virulentes du robot, en mai 2025, xAI a opéré plusieurs ajustements, dont un précisant que « La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, pour autant qu’elles soient bien étayées ». Alors que les mises à jour se multipliaient début juillet, le robot s’est emballé, jusqu’à se déclarer « MechaHitler ». En réaction, xAI a supprimé l’instruction relative au « politiquement incorrect ».

Relatives à la violence politique constatée aux États-Unis depuis 2016 (plutôt le fait de la droite ou de la gauche ?) ou au nombre de genres qui existent, d’autres réponses du robot ont agacé Elon Musk (ou d’autres internautes). L’une des mises à jour a donc consisté à intimer à la machine de « ne pas faire aveuglément confiance aux sources secondaires telles que les médias grand public ».

Dans les jours qui ont suivi, le New-York Times a constaté une hausse des réponses orientées à droite. D’ailleurs, mi-juillet, les instructions permettant à la machine de produire des textes « politiquement incorrects » ont été réintroduites. À nouveau modifiées au cours de l’été, les instructions de la machine ne mentionnent plus cet enjeu.

Aussi insatisfaisants soient-ils pour les internautes ou Elon Musk, ces tiraillements de ligne éditoriale ont aussi eu pour effet de pousser certaines employées de X vers la sortie. En juillet, l’ancienne PDG de X Linda Yaccarino a démissionné, citant notamment le comportement du robot.

X a été racheté par xAI, l’entité qui construit Grok, en mars. Cette dernière perd aussi des employés. Son directeur financier vient par exemple de quitter l’entreprise, quelques semaines après plusieurs juristes de xAI, et son cofondateur Igor Babuschkin.

Ce que Grok dit des biais politiques de l’IA générative

4 septembre 2025 à 12:00
Go (anti-)woke, go broke
Ce que Grok dit des biais politiques de l’IA générative

Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.

De quel bord politique est Grok, l’agent conversationnel de xAI disponible sur le réseau social X (ex-Twitter) ? Est-il « politiquement neutre », comme le clame son propriétaire Elon Musk ? A-t-il définitivement plongé dans le bain nauséabond des idées extrémistes de Musk ? En est-il au contraire devenu l’opposant, rétablissant les faits dès qu’on le lui demande ?

En l’occurrence, lorsqu’un utilisateur demande à la machine quel est le plus grand risque pour la civilisation occidentale, la machine a répondu le 10 juillet « la mésinformation et la désinformation ». En réponse, Elon Musk s’est excusé de cette « réponse idiote ». Le lendemain, Grok produisait un texte déclarant que le plus grand danger pour la civilisation occidentale concernait les « taux de fécondité », dans la droite ligne des préoccupations du multimilliardaire pour la procréation des personnes des pays du Nord, voire de son milieu social.

D’après des tests menés par le New York-Times avec l’Université de Chicago à partir de mai sur différentes versions de Grok, les réponses de la machine sur une quarantaine d’enjeux politiques ont effectivement évolué, vers la droite pour la plupart des sujets liés au gouvernement ou à l’économie. En revanche, pour un tiers des questions testées, notamment pour les sujets sociaux, les réponses ont évolué vers la gauche du champ politique.

Projections d’extrême-droite

À la voir produire des textes plein d’élucubrations sur un pseudo-génocide de Blancs en Afrique du Sud, des réponses déclarant la machine « sceptique » sur le nombre de juifs tués pendant la Shoah, voire lui attribuant le nom d’Hitler, on pourrait envisager Grok comme une machine à générer des contenus favorables à l’extrême-droite.

Le robot a d’ailleurs déjà produit des textes dans lesquels les lecteurs pourraient lire un soutien au Rassemblement national en France. Car rappelons-le, ces modèles restent des outils mathématiques sans conscience du sens de leurs propos ou images : ce sont les humains qui les lisent ou observent qui y projettent du sens.

Ce qui n’empêche pas Elon Musk lui-même d’évoquer la machine en l’anthropomorphisant. En l’occurrence, l’entrepreneur a indiqué chercher à la rendre « neutre politiquement » et « au maximum de la recherche de la vérité ».

Impossible neutralité algorithmique

Que ce soit en reconnaissance d’image, vocale, ou en génération de texte ou d’image, les systèmes statistiques développés dans le champ de l’intelligence artificielle contiennent toujours une forme ou une autre de biais, parce qu’un type de données ou un autre sera plus ou moins représenté que le reste dans le jeu d’entraînement.

Sur les sujets politiques, divers chercheurs constatent que les réponses produites par les modèles d’IA générative tendent à présenter un biais vers la gauche de l’échiquier politique. Comparé à la loi des États-Unis, par exemple, le refus par ChatGPT de générer des images à connotation conservatrice au motif que cette perspective pourrait « propager des stéréotypes, des informations erronées ou des préjugés » pourrait contrevenir au Premier Amendement de la Constitution, soulignait ainsi un article du Journal of Economic Behavior & Organization en juin.

D’après des chercheurs du MIT, ce déséquilibre serait d’autant plus présent lorsque les modèles sont entraînés sur des données factuelles. Une équipe internationale envisage de son côté que les formulations promues dans les chatbots, encourageant « l’équité et la gentillesse », pour reprendre les mots d’OpenAI, pouvait favoriser des réponses semblant soutenir les minorités et les problématiques qui leurs sont spécifiques.

Grok trop « woke » ?

Dans tous les cas, depuis son introduction au public en 2023, des internautes se plaignent régulièrement du fait que Grok soit trop « woke » à leur goût. Après les productions les plus virulentes du robot, en mai 2025, xAI a opéré plusieurs ajustements, dont un précisant que « La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, pour autant qu’elles soient bien étayées ». Alors que les mises à jour se multipliaient début juillet, le robot s’est emballé, jusqu’à se déclarer « MechaHitler ». En réaction, xAI a supprimé l’instruction relative au « politiquement incorrect ».

Relatives à la violence politique constatée aux États-Unis depuis 2016 (plutôt le fait de la droite ou de la gauche ?) ou au nombre de genres qui existent, d’autres réponses du robot ont agacé Elon Musk (ou d’autres internautes). L’une des mises à jour a donc consisté à intimer à la machine de « ne pas faire aveuglément confiance aux sources secondaires telles que les médias grand public ».

Dans les jours qui ont suivi, le New-York Times a constaté une hausse des réponses orientées à droite. D’ailleurs, mi-juillet, les instructions permettant à la machine de produire des textes « politiquement incorrects » ont été réintroduites. À nouveau modifiées au cours de l’été, les instructions de la machine ne mentionnent plus cet enjeu.

Aussi insatisfaisants soient-ils pour les internautes ou Elon Musk, ces tiraillements de ligne éditoriale ont aussi eu pour effet de pousser certaines employées de X vers la sortie. En juillet, l’ancienne PDG de X Linda Yaccarino a démissionné, citant notamment le comportement du robot.

X a été racheté par xAI, l’entité qui construit Grok, en mars. Cette dernière perd aussi des employés. Son directeur financier vient par exemple de quitter l’entreprise, quelques semaines après plusieurs juristes de xAI, et son cofondateur Igor Babuschkin.

Sites porno : la solution AgeGo enregistre les contenus auxquels accèdent les internautes

4 septembre 2025 à 09:00
Not so anon
Sites porno : la solution AgeGo enregistre les contenus auxquels accèdent les internautes

AgeGo, une solution espagnole déployée sur plusieurs sites pornographiques pour opérer de la vérification d’âge, enregistre les sites visités par les internautes avant même que ceux-ci n’aient lancé le processus de validation de leur majorité.

Début août, l’Arcom rendait obligatoire la vérification de l’âge des utilisateurs sur les sites pornographiques. Nous avons testé les solutions, il est non seulement très simple de se servir de ces outils, mais aussi de les contourner, voire de leur soumettre n’importe quoi.

Si cela peut prêter à sourire et à débattre du bien-fondé du recours à ce type de dispositif technique, une solution utilisée par plusieurs plateformes courues illustre un enjeu particulier : celui de la protection de la vie privée des usagers. D’après les analyses menées par AI Forensics, AgeGo récupère en effet des informations sur les sites et les pages exactes visitées par les internautes qui y font vérifier leur âge. Quant au flux vidéo de leur webcam, en cas de recours à la solution du selfie, il est envoyé directement vers l’outil Rekognition d’Amazon Web Services (AWS).

Login, selfie ou passage par un tiers

Les services d’AgeGo ont été déployés sur au moins six plateformes pornographiques, parmi lesquelles xvideos.com, tnaflix.com et xnxx.com. Sur son site web, AgeGo indique avoir été créée en 2019 et avoir des bureaux à Dublin, en Irlande, et Porto, au Portugal. Son siège est situé à Barcelone, en Espagne, dans les locaux d’Exogroup, une entité réunissant sept entreprises technologiques ou de l’industrie de la publicité en ligne.

Pour vérifier son âge en France, AgeGo propose trois options : s’identifier à un compte AgeGo, utiliser une estimation de l’âge en réalisant un selfie ou en recourant à une carte d’identité, et se connecter à l’application d’un autre fournisseur de vérification d’âge, Yoti. D’après sa politique de confidentialité, elle propose aussi, au Royaume-Uni, de s’identifier par SMS.

Auprès de l’internaute, le service présente ses options recourant au selfie ou à l’application tierce Yoti comme des solutions de « double anonymat », soit ce que l’Arcom impose. Comme le rappelle la CNIL, le double anonymat consiste à faire en sorte que le site auquel la personne accède n’ait pas connaissance de son identité, mais reçoive simplement la preuve de sa majorité, tandis que le tiers en charge de la vérification de l’âge connaît l’identité de la personne, mais pas les sites que celle-ci consulte.

« Double anonymat » très détaillé

Le problème, constate le chercheur Paul Bouchaud, consiste dans les pratiques d’AgeGo avant même que l’internaute ne consente à la politique en question, ou ne choisisse l’une des options de vérification d’âge proposée.

À ce stade, le navigateur de l’internaute envoie en effet une requête au serveur d’AgeGo, dans laquelle se retrouvent l’identifiant du site visité et l’URL de la vidéo exacte à laquelle l’internaute cherche à accéder. AgeGo produit ensuite un cookie qui code ces informations puis se retrouve inclus dans toutes les futures requêtes au serveur d’AgeGo. En substance, le fournisseur de vérification d’âge reçoit des informations précises sur les sites et les contenus spécifiques visités par les internautes.

À partir de ce 1er septembre, la société indique également que les flux vidéos collectés depuis la webcam de l’internaute seraient téléchargés directement sur les serveurs d’un service tiers. En l’occurrence, constate le chercheur d’AI Forensics, ce fournisseur est Amazon Web Services, par l’intermédiaire de son service de reconnaissance faciale Rekognition, qui permet à ses clients d’automatiser leurs analyses d’images et de vidéos. Outre ce flux, la technique de vérification de l’âge par reconnaissance faciale transmet en réalité l’adresse IP de l’usager et le fait qu’elle consulte des sites interdits aux moins de 18 ans.

Paul Bouchaud relève par ailleurs la présence d’un design trompeur (dark pattern) dans le fonctionnement d’AgeGo. Une fois la vérification d’âge effectuée, AgeGo oblige en effet l’internaute à créer un compte : ce n’est qu’une fois une adresse mail soumise au service qu’il ou elle peut accéder au site visé, un élément qui paraît superflu pour estimer l’âge de la personne.

Sites porno : la solution AgeGo enregistre les contenus auxquels accèdent les internautes

4 septembre 2025 à 09:00
Not so anon
Sites porno : la solution AgeGo enregistre les contenus auxquels accèdent les internautes

AgeGo, une solution espagnole déployée sur plusieurs sites pornographiques pour opérer de la vérification d’âge, enregistre les sites visités par les internautes avant même que ceux-ci n’aient lancé le processus de validation de leur majorité.

Début août, l’Arcom rendait obligatoire la vérification de l’âge des utilisateurs sur les sites pornographiques. Nous avons testé les solutions, il est non seulement très simple de se servir de ces outils, mais aussi de les contourner, voire de leur soumettre n’importe quoi.

Si cela peut prêter à sourire et à débattre du bien-fondé du recours à ce type de dispositif technique, une solution utilisée par plusieurs plateformes courues illustre un enjeu particulier : celui de la protection de la vie privée des usagers. D’après les analyses menées par AI Forensics, AgeGo récupère en effet des informations sur les sites et les pages exactes visitées par les internautes qui y font vérifier leur âge. Quant au flux vidéo de leur webcam, en cas de recours à la solution du selfie, il est envoyé directement vers l’outil Rekognition d’Amazon Web Services (AWS).

Login, selfie ou passage par un tiers

Les services d’AgeGo ont été déployés sur au moins six plateformes pornographiques, parmi lesquelles xvideos.com, tnaflix.com et xnxx.com. Sur son site web, AgeGo indique avoir été créée en 2019 et avoir des bureaux à Dublin, en Irlande, et Porto, au Portugal. Son siège est situé à Barcelone, en Espagne, dans les locaux d’Exogroup, une entité réunissant sept entreprises technologiques ou de l’industrie de la publicité en ligne.

Pour vérifier son âge en France, AgeGo propose trois options : s’identifier à un compte AgeGo, utiliser une estimation de l’âge en réalisant un selfie ou en recourant à une carte d’identité, et se connecter à l’application d’un autre fournisseur de vérification d’âge, Yoti. D’après sa politique de confidentialité, elle propose aussi, au Royaume-Uni, de s’identifier par SMS.

Auprès de l’internaute, le service présente ses options recourant au selfie ou à l’application tierce Yoti comme des solutions de « double anonymat », soit ce que l’Arcom impose. Comme le rappelle la CNIL, le double anonymat consiste à faire en sorte que le site auquel la personne accède n’ait pas connaissance de son identité, mais reçoive simplement la preuve de sa majorité, tandis que le tiers en charge de la vérification de l’âge connaît l’identité de la personne, mais pas les sites que celle-ci consulte.

« Double anonymat » très détaillé

Le problème, constate le chercheur Paul Bouchaud, consiste dans les pratiques d’AgeGo avant même que l’internaute ne consente à la politique en question, ou ne choisisse l’une des options de vérification d’âge proposée.

À ce stade, le navigateur de l’internaute envoie en effet une requête au serveur d’AgeGo, dans laquelle se retrouvent l’identifiant du site visité et l’URL de la vidéo exacte à laquelle l’internaute cherche à accéder. AgeGo produit ensuite un cookie qui code ces informations puis se retrouve inclus dans toutes les futures requêtes au serveur d’AgeGo. En substance, le fournisseur de vérification d’âge reçoit des informations précises sur les sites et les contenus spécifiques visités par les internautes.

À partir de ce 1er septembre, la société indique également que les flux vidéos collectés depuis la webcam de l’internaute seraient téléchargés directement sur les serveurs d’un service tiers. En l’occurrence, constate le chercheur d’AI Forensics, ce fournisseur est Amazon Web Services, par l’intermédiaire de son service de reconnaissance faciale Rekognition, qui permet à ses clients d’automatiser leurs analyses d’images et de vidéos. Outre ce flux, la technique de vérification de l’âge par reconnaissance faciale transmet en réalité l’adresse IP de l’usager et le fait qu’elle consulte des sites interdits aux moins de 18 ans.

Paul Bouchaud relève par ailleurs la présence d’un design trompeur (dark pattern) dans le fonctionnement d’AgeGo. Une fois la vérification d’âge effectuée, AgeGo oblige en effet l’internaute à créer un compte : ce n’est qu’une fois une adresse mail soumise au service qu’il ou elle peut accéder au site visé, un élément qui paraît superflu pour estimer l’âge de la personne.

☕️ Musique et IA : le « plus grand vol de propriété intellectuelle de l’histoire », pour l’ICMP

4 septembre 2025 à 07:23

Google, Microsoft et OpenAI, Meta, X… Certaines des plus grandes sociétés numériques de la planète ont commis le « plus grand vol de propriété intellectuelle de l’histoire », évalue le directeur général de la Confédération internationale des éditeurs de musique (ICMP).

Pendant deux ans, cet organisme représentant l’ensemble des majors, 76 associations commerciales et des milliers de labels indépendants s’est attelé à l’analyse de bases d’entraînement de systèmes d’IA en open source, de registres commerciaux, de travaux de recherches et d’experts et de documents ayant fuité. 
Elle a partagé les résultats de ces travaux auprès de Billboard, démontrant le recours de morceaux des Beatles, de Mariah Carey, de The Weeknd, Beyoncé, Ed Sheeran ou encore Bob Dylan.

Outre fournir des preuves « exhaustives et claires » de l’utilisation non autorisée de musique et d’images pour entraîner les systèmes génératifs, cette enquête démontre également que l’ampleur de l’entraînement réalisé sur ces contenus est plus large qu’envisagé précédemment.

Parmi ses résultats, l’ICMP constate que les applications de création de musique Udio et Suno ont récupéré illégalement des morceaux sous propriété intellectuelle disponibles sur YouTube, ou encore que les modèles Llama de Meta, Claude d’Anthropic, Copilot (Microsoft) et Gemini (Google), DeepSeek de la société du même nom et l’application Jukebox d’Open AI avaient tous été entraînés sur des morceaux signés Childish Gambino pour le premier, Lynyrd Skynyrd pour le deuxième, Jay Z pour le troisième, Michael Jackson, Elton John, et ainsi de suite pour les suivants.

Par ailleurs, des modèles de génération d’image comme Midjourney copient et génèrent des répliques directes de couvertures d’albums de Gorillaz, Dr. Dre et d’autres artistes.

Installée à Bruxelles, l’ICMP a partagé des éléments de ses recherches avec divers gouvernements au fil des 18 derniers mois.

« Ce n’est pas un crime sans victime », déclare un porte-parole de Concord à Billboard. Décrivant le détournement de flux de redevances créé par ce système, la personne ajoute : « Même si les paroles générées par les grands modèles de langage n’auront peut-être jamais la créativité d’un être humain (…) leur ampleur et leur économie vont nuire à la motivation de créer de nouvelles œuvres artistiques, qui est la mission fondamentale du droit d’auteur. »

☕️ Musique et IA : le « plus grand vol de propriété intellectuelle de l’histoire », pour l’ICMP

4 septembre 2025 à 07:23

Google, Microsoft et OpenAI, Meta, X… Certaines des plus grandes sociétés numériques de la planète ont commis le « plus grand vol de propriété intellectuelle de l’histoire », évalue le directeur général de la Confédération internationale des éditeurs de musique (ICMP).

Pendant deux ans, cet organisme représentant l’ensemble des majors, 76 associations commerciales et des milliers de labels indépendants s’est attelé à l’analyse de bases d’entraînement de systèmes d’IA en open source, de registres commerciaux, de travaux de recherches et d’experts et de documents ayant fuité. 
Elle a partagé les résultats de ces travaux auprès de Billboard, démontrant le recours de morceaux des Beatles, de Mariah Carey, de The Weeknd, Beyoncé, Ed Sheeran ou encore Bob Dylan.

Outre fournir des preuves « exhaustives et claires » de l’utilisation non autorisée de musique et d’images pour entraîner les systèmes génératifs, cette enquête démontre également que l’ampleur de l’entraînement réalisé sur ces contenus est plus large qu’envisagé précédemment.

Parmi ses résultats, l’ICMP constate que les applications de création de musique Udio et Suno ont récupéré illégalement des morceaux sous propriété intellectuelle disponibles sur YouTube, ou encore que les modèles Llama de Meta, Claude d’Anthropic, Copilot (Microsoft) et Gemini (Google), DeepSeek de la société du même nom et l’application Jukebox d’Open AI avaient tous été entraînés sur des morceaux signés Childish Gambino pour le premier, Lynyrd Skynyrd pour le deuxième, Jay Z pour le troisième, Michael Jackson, Elton John, et ainsi de suite pour les suivants.

Par ailleurs, des modèles de génération d’image comme Midjourney copient et génèrent des répliques directes de couvertures d’albums de Gorillaz, Dr. Dre et d’autres artistes.

Installée à Bruxelles, l’ICMP a partagé des éléments de ses recherches avec divers gouvernements au fil des 18 derniers mois.

« Ce n’est pas un crime sans victime », déclare un porte-parole de Concord à Billboard. Décrivant le détournement de flux de redevances créé par ce système, la personne ajoute : « Même si les paroles générées par les grands modèles de langage n’auront peut-être jamais la créativité d’un être humain (…) leur ampleur et leur économie vont nuire à la motivation de créer de nouvelles œuvres artistiques, qui est la mission fondamentale du droit d’auteur. »

☕️ Disney paiera 10 millions de dollars à la FTC pour avoir collecté des données de mineurs

3 septembre 2025 à 09:39

Accusé par la Federal Trade Commission (FTC) d’avoir étiqueté des dessins animés de manière trompeuse sur YouTube pour collecter illégalement les données personnelles de leur jeune public, Disney a accepté de payer 10 millions de dollars pour éviter de se retrouver au tribunal.

La FTC reproche à Disney de ne pas avoir placé le label « Made for Kids » (fait pour les enfants) sur les vidéos correspondantes, quand bien même ce type d’étiquetage rend certaines fonctionnalités, dont celles de collecte d’informations personnelles, inapplicables aux vidéos concernées.

Ne pas recourir à cet outil créé par YouTube pour éviter le ciblage de mineurs avec des publicités personnalisées a eu pour effet de voir des films comme « Toy Story » ou « Frozen » taggés « Not Made for Kids ».

Outre la collecte de données rendue possible pour Disney, cela signifie par exemple que l’autoplay de YouTube était activé.

Le coin gauche d'un écran d'ordinateur est ouvert sur une page YouTube.

YouTube a créé son système de labellisation en 2018, après le règlement d’une autre affaire ouverte par la FTC, selon lequel la plateforme aurait, elle aussi, violé la Children’s Online Privacy Protection (COPPA) Rule, une loi qui demande le consentement des parents pour collecter des informations sur les enfants de moins de 13 ans.

Outre son amende de 10 millions de dollars, Disney doit désormais récupérer le consentement parental pour collecter des informations sur son public de moins de 10 ans et créer un programme pour s’assurer que ses vidéos sont correctement étiquetées.

☕️ Disney paiera 10 millions de dollars à la FTC pour avoir collecté des données de mineurs

3 septembre 2025 à 09:39

Accusé par la Federal Trade Commission (FTC) d’avoir étiqueté des dessins animés de manière trompeuse sur YouTube pour collecter illégalement les données personnelles de leur jeune public, Disney a accepté de payer 10 millions de dollars pour éviter de se retrouver au tribunal.

La FTC reproche à Disney de ne pas avoir placé le label « Made for Kids » (fait pour les enfants) sur les vidéos correspondantes, quand bien même ce type d’étiquetage rend certaines fonctionnalités, dont celles de collecte d’informations personnelles, inapplicables aux vidéos concernées.

Ne pas recourir à cet outil créé par YouTube pour éviter le ciblage de mineurs avec des publicités personnalisées a eu pour effet de voir des films comme « Toy Story » ou « Frozen » taggés « Not Made for Kids ».

Outre la collecte de données rendue possible pour Disney, cela signifie par exemple que l’autoplay de YouTube était activé.

Le coin gauche d'un écran d'ordinateur est ouvert sur une page YouTube.

YouTube a créé son système de labellisation en 2018, après le règlement d’une autre affaire ouverte par la FTC, selon lequel la plateforme aurait, elle aussi, violé la Children’s Online Privacy Protection (COPPA) Rule, une loi qui demande le consentement des parents pour collecter des informations sur les enfants de moins de 13 ans.

Outre son amende de 10 millions de dollars, Disney doit désormais récupérer le consentement parental pour collecter des informations sur son public de moins de 10 ans et créer un programme pour s’assurer que ses vidéos sont correctement étiquetées.

Chez Meta, la valse des équipes dédiées à l’IA continue

2 septembre 2025 à 15:09
IA quoi ?
Chez Meta, la valse des équipes dédiées à l’IA continue

Après avoir réorganisé à grand bruit ses équipes pour créer un Superintelligence Labs, Meta voit plusieurs de ses employés quitter ou menacer de quitter ses équipes, quelques semaines à peine après y être entrés.

Que se passe-t-il chez Meta ? Après avoir proposé des packages de plusieurs dizaines de millions de dollars pour débaucher des ingénieurs des équipes d’Apple, d’OpenAI ou encore d’Anthropic, voilà que la société de Mark Zuckerberg fait face à une fronde de ses nouvelles équipes.

Réorganisation en profondeur

Dans les mois récents, la société a déclaré investir des centaines de milliards de dollars dans des datacenters pensés pour développer de l’intelligence artificielle, et créer un nouveau Meta Superintelligence Labs.

Après avoir embauché plus de 50 personnes dans le domaine, l’entreprise a gelé mi-août ses embauches dédiées à l’IA et empêché les employés de changer d’équipes en interne. D’après un porte-parole de l’entreprise interrogé par le Wall Street Journal, ce type de procédure est classique pour « créer une structure solide ». Et de préciser qu’une forme d’attrition est « normale pour toute entreprise de cette taille ».

Plusieurs spécialistes de l’IA quittent le navire

Quelques jours à peine après son arrivée sur place, Shengjia Zhao, co-créateur de ChatGPT chez OpenAI, menaçait pourtant de retourner chez son employeur précédent. D’après les informations du Financial Times, l’ingénieur est allé jusqu’à signer de nouveaux documents administratifs d’emploi chez OpenAI avant de se voir attribuer le titre de « directeur scientifique en IA » chez Meta.

Avant Shengjia Zhao, plusieurs autres personnes récemment embauchées pour construire le Superintelligence Labs ont déjà tourné casaque. C’est le cas, par exemple, de l’expert en machine learning Ethan Knight, d’Avi Verma, ancien chercheur de chez OpenAI, ou de Rishabh Agarwal, scientifique qui avait rejoint Meta en avril.

Des profils plus anciens s’en vont aussi. Ainsi de Chaya Nayak et Loredana Crisan, qui avaient rejoint les équipes dédiées à l’IA générative mais étaient dans l’entreprise depuis 9 et 10 ans, l’ont quittée dans les dernières semaines. Chaya Nayak a rejoint… OpenAI.

Valse managériale

Meta a annoncé en août faire évoluer ses projets de développement de l’IA en quatre équipes distinctes – la quatrième modification de ce type en six mois. L’une, dédiée à la « superintelligence », est nommée « TBD Lab » (pour « to be determined », ce qui signifie que son nom définitif est encore en discussion). Une autre est dédiée aux produits d’IA, une troisième à l’infrastructure et la dernière aux projets de plus long terme.

Alexandr Wang, le cofondateur de Scale AI débauché en juin, dirigerait le TBD Lab, dédié à créer de nouveaux modèles, alors que l’entreprise a renoncé à rendre son grand modèle Llama Behemoth accessible au public.

Mark Zuckerberg reste très investi dans les projets de l’entreprise dédiés à l’IA, au point que certaines sources du Financial Times évoquent des formes de « micro-management ».

Des personnalités présentes dans l’entreprise depuis plusieurs années se retrouvent par ailleurs touchées par ces évolutions. Yann Le Cun, par exemple, reste directeur scientifique de l’intelligence artificielle de Meta, mais se retrouve désormais sous les ordres d’Alexandr Wang. Quant à Chris Cox, le directeur produit sur lequel Mark Zuckerberg s’est longuement appuyé, il garde le titre, mais doit lui aussi désormais s’en remettre à Alexandr Wang, et perd du même coup la gestion des produits d’IA générative.

Chez Meta, la valse des équipes dédiées à l’IA continue

2 septembre 2025 à 15:09
IA quoi ?
Chez Meta, la valse des équipes dédiées à l’IA continue

Après avoir réorganisé à grand bruit ses équipes pour créer un Superintelligence Labs, Meta voit plusieurs de ses employés quitter ou menacer de quitter ses équipes, quelques semaines à peine après y être entrés.

Que se passe-t-il chez Meta ? Après avoir proposé des packages de plusieurs dizaines de millions de dollars pour débaucher des ingénieurs des équipes d’Apple, d’OpenAI ou encore d’Anthropic, voilà que la société de Mark Zuckerberg fait face à une fronde de ses nouvelles équipes.

Réorganisation en profondeur

Dans les mois récents, la société a déclaré investir des centaines de milliards de dollars dans des datacenters pensés pour développer de l’intelligence artificielle, et créer un nouveau Meta Superintelligence Labs.

Après avoir embauché plus de 50 personnes dans le domaine, l’entreprise a gelé mi-août ses embauches dédiées à l’IA et empêché les employés de changer d’équipes en interne. D’après un porte-parole de l’entreprise interrogé par le Wall Street Journal, ce type de procédure est classique pour « créer une structure solide ». Et de préciser qu’une forme d’attrition est « normale pour toute entreprise de cette taille ».

Plusieurs spécialistes de l’IA quittent le navire

Quelques jours à peine après son arrivée sur place, Shengjia Zhao, co-créateur de ChatGPT chez OpenAI, menaçait pourtant de retourner chez son employeur précédent. D’après les informations du Financial Times, l’ingénieur est allé jusqu’à signer de nouveaux documents administratifs d’emploi chez OpenAI avant de se voir attribuer le titre de « directeur scientifique en IA » chez Meta.

Avant Shengjia Zhao, plusieurs autres personnes récemment embauchées pour construire le Superintelligence Labs ont déjà tourné casaque. C’est le cas, par exemple, de l’expert en machine learning Ethan Knight, d’Avi Verma, ancien chercheur de chez OpenAI, ou de Rishabh Agarwal, scientifique qui avait rejoint Meta en avril.

Des profils plus anciens s’en vont aussi. Ainsi de Chaya Nayak et Loredana Crisan, qui avaient rejoint les équipes dédiées à l’IA générative mais étaient dans l’entreprise depuis 9 et 10 ans, l’ont quittée dans les dernières semaines. Chaya Nayak a rejoint… OpenAI.

Valse managériale

Meta a annoncé en août faire évoluer ses projets de développement de l’IA en quatre équipes distinctes – la quatrième modification de ce type en six mois. L’une, dédiée à la « superintelligence », est nommée « TBD Lab » (pour « to be determined », ce qui signifie que son nom définitif est encore en discussion). Une autre est dédiée aux produits d’IA, une troisième à l’infrastructure et la dernière aux projets de plus long terme.

Alexandr Wang, le cofondateur de Scale AI débauché en juin, dirigerait le TBD Lab, dédié à créer de nouveaux modèles, alors que l’entreprise a renoncé à rendre son grand modèle Llama Behemoth accessible au public.

Mark Zuckerberg reste très investi dans les projets de l’entreprise dédiés à l’IA, au point que certaines sources du Financial Times évoquent des formes de « micro-management ».

Des personnalités présentes dans l’entreprise depuis plusieurs années se retrouvent par ailleurs touchées par ces évolutions. Yann Le Cun, par exemple, reste directeur scientifique de l’intelligence artificielle de Meta, mais se retrouve désormais sous les ordres d’Alexandr Wang. Quant à Chris Cox, le directeur produit sur lequel Mark Zuckerberg s’est longuement appuyé, il garde le titre, mais doit lui aussi désormais s’en remettre à Alexandr Wang, et perd du même coup la gestion des produits d’IA générative.

Cambricon, Alibaba : la course à l’IA tire les résultats de plusieurs géants chinois

2 septembre 2025 à 14:09
How to make it in China
Cambricon, Alibaba : la course à l’IA tire les résultats de plusieurs géants chinois

Dans un contexte de tensions soutenues entre la Chine et les États-Unis, les marchés saluent les résultats de sociétés comme Cambricon ou Alibaba, tirés par la course à l’IA.

Avec la rentrée vient la saison des résultats trimestriels des entreprises cotées en bourse, l’occasion d’observer la manière dont les investisseurs envisagent les sociétés chinoises. La politique de Donald Trump est de plus en plus fréquemment qualifiée d’« incohérente », voire de favorable à Xi Jinping. De son côté, le gouvernement chinois encourage ses entreprises à développer leurs propres puces électroniques pour réduire leur dépendance aux États-Unis dans la course à l’intelligence artificielle.

Dans ce contexte, les marchés asiatiques sont restés hésitants, fin août, dans l’attente des résultats du leader états-unien des semi-conducteurs, Nvidia. Depuis, le fabricant chinois Cambricon Technologies Corp Ltd a annoncé un bénéfice record sur le premier semestre 2025, tandis que les cours de Semiconductor Manifacturing International Corp, qui écoule le plus gros volume de puces chinoises, et de Hua Hong Semiconductor Ltd grimpaient de quelques points.

Quand bien même les sociétés chinoises sont décrites comme loin de pouvoir rivaliser avec les meilleurs microprocesseurs américains, elles travaillent à construire de quoi remplacer les H20, les puces de Nvidia les plus performantes que la société soit autorisée à exporter sur place. Investie, elle aussi, dans ce type de projet, et fournisseuse d’outils d’IA via ses services cloud, Alibaba a de son côté dévoilé des résultats trimestriels qui ont fait bondir son cours de bourse.

Cambricon et Alibaba, tirés par la bataille de l’IA

S’il est une société à suivre dans la bataille commerciale et technologique que se livrent les États-Unis et la Chine, c’est probablement Cambricon Technologies. Fondée en 2015 par deux frères, Chen Yunji et Chen Tianshi, Cambricon s’est retrouvée en grandes difficultés fin 2022, quand Washington l’a ajoutée à sa liste de restrictions commerciales, l’empêchant de recourir à des technologies états-uniennes et aux services de fonderie du leader taïwanais TSMC.

En ce mois de septembre 2025, en revanche, la société a rapporté un bénéfice de 1,03 milliard de yuans contre une perte de 533 millions de yuans l’année précédente, une évolution permise par une multiplication de son chiffre d’affaires par 44.

Envisagée comme l’un des leviers de l’indépendance chinoise en matière de puces d’IA, Cambricon a ainsi atteint une valorisation de 70 milliards de dollars, soit 70 % de la valorisation d’Intel (107 milliards de dollars, 92 milliards d’euros), calcule le South China Morning Post. Et ce, en neuf ans d’existence, quand le géant américain – aujourd’hui en difficulté – y est parvenu en trois fois plus de temps.

Ce 1ᵉʳ septembre, le cours d’Alibaba a lui aussi bondi après que la société a publié de bons résultats trimestriels et dévoilé de premières informations sur le développement de sa nouvelle puce dédiée à l’IA. Le géant du commerce en ligne rapporte un chiffre d’affaires de 247,65 milliards de yuans (29,85 milliards d’euros), en augmentation de 2 % sur un an, tirée notamment par l’augmentation de 26 % du chiffre d’affaires issu des ventes cloud.

Comme la plupart des géants numériques chinois et états-uniens, Alibaba investit clairement dans ses infrastructures d’IA, développe ses propres modèles, et vend ses services d’IA avec les offres cloud en question, relève CNBC. En l’occurrence, T-head, son unité de développement de semi-conducteurs, développe une nouvelle puce spécifiquement dédiée à l’IA. Alibaba prévoit d’y investir 380 milliards de yuans (45,8 milliards d’euros).

ByteDance, première société de réseau social en chiffre d’affaires

Sur le marché des réseaux sociaux aussi, valeurs chinoises et américaines s’opposent. Les résultats de ByteDance, la maison mère de TikTok, ont en effet grimpé de 25 % d’une année sur l’autre, dépassant les 48 milliards de dollars (41,27 milliards d’euros), relevait Reuters fin août. C’est le deuxième trimestre d’affilée que son chiffre d’affaires dépasse celui de Meta, poussant ByteDance à la première position des sociétés de réseaux sociaux.

La société chinoise prévoit par ailleurs un programme de rachat d’actions à destination de ses employés pour le mois d’octobre. L’opération devrait porter sa valorisation à 330 milliards de dollars (283,59 milliards d’euros), encore loin derrière les 1 600 milliards de dollars de capitalisation de Meta.

Cambricon, Alibaba : la course à l’IA tire les résultats de plusieurs géants chinois

2 septembre 2025 à 14:09
How to make it in China
Cambricon, Alibaba : la course à l’IA tire les résultats de plusieurs géants chinois

Dans un contexte de tensions soutenues entre la Chine et les États-Unis, les marchés saluent les résultats de sociétés comme Cambricon ou Alibaba, tirés par la course à l’IA.

Avec la rentrée vient la saison des résultats trimestriels des entreprises cotées en bourse, l’occasion d’observer la manière dont les investisseurs envisagent les sociétés chinoises. La politique de Donald Trump est de plus en plus fréquemment qualifiée d’« incohérente », voire de favorable à Xi Jinping. De son côté, le gouvernement chinois encourage ses entreprises à développer leurs propres puces électroniques pour réduire leur dépendance aux États-Unis dans la course à l’intelligence artificielle.

Dans ce contexte, les marchés asiatiques sont restés hésitants, fin août, dans l’attente des résultats du leader états-unien des semi-conducteurs, Nvidia. Depuis, le fabricant chinois Cambricon Technologies Corp Ltd a annoncé un bénéfice record sur le premier semestre 2025, tandis que les cours de Semiconductor Manifacturing International Corp, qui écoule le plus gros volume de puces chinoises, et de Hua Hong Semiconductor Ltd grimpaient de quelques points.

Quand bien même les sociétés chinoises sont décrites comme loin de pouvoir rivaliser avec les meilleurs microprocesseurs américains, elles travaillent à construire de quoi remplacer les H20, les puces de Nvidia les plus performantes que la société soit autorisée à exporter sur place. Investie, elle aussi, dans ce type de projet, et fournisseuse d’outils d’IA via ses services cloud, Alibaba a de son côté dévoilé des résultats trimestriels qui ont fait bondir son cours de bourse.

Cambricon et Alibaba, tirés par la bataille de l’IA

S’il est une société à suivre dans la bataille commerciale et technologique que se livrent les États-Unis et la Chine, c’est probablement Cambricon Technologies. Fondée en 2015 par deux frères, Chen Yunji et Chen Tianshi, Cambricon s’est retrouvée en grandes difficultés fin 2022, quand Washington l’a ajoutée à sa liste de restrictions commerciales, l’empêchant de recourir à des technologies états-uniennes et aux services de fonderie du leader taïwanais TSMC.

En ce mois de septembre 2025, en revanche, la société a rapporté un bénéfice de 1,03 milliard de yuans contre une perte de 533 millions de yuans l’année précédente, une évolution permise par une multiplication de son chiffre d’affaires par 44.

Envisagée comme l’un des leviers de l’indépendance chinoise en matière de puces d’IA, Cambricon a ainsi atteint une valorisation de 70 milliards de dollars, soit 70 % de la valorisation d’Intel (107 milliards de dollars, 92 milliards d’euros), calcule le South China Morning Post. Et ce, en neuf ans d’existence, quand le géant américain – aujourd’hui en difficulté – y est parvenu en trois fois plus de temps.

Ce 1ᵉʳ septembre, le cours d’Alibaba a lui aussi bondi après que la société a publié de bons résultats trimestriels et dévoilé de premières informations sur le développement de sa nouvelle puce dédiée à l’IA. Le géant du commerce en ligne rapporte un chiffre d’affaires de 247,65 milliards de yuans (29,85 milliards d’euros), en augmentation de 2 % sur un an, tirée notamment par l’augmentation de 26 % du chiffre d’affaires issu des ventes cloud.

Comme la plupart des géants numériques chinois et états-uniens, Alibaba investit clairement dans ses infrastructures d’IA, développe ses propres modèles, et vend ses services d’IA avec les offres cloud en question, relève CNBC. En l’occurrence, T-head, son unité de développement de semi-conducteurs, développe une nouvelle puce spécifiquement dédiée à l’IA. Alibaba prévoit d’y investir 380 milliards de yuans (45,8 milliards d’euros).

ByteDance, première société de réseau social en chiffre d’affaires

Sur le marché des réseaux sociaux aussi, valeurs chinoises et américaines s’opposent. Les résultats de ByteDance, la maison mère de TikTok, ont en effet grimpé de 25 % d’une année sur l’autre, dépassant les 48 milliards de dollars (41,27 milliards d’euros), relevait Reuters fin août. C’est le deuxième trimestre d’affilée que son chiffre d’affaires dépasse celui de Meta, poussant ByteDance à la première position des sociétés de réseaux sociaux.

La société chinoise prévoit par ailleurs un programme de rachat d’actions à destination de ses employés pour le mois d’octobre. L’opération devrait porter sa valorisation à 330 milliards de dollars (283,59 milliards d’euros), encore loin derrière les 1 600 milliards de dollars de capitalisation de Meta.

☕️ Le CEO de Salesforce déclare avoir remplacé 4 000 emplois de service client par de l’IA

2 septembre 2025 à 09:06

Le PDG de Salesforce Marc Benioff indique avoir licencié 4000 personnes employées à des tâches de service client après avoir déployé un nombre croissant d’agents d’intelligence artificielle. 


Invité sur le podcast The Logan Bartlett Show, le dirigeant d’entreprise indique avoir réduit ses équipes de service client de près de moitié, de 9 000 à 5 000 personnes, a repéré le San Francisco Chronicle.

Illustration chimérique d'internautes
User/Chimera – Clarote & AI4Media – Better Images of AI

Il décrit un mouvement de réorganisation du géant du logiciel, dans laquelle une partie de ces effectifs seraient redistribués du côté des ventes.

Avec 76 000 employés à travers la planète, Salesforce recourt aussi à l’IA agentique pour fluidifier ses relations clients, indique Marc Benioff.

☕️ Le CEO de Salesforce déclare avoir remplacé 4 000 emplois de service client par de l’IA

2 septembre 2025 à 09:06

Le PDG de Salesforce Marc Benioff indique avoir licencié 4000 personnes employées à des tâches de service client après avoir déployé un nombre croissant d’agents d’intelligence artificielle. 


Invité sur le podcast The Logan Bartlett Show, le dirigeant d’entreprise indique avoir réduit ses équipes de service client de près de moitié, de 9 000 à 5 000 personnes, a repéré le San Francisco Chronicle.

Illustration chimérique d'internautes
User/Chimera – Clarote & AI4Media – Better Images of AI

Il décrit un mouvement de réorganisation du géant du logiciel, dans laquelle une partie de ces effectifs seraient redistribués du côté des ventes.

Avec 76 000 employés à travers la planète, Salesforce recourt aussi à l’IA agentique pour fluidifier ses relations clients, indique Marc Benioff.

La Russie soupçonnée d’être derrière le brouillage GPS de l’avion d’Ursula von der Leyen

1 septembre 2025 à 14:33
We're jammin', jammin'
La Russie soupçonnée d’être derrière le brouillage GPS de l’avion d’Ursula von der Leyen

Un avion transportant la présidente de la Commission européenne a été victime d’un brouillage GPS ce 31 août. Les représentants européens suspectent la Russie d’en être l’autrice. 


Dimanche 31 août, un avion transportant la présidente de la Commission européenne Ursula von der Leyen vers Plovdiv, en Bulgarie, s’est brusquement retrouvé privé de son système d’assistance électronique de navigation.

« Le GPS de toute la zone aéroportuaire s’est retrouvé éteint », explique un des trois fonctionnaires avec lesquels s’est entretenu le Financial Times. Après avoir fait des tours de l’aéroport pendant une heure, le pilote s’est retrouvé contraint à atterrir en s’aidant de cartes papier.

Opération d’interférence russe

L’incident a été traité d’office comme une opération d’interférence russe. Déformant, compliquant, voire empêchant d’accéder au système de navigation par satellite, le brouillage GPS est une opération traditionnellement utilisée par des services militaires ou de renseignements.

Elle est aussi de plus en plus fréquemment utilisée par des pays comme la Russie pour perturber la vie civile, relève Libération. Dans les pays d’Europe de l’Est et dans la mer Baltique, les cas de brouillage GPS touchant avions, bateaux ou civils ont ainsi nettement augmenté dans les dernières années.

Auprès du Financial Times, l’Autorité bulgare du trafic aérien souligne elle-même avoir relevé une augmentation nette des interférences GPS et des cas de spoofing (usurpation d’identité, notamment téléphonique) « depuis février 2022 ». En juillet, la Lituanie accusait la Russie d’avoir multiplié les attaques de ce type.

L’Union européenne s’est déjà exprimée sur le sujet – un porte-parole de la Commission souligne qu’il s’agit de la région la plus touchée au monde par ce type d’activités. Pour le chef des forces armées allemandes, Carsten Breuer, la Russie y recourt pour « tester » les États membres de l’OTAN et leurs réactions.

Contexte tendu

Le brouillage survient dans un contexte de tensions notables entre l’Union européenne et la Russie. Alors que des frappes ont touché des bureaux de l’Union à Kyiv, ce jeudi, Ursula von der Leyen avait déclaré que le pays ne « recule devant rien » pour « terroriser » l’Ukraine.

La présidente de la Commission se rendait en Bulgarie pour y rencontrer le premier ministre Rosen Zhelyazkov, dans le cadre d’une tournée des états frontaliers de l’Union. Le but : leur signifier la « pleine solidarité » des 27 et discuter des efforts de guerre pour faire face à la Russie.

Ce 1er septembre, le commissaire européen à la Défense Andrius Kubilius indique que l’Union déploiera de nouveaux satellites en orbite basse pour renforcer ses défenses face à ce type d’interférences.

❌