Vue normale

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 16:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

5 janvier 2026 à 15:13
Vous êtes dans la matrice
Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

Satya Nadella, CEO de Microsoft, blogue désormais sur l’IA. Selon lui, le débat sur le « slop » est un sujet presque dépassé. Il préfère évoquer 2026 comme une « année charnière » et ce qui, selon lui, demande aujourd’hui le plus de réflexion : trouver des débouchés à ce qu’il considère comme une évolution drastique de la pensée.

Microsoft est l’un des acteurs clés de l’IA, ne serait-ce que par son investissement massif dans OpenAI, avant l’emballement que l’on constate aujourd’hui. La société a cependant un problème : un sérieux écart entre la vision de ce que pourraient accomplir ses différents Copilot et ce qu’ils peuvent faire réellement.

Dans un contexte trouble pour l’entreprise, son CEO prend la parole, avec un premier billet de blog pour explorer quelques réflexions. Certaines recouvrent de vraies questions, notamment sur la direction à donner aux évolutions de l’IA ou le manque d’expérience dans son exploitation, quand d’autres illustrent une bulle de réflexion hors de laquelle plus rien d’autre ne semble exister.

Encore une année charnière

2026 sera une « année charnière » pour l’IA pour Satya Nadella. « Oui, encore une autre », reconnait le CEO de Microsoft. Il estime cependant qu’elle semble « différente à quelques égards notables ».

La phase initiale de découverte est selon lui terminée. Place désormais à la diffusion généralisée, le public prenant peu à peu ses marques et commençant à faire la distinction entre « spectacle » et « substance ». La direction prise par la technologie serait plus claire et plus sérieuse désormais, maintenant que l’émerveillement est passé.

Le débat autour du « slop » (bouillie) n’aurait plus lieu d’être, car il serait surtout lié à des cas d’utilisation sans réel débouché : un fonctionnement à vide de l’IA, sans apport réel dans la vie des gens. On pourrait ajouter qu’il s’agit aussi de l’inévitable produit d’une course à la vitesse et aux opportunités, largement accélérée par l’IA et à ses multiples impacts, notamment dans le monde de la cybersécurité.

Et comme si le CEO n’était pas assez clair, il insiste sur l’idée que l’IA doit amplifier l’humain, pas le remplacer. Il n’hésite pas à reprendre l’image de la « bicyclette pour l’esprit » que Steve Jobs utilisait pour décrire l’outil informatique en général. L’IA devrait ainsi être considérée comme aidant la pensée et l’action humaines, pas s’y substituant.

Systèmes complexes et résultats responsables

Pour Satya Nadella, les modèles isolés comme ChatGPT et Gemini ne sont pas l’avenir. Une vision que l’on a déjà entendue, par exemple chez l’ingénieur Horacio Gonzalez. Selon lui, l’avenir appartient à des modèles plus petits, plus spécialisés et coopérant.

Selon le CEO de Microsoft, l’important maintenant est de construire des systèmes qui orchestrent plusieurs modèles, gèrent la mémoire, l’accès aux données et l’utilisation d’outils de façon sûre. Une manière élégante de dire que l’intégration et l’ingénierie comptent plus que la taille brute des modèles.

Il « milite » également pour des résultats réels et responsables : pour que l’IA soit acceptée par la société, elle doit avoir un impact mesurable. « Les choix que nous ferons sur l’endroit où nous utiliserons nos rares ressources énergétiques, de calcul et de talents auront de l’importance. C’est la question socio-technique autour de laquelle nous devons construire un consensus », ajoute Nadella.

Microsoft dans une bulle

L’année 2025 a probablement été pénible pour Microsoft. La société semble captive d’une bulle dans laquelle elle s’est elle-même installée : la certitude que l’IA représente son futur, sans pour autant arriver à lui faire faire ce qu’elle veut. Ou, plus exactement, sans que les utilisateurs aient la garantie d’arriver au résultat attendu.

Satya Nadella résume tout le problème : « Ce sera un processus de découverte chaotique, comme toute technologie et développement de produits l’est toujours ». Autrement dit, il s’agit d’une technologie puissante, presque trop actuellement, et les usages vont continuer à s’y casser les dents jusqu’à ce que la brume se dissipe un peu plus.

Le souci de Microsoft est cependant très concret. Après avoir autant investi dans l’IA, les actionnaires attendent probablement un retour sur investissement qu’ils ne voient pas venir. D’où un « forcing » urgent dans toutes les gammes de produits. Avec à la clé des augmentations tarifaires, justifiées selon l’entreprise par les capacités supplémentaires. Et tant pis si ces capacités ne sont pas clairement définies ou que leurs résultats ne sont pas prévisibles.

C’est là que la tension s’illustre le plus, comme on l’a vu avec Windows. Microsoft veut en effet faire de son produit le premier « système agentique », mais son annonce n’est pas bien passée. Un très grand nombre de personnes ont répondu très négativement à cette perspective, beaucoup demandant que Windows 11 remplisse d’abord sa mission initiale de système d’exploitation, avec sécurité, fiabilité et performances.

« Les premiers kilomètres d’un marathon »

Sur ce point, Satya Nadella n’offre aucun début d’éclaircie : « Nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». Son intervention est avant tout philosophique, l’IA étant comparée à « un échafaudage pour l’esprit humain », même si la mention de la rareté énergétique est notable.

Le ton général est en outre inhabituellement sobre pour un dirigeant d’une société technologique aussi importante. Surtout après les prises de position de certains responsables de l’entreprise. On se souvient que face au manque d’enthousiasme sur les évolutions annoncées de Windows 11, Mustafa Suleyman lui-même, responsable de l’IA, avait traité de « cyniques » les personnes décriant l’annonce.

Entre les lignes, on devine quand même l’intention : recalibrer les attentes et repositionner Microsoft sur une ingénierie voulue « utile », en opposition à la puissance brute des gros modèles. On peut y voir également une forme d’aveu, dans le sens où les progrès technologiques ne suffisent pas si le public n’y trouve aucune valeur réelle, au-delà de l’amusement passager. Moins de buzz, plus de concret ?

Les AI Overviews de Google fournissent aussi des conseils de santé erronés

5 janvier 2026 à 14:37
Aïe aïe AI Overviews
Les AI Overviews de Google fournissent aussi des conseils de santé erronés

Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.

Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».

Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».

Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.

Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :

« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »

Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.

« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :

« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »

Des synthèses générées par IA qui changent selon le moment

Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :

« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »

Elle se dit également « extrêmement préoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :

« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable. Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »

Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :

« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »

Des « captures d’écran incomplètes », plaide Google

Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.

Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :

« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »

Vague massive de deepfakes générés par Grok : la justice française étend son enquête

5 janvier 2026 à 14:01
IA pas de consentement
Vague massive de deepfakes générés par Grok : la justice française étend son enquête

Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.

La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.

L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.

Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.

Massification via X et Grok

En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.

En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.

« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.

Devant la justice française

Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.

Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.

Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».

Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « 🤣🤣 » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.

L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.

☕️ Flipper Zero et Raspberry Pi étaient interdits lors de l’investiture de Zohran Mamdani (New York)

5 janvier 2026 à 12:40

Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).

Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.

En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.

« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.

Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.

Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.

« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».

Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.

☕️ Elon Musk offre Starlink pendant un mois à la population vénézuélienne

5 janvier 2026 à 11:01

À la suite de l’enlèvement du chef d’État vénézuélien Nicolas Maduro par l’armée des États-Unis, accusé par la Maison Blanche d’être à la tête d’un cartel de narcotrafiquants, Starlink a annoncé fournir ses services gratuitement à la population vénézuélienne pendant un mois. 
L’opération de capture du président vénézuélien qui s’est déroulée dans la nuit de vendredi à samedi 3 janvier 2026 s’est accompagnée de frappes américaines dans le sud et l’est de la capitale de Caracas.

À la suite de ces opérations, certaines zones de la ville avaient perdu accès à l’électricité et à internet, selon l’ONG Netblocks.

Le 4 janvier, la filiale de SpaceX Starlink publiait un communiqué annonçant fournir gratuitement ses services de connexion internet via ses satellites en basse orbite aux « nouveaux » clients, comme aux « existants ».

La carte de disponibilité de Starlink indique « coming soon » (à venir) pour le Venezuela, ce qui suggère que le service n’était pas déployé sur place auparavant, quand bien même le communiqué déclare que des utilisateurs sont déjà actifs.

Capture d’écran de la carte de disponibilité de Starlink / Starlink

L’évolution des tarifs à partir du 3 février 2026 n’a pas été communiquée pour le moment.

Le Venezuela n’est pas le premier terrain de conflit dans lequel intervient Starlink.

Au déclenchement de l’offensive russe contre l’Ukraine, en 2022, l’entreprise avait déployé ses services pour pallier les pannes du réseau internet local. Si l’épisode avait d’abord été salué, rappelle CNBC, il avait rapidement soulevé la question de l’influence d’une unique entité – et de son patron Elon Musk – dans un tel conflit.

Le Pentagone avait finalement passé un contrat avec l’entreprise pour assurer le maintien de ses services en Ukraine.

À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

5 janvier 2026 à 10:17
IA débat
À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

Trois ans après l’arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l’enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».

Avant même la sortie de ChatGPT, certains étudiants utilisaient déjà les modèles de langage pour générer tout ou partie de leurs devoirs. Cette pratique, qui s’est largement popularisée avec l’arrivée du chatbot d’OpenAI, a changé les choses à l’université. Il est devenu compliqué de garder les mêmes systèmes d’évaluation. En effet, les devoirs, notamment ceux traditionnellement faits à la maison, ne peuvent plus être considérés comme des travaux personnels.

Trois ans après l’arrivée massive de l’IA générative dans notre quotidien, son utilisation est massive à l’université, par les étudiants de toutes disciplines, qu’ils soient en sciences humaines et sociales, en informatique, en philosophie, en ingénierie ou ailleurs.

Ainsi, 85 % des étudiants de l’université de Bordeaux-Montaigne (axée notamment sur la littérature et les sciences humaines et sociales) déclarent, en réponse à un questionnaire de l’établissement, avoir souvent recours aux IA génératives, et près de 70 % affirment l’utiliser tout le temps.

Si vous traînez en bibliothèque universitaire, vous pouvez parfois entendre des « il dit quoi ChatGPT ? » dans la bouche d’étudiants et d’étudiantes qui bossent leurs cours avec l’IA sans pour autant répéter bêtement ce que dit la machine.

Des universitaires appellent à l’ « arrêt de l’adoption aveugle » ou à l’« objection de conscience »

Si certains estiment que l’IA générative est là et qu’il faut faire avec, force est de constater que le sujet fait encore débat à l’université, en France mais aussi à l’étranger. Ainsi, en juin 2025, plusieurs universitaires néerlandais ont publié une lettre ouverte adressée aux universités de leur pays réclamant l’ « arrêt de l’adoption aveugle des technologies d’IA dans le milieu universitaire ». Celle-ci a recueilli plus de 1 500 signatures, dont celles de plusieurs de leurs collègues en dehors du pays.

En septembre, les enseignants-chercheurs qui ont impulsé cette lettre ouverte ont publié un nouveau texte plus précis pour expliquer « pourquoi les universités doivent prendre leur rôle au sérieux afin a) de contrer le marketing, le battage médiatique et les effets néfastes de l’industrie technologique, et b) de préserver l’enseignement supérieur, la pensée critique, l’expertise, la liberté académique et l’intégrité scientifique ».

Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l’information opéré par le cerveau à l’aide des modèles de l’informatique », comme le rappelle Wikipédia.

« Étude après étude, il apparaît que les étudiants souhaitent développer ces compétences de pensée critique, qu’ils ne sont pas paresseux et qu’un grand nombre d’entre eux seraient favorables à l’interdiction de ChatGPT et d’outils similaires dans les universités », expliquait Olivia Guest dans un communiqué de son université.

Du côté français aussi la question reste discutée. En février 2025, Florence Maraninchi, professeure en informatique à Grenoble-INP UGA, a publié un billet pour expliquer pourquoi elle n’utilise pas ChatGPT et d’autres outils du genre. « Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques », expliquait-elle.

Depuis, un manifeste pour une « objection de conscience » dans l’enseignement supérieur a été publié. Il réunit à ce jour près de 2 000 signatures. « Nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser », y expliquent les enseignants-chercheurs.

« La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique », lui rétorque le Réseau scientifique de recherche et de publication (TERRA-HN) dans un texte intitulé « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ».


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Arch Linux et Manjaro ouvrent 2026 avec de « nouvelles versions »

5 janvier 2026 à 08:02

Arch Linux et Manjaro (basée sur Arch) sont les premières à dégainer en ce début d’année. Il s’agit pour rappel de systèmes de type rolling release : les mises à jour sont fournies dès leur disponibilité, que les versions soient mineures ou majeures, au sein d’une branche unique. La dénomination se fait en opposition à l’approche classique, comme sur Ubuntu, où les gros changements attendent la branche suivante, donc une mouture majeure ultérieure.

Mais alors, si les améliorations importantes sont diffusées au fur et à mesure, que peut apporter une nouvelle édition d’Arch Linux ou Manjaro ? Techniquement, rien : ces nouvelles versions sont là pour les personnes qui souhaitent réaliser une installation avec une image ISO récente, limitant ainsi les mises à jour immédiates. Pour celles ayant un système installé et à jour, il n’y a rien de neuf : elles ont déjà les dernières nouveautés.

Manjaro 26.0

Dans les deux cas, les images ISO proposent les dernières versions de presque tous les composants, dans tous les domaines (ici pour Arch Linux, pour Manjaro) : noyau Linux 6.18, KDE Plasma 6.5 (avec les suites KDE Gear 25.12 et KDE Frameworks 6.21), GNOME 49, Xfce 4.20, Mesa 25.3, Firefox 146, suite bureautique LibreOffice 25.8.4 (si elle est choisie à l’installation), GStreamer 1.26.10, ALSA 1.2.15.1, ou encore l’arrivée de l’environnement COSMIC (créé par System76 en Rust) en version finale 1.0.

On trouve également les pilotes NVIDIA 590. Rappelons que cette version a fait l’objet d’un avertissement par l’équipe d’Arch Linux, car elle abandonne le support des séries 900 et 1000 des GeForce. Le paquet étant installé automatiquement, les utilisateurs concernés devront le désinstaller et réactiver manuellement l’ancienne version.

Les nouvelles images ISO peuvent se récupérer depuis les sites d’Arch Linux et Manjaro. Comme indiqué, leur téléchargement n’est pas utile si vous avez un système fonctionnel et à jour.

Starlink va descendre l’orbite de plus de 4 000 de ses satellites

5 janvier 2026 à 07:42
Star links war
Starlink va descendre l’orbite de plus de 4 000 de ses satellites

Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.

« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.

Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.

Améliorer la sécurité spatiale…

Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.

« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.

… Ou la place de Starlink ?

Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».

De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.

Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».

Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].

Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysique.

☕️ « Flash ingérence » de la DGSI : les risques de l’IA et des réseaux sociaux pour les entreprises

5 janvier 2026 à 07:14

La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».

Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :

  • Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
  • Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
  • Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA

Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :

  • Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
  • Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
  • Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.

Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.

Panne chez Netatmo : « Les applications et le contrôle à distance ne sont pas disponibles »

3 janvier 2026 à 16:35
Panne chez Netatmo : « Les applications et le contrôle à distance ne sont pas disponibles »

Aujourd’hui, les serveurs de Netatmo ont décidé de fêter la nouvelle année à leur manière, avec une panne. En conséquence, « les applications et le contrôle à distance ne sont pas disponibles ». C’est déjà la quatrième fois en cinq mois…

Les messages sont nombreux sur les réseaux sociaux : les serveurs Netatmo ne répondent plus. C’est également confirmé par les retours sur Downdetector, avec les premiers signalements aux alentours de 10 h et une montée en puissance jusqu’à la fin de la matinée. Cet après-midi aussi les serveurs semblent hors service. Cela tombe mal alors que la France est traversée par une vague de froid.

Sur la page dédiée à la gestion des incidents, Netatmo confirme et précise que ses « équipes travaillent actuellement à la résolution de l’incident afin que tout rentre dans l’ordre dans les meilleurs délais », sans plus de détail. Par contre, aucun message sur X ni réponse aux internautes pour le moment, que ce soit avec le compte officiel ou le compte support.

Le fabricant précise que « les applications et le contrôle à distance ne sont pas disponibles, mais le contrôle manuel et l’enregistrement des données continuent de fonctionner normalement », ces dernières seront donc disponibles quand la situation sera revenue à la normale.

« Toutes les fonctionnalités seront restaurées automatiquement, aucune action de votre part n’est nécessaire », ajoute le fabricant. Il précise aussi qu’une « partie des utilisateurs de Home + Control ne peuvent pas accéder à l’application ».

Comme le rapporte mac4ever, les applications affichent un message un peu plus précis : « vos produits continuent de fonctionner en autonomie même s’ils ne sont plus connectés : les Caméras enregistrent les événements, les Thermostats régulent le chauffage, les interrupteurs contrôlent les lumières… et vous retrouverez le contrôle total très bientôt ! ».

Selon certains, la situation semble revenir doucement à la normale. N’hésitez pas à nous faire part de vos retours si vous êtes concernés. Quoi qu’il en soit, Netatmo enchaine les pannes ces dernières semaines, avec un incident du même genre le 5 novembre, un autre le 29 octobre, le 27 septembre

Cela relance encore une fois la question de la dépendance des produits connectés aux serveurs du fabricant. Nous en avions fait un édito il y a déjà plus de cinq ans… et la situation n’est pas franchement meilleure aujourd’hui.

#Flock : Best-of Vol.2

Par : Flock
3 janvier 2026 à 12:37
Une BDD de BD
#Flock : Best-of Vol.2

2025 a été le fruit de quelques « BD » si tant est qu’on puisse appeler ces petits récits séquentiels ainsi. Il y en aura eu dix tout de même, parmi les autres dessins d’actualité. Avec Next pour commencer cette année, on vous rappelle à leur bon souvenir ces petites histoires, en attendant de prochaines cette année. Comme pour le premier Best-of des dessins d’actu dévoilé le weekend dernier, ces histoires que vous pourrez consulter en cliquant sur les illustrations dédiées, sont en accès libre pour la communauté.
Meilleurs voeux de changement de calendrier administratif.

La classe américaine, où le récit d’une réunion avec un directeur d’établissement au bout du bout.

Pas d’âge pour le mauvaise âge, où le récit d’une adolescence compliquée.

Docteur Algo, où le récit d’une visite médicale 3.0

Y a-t-il une IA après la mort ? Où le récit d’une fin des haricots qui n’en finit pas.

Et voilà ! Si vous voulez voir les six autres récits de 2025 et découvrir celles à venir, comme faire un rattrapage des dessins d’actu, c’est simple : abonnez-vous les amis !

[MàJ] Linky : comment télécharger jusqu’à deux ans de consommation horaire

2 janvier 2026 à 15:15
Sérieusement, Enedis… c’est un peu abusé non ?
[MàJ] Linky : comment télécharger jusqu’à deux ans de consommation horaire

Linky permet d’avoir un historique précis de sa consommation dans le temps et vous permet ainsi de choisir l’offre la plus adaptée en fonction de vos habitudes. Problème, Enedis ne permet plus que le téléchargement de sept jours avec le détail de la consommation horaire. Next vous propose une solution pour contourner cette limitation.

Mise à jour du 2 janvier 2026. Comme nous l’a fait remarquer un lecteur, le script ne fonctionnait plus. Enedis est en effet passé en « v2 » sur son API ; nous avons donc dû légèrement adapter notre script (l’URL de téléchargement pour être précis). Le reste de notre tuto est exactement le même.

Le script est de nouveau fonctionnel et permet donc de télécharger des semaines ou des mois complets de données Enedis, alors que le site officiel impose une forte limitation : « En affichage horaire, la période sélectionnée peut s’étendre jusqu’à 7 jours ».

Vous pouvez ensuite fusionner les données pour n’avoir qu’un seul fichier puis l’injecter dans notre outil pour comparer les offres. Celui-ci est un peu vieillot, on se donne rendez-vous en début de semaine pour une version mise à jour, avec bien plus de forfaits à comparer. En attendant, profitez du week-end pour récupérer vos données depuis le site d’Enedis.


Article original du 28 mai 2025. En octobre, nous vous expliquons comment récupérer un an de données de consommation, avec le détail heure par heure de votre consommation électrique. Des informations précieuses pour comparer les offres des différents fournisseurs, et notamment la formule Tempo qui dispose de pas moins de six tarifs en fonction des jours de l’année.

Enedis limite fortement le téléchargement de vos données

Quelques semaines après la mise en ligne de notre comparateur interactif se basant sur vos données de consommation, Enedis modifiait son site et ajoutait une limitation importante : le téléchargement de la consommation horaire ne pouvait plus dépasser sept jours. Encore aujourd’hui, cette restriction est de mise. C’est largement insuffisant pour comparer les offres ; le mieux étant de regarder sur une année complète de données afin de prendre en compte les variations saisonnières.

Le service presse d’Enedis n’a pas répondu à nos questions, mais le service client nous expliquait en février que la plateforme avait « été modifié au profit d’une nouvelle interface ». Le but était « d’améliorer l’expérience utilisateur ». Cette mise à jour a cassé l’export classique des données. Le service client d’Enedis ajoutait alors que le « support informatique travaill[ait| activement à la mise en production de celle-ci » et que la fonctionnalité devrait être de retour « dans les prochaines semaines ». Nous sommes à la fin du mois de mai, rien n’a bougé.

Nous avons recontacté le service client ces derniers jours ; le discours a changé… mais pas dans le bon sens : « Si vous souhaitez visualiser une année complète, vous devrez télécharger vos données par tranche de sept jours. En effet, les données data sont trop importantes en téléchargement sur une période plus importante ».

C’était possible avec l’ancienne interface sans que cela pose le moindre problème. Autant dire qu’un fichier avec environ 17 500 lignes (365 jours, avec une mesure toutes les demi-heures, soit 365 x 2 x 24) n’est pas du tout excessif en 2025… d’autant plus que c’était possible en 2024.

Next vous propose une solution de contournement


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Fermeture de la principale bibliothèque de la NASA

2 janvier 2026 à 14:06

L’administration Trump a notamment pris pour cible, depuis son retour au pouvoir, les agences scientifiques fédérales américaines.

Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.

Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.

« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.

Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.

Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.

IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

2 janvier 2026 à 13:34
Bon anniversaire (et bonne année) !
IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

667 millions d’adresses IPv6… par mm² !

La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

La France en tête du taux d’utilisation d’IPv6 !

L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

Cinq grandes étapes, la première d’ici 2 à 3 ans ?

L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
  • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
  • Une part non négligeable des FAI ne proposent plus d’IPv4
  • La majorité des sites abandonnent IPv4

La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :

[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

2 janvier 2026 à 12:37
De la contre-culture à la cyberculture
[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

Historien des médias, pionnier des bases de données, de l’« information automatisée », de l’accès aux images satellitaires puis du web, Antoine Lefébure a aussi créé la première radio « libre » française, et préfiguré ce qui allait devenir Canal+. Il se définit lui-même comme un « pirate », et vient de publier une histoire du « secret d’État », à laquelle il a consacré ces cinq dernières années. Portrait, doublé d’une interview.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 10 avril 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Taquin, Antoine Lefébure indique sur son blog avoir été dans la même classe de CP que Vincent Bolloré et Martin Bouygues. Contrairement à eux, il n’est devenu ni milliardaire ni magnat des médias. Et si son nom est bien moins connu que les leurs, son empreinte sur le paysage audiovisuel français (PAF) n’a rien à leur envier.

Il a 18 ans lorsque, en 1968, il devient étudiant à Nanterre : « L’année révolutionnaire pour un étudiant épris de liberté et agitateur né, l’occasion est trop belle », écrit-il dans sa biographie. L’artiste d’avant-garde Jean-Jacques Lebel vint y expliquer qu’il fallait « faire une révolution culturelle comme l’avaient souhaité Dada et les surréalistes. Une perspective qui m’enthousiasme plus que le délire pro-ouvrier des maoïstes », se souvient-il.

Dans une interview de 2008 pour Médiamorphoses, il se souvient d’avoir assisté à des débats enflammés entre Daniel Cohn-Bendit et Bruno Gollnisch. Étudiant juif allemand, le premier allait devenir une figure de Mai 68. Le second, qui tenait à l’époque la corpo de Droit, est depuis devenu une figure du Front national. Mais la préférence d’Antoine Lefébure, qui se présente lui-même comme plutôt « chahuteur », va alors aux Enragés, « pour la plupart fils d’anarchistes espagnols et inspirés de l’Internationale Situationniste ».

Quelques semaines plus tard, le Mouvement du 22 Mars constitue l’un des éléments déclencheurs de Mai 68. Il participe à toutes ses manifestations, fréquentant Sartre, Virilio, Baudrillard, et Godard, qui filmait alors les Rolling Stones. Il explique y avoir aussi découvert les Pink Floyd, la marijuana et la presse underground, et être devenu spectateur assidu de tous les festivals de l’époque, Woodstock, île de Wight, Amougies

« Le retour à Nanterre en septembre sera un peu dur, détaille-t-il sur son blog. Nous sommes dans le collimateur des policiers, des appariteurs musclés, des indics et des fascistes, tous bien décidés à prendre leur revanche après la grande peur de Mai. Le gauchisme, je m’en rends très vite compte, ne fait pas le poids. Je continue mes études avec comme bol d’air, les cours de Baudrillard et les projections de Langlois qui nous raconte « son » histoire du cinéma. »

Il passe ensuite une année sur le campus de Berkeley en Californie – autre haut lieu de la contestation dans les années 1970 – pour y étudier la communication : « j’y ai travaillé avec des gens qui faisaient des Blue Box [dispositif électronique permettant de frauder les télécommunications mais également d’écouter des conversations en cours, ndlr], explique-t-il à Next. je travaillais aussi pour une organisation, People Broadcasting Service, qui traduisait des messages venant du monde entier, mais aussi pour une radio libre à Berkeley, et c’est ça qui m’a donné envie de faire pareil en France ».

Revenu en France, il enquille à la Sorbonne une maîtrise d’Histoire contemporaine sur « Le rôle de la radio en France pendant la Seconde Guerre mondiale », et plus particulièrement à Radio Paris. Placée sous la direction de la propagande nazie, celle-ci se fit le porte-voix collaborationniste du régime de Vichy afin de convaincre les Français de collaborer avec les Allemands. Elle est aussi connue pour avoir été brocardée par Pierre Dac sur Radio Londres en mode « Radio-Paris ment, Radio-Paris ment, Radio-Paris est allemand » :

« Il y avait une omerta à l’époque, j’ai réussi à faire ouvrir les archives, travaillé sur la propagande nazie, et découvert que plein de gens de l’ORTF ou de RTL avaient commencé à Radio Paris. »

« La police nous écoute, écoutons la police »

Antoine Lefébure commence en parallèle à faire des reportages pour L’Idiot International, le journal pamphlétaire de Jean-Edern Hallier, et Libération, découvrant par ailleurs l’intérêt d’ « écouter les communications de la police pour être au courant de tout avant tout le monde ». À la grande fureur des autorités, il fait la promotion de ce hobby, écrivant dans les colonnes du quotidien « La police nous écoute, écoutons la police ».

En échange, et plutôt que de le payer, Libé met à sa disposition du matériel pour qu’il maquette et imprime la revue qu’il contribue à créer en 1974, Interférences, sous-titrée « Pour une critique des appareils d’information et de communication ».

Dans son premier numéro, Interférences révèle les plans secrets du nouveau réseau téléphonique gouvernemental français Régis. Dans son n°2, elle traite de l’informatisation de la police aux États-Unis, des sabotages informatiques, puis de l’espionnage (et de la surveillance, et de la pollution) électronique, de la cryptographie, de la protection du secret en France et aux États-Unis, de l’ « irruption du techno-imaginaire » … ainsi que de la NSA, auquel Antoine Lefébure consacrera un article en 1976.

Y contribuent notamment Philippe Aigrain, Jean Baudrillard, William S. Burroughs, Philip K. Dick, Jean-Edern Hallier, Maurice Ronai ou encore Norman Spinrad, quand bien même, à l’époque, les idées promues et véhiculées par Interférences touchèrent un public réduit mais passionné :

« Parler de piratage informatique, d’écoute électronique, de radios libres à cette époque suscite peu d’échos, écrit-il. Le milieu gauchiste considère cela comme un délire de techniciens, les professionnels du domaine ne comprennent pas de quoi nous parlons. Pourtant se rassemble autour de la revue un groupe hétéroclite de passionnés qui sont aujourd’hui à tous les carrefours des industries de la communication. »

Interférences a depuis été qualifiée de « lieu de réflexion sur les grands mouvements technologiques que la France des années 1970 est en train de découvrir », mais également de « magazine underground, post-gauchiste, rédigé par des bénévoles, entièrement consacré, chose rare au milieu des années soixante-dix, à l’électronique, à l’informatique, aux ondes de toutes fréquences, aux hackers, au cryptage et à l’espionnage ».

Il pirate Antenne 2, et lance la première radio libre

Lors des élections municipales de 1977, les Amis de la Terre recueillent, sous l’intitulé « Paris Écologie », quelque 10 % des voix à Paris, marquant l’émergence de l’écologie politique en France. À cette occasion, le futur candidat écologiste à l’élection présidentielle de 1981 Brice Lalonde et Antoine Lefébure concoctent un « coup médiatique », sous la forme d’un « piratage » du « temps de cerveau disponible » de 5 millions de téléspectateurs d’Antenne 2, et de l’ensemble des journalistes et médias qui y assistèrent.

Sur le plateau de l’émission, Brice Lalonde sort en effet un transistor diffusant la première émission de Radio Verte, la première radio FM dite « libre » en France à oser braver ouvertement le monopole gouvernemental. Antoine Lefébure, qui s’était fait passer pour son garde du corps, avait en effet bricolé un émetteur gros comme une cassette.

Antoine Lefébure lance aussi une Association pour la libération des ondes (ALO), afin de lutter pour la libre expression radiophonique et contre les inculpations de responsables des radios libres, les saisies de matériel et le brouillage des ondes. 

En parallèle, une enquête intitulée « Le monopole d’État et l’histoire du télégraphe et du téléphone en France » lui permet de préparer un Doctorat d’Histoire Contemporaine, en 1979, et de muscler son expertise au service de la défense des radios libres.

Le combat de Giscard d’Estaing pour maintenir l’interdiction des radios libres, les brouiller et saisir leur matériel, contribua à sa défaite électorale en 1981, estime par ailleurs Antoine Lefébure.

La légalisation des « radios libres » par le gouvernement socialiste de François Mitterrand, élu président en 1981, signe la fin de son engagement en faveur de cette forme de « liberté d’expression », et de son combat contre le « monopole d’État » qui y présidait.

« On a passé un accord avec NRJ, mais ils sont allés voir le gouvernement, en leur disant « si vous nous donnez la fréquence sans Radio Verte on vous fait la propagande », se remémore-t-il. Pendant les 3 premières années, les flashs d’information de NRJ n’était que le bulletin paroissial du parti socialiste, c’était dément, et on a été viré, ce qui arrangeait le pouvoir politique. »

Après s’être fait piquer sa fréquence par NRJ, il contribue à lancer… Canal+

Après s’être fait piquer la fréquence de Radio Verte par NRJ, il abandonne et est recruté par le groupe Havas comme responsable du développement (nouvelles technologies, banque de données, CD …) « grâce à un type d’Havas que j’avais rencontré au séminaire de Jean Baudrillard » :

« Havas faisait de la pub et du tourisme, les deux choses que je déteste, raconte-t-il. J’avais 28 ans, c’était la première fois que j’étais salarié, à Neuilly-sur-Seine, mais y avait une bonne ambiance, j’ai embauché plusieurs potes qui venaient eux aussi de la radio libre, et on voulait bosser dans les médias. »

« Ce qui nous intéresse, ce sont les systèmes d’information et les banques de données », précisa-t-il dans l’interview de 2008, au point d’en devenir « un utilisateur forcené ». En 1982, grâce au réseau de transmission de données Tymnet (initialement conçu par Tymshare, un fournisseur américain de services dits de temps partagé), Havas avait accès à la plupart des grandes banques de données américaines. « Nous explorions ainsi toute la presse états-unienne à l’aide de simples mots-clés ».

Fourni par LexisNexis, le service avait été conçu à Palo Alto et était distribué en France par le centre de documentation du Point. Cela permettait à ses équipes de trouver des informations auxquelles personne d’autre n’avait accès. D’une part, parce que ce terminal spécifique « nous coûtait quelque 1 500 francs l’heure de consultation », mais également parce qu’aucun organisme ou presque ne s’en servait :

«  Au bout de six mois, les gens de Nexis viennent nous voir, ils sont évidemment très contents parce que nous leur avons lâché plus de 100 000 francs. Nous apprenons, à cette occasion, que les deux seuls utilisateurs de leur service en France sont Havas et… la DGSE. »

Séduit en tant qu’utilisateur, Antoine Lefébure essaye de convaincre Havas d’investir dans ce secteur prometteur : « Mais, à l’époque, Nexis ne gagne pas un sou. Personne n’y croit. Alors, j’arrête les frais en me disant : « Les esprits ne sont pas mûrs » », se souvient-il. Entre-autres mots-clefs, histoire de trouver d’autres idées à développer, « on a tapé pay TV », et découvert qu’il y avait alors aux USA deux télévisions hertziennes à péage (On TV, et Select TV) :

« J’ai envoyé là-bas un membre de mon équipe, Jacques Driencourt, qui est revenu avec toute la technologie, le logiciel de gestion des abonnés, les mecs lui ont tout donné ! On a fait un petit projet, c’était le moment où André Rousselet arrivait à Havas comme président. Les hauts responsables de l’agence lui ont présenté la direction du développement, que je dirigeais, comme des malades mentaux, mais Rousselet détestait autant la pub et le tourisme que nous. On lui a présenté notre projet de TV à péage et il est devenu dingue, c’est devenu son bébé. Et nous voilà partis pour trois ans de travaux, avec des délais invraisemblables. »

« Intellectuellement, le projet de télé à péage, c’était pas excitant. Ce qui m’excitait, c’était de casser le monopole de la télé, après avoir cassé celui de la radio », nous précise Antoine Lefébure : « j’étais du côté du manche chez Havas, dont le président était le meilleur copain de Mitterrand, et donc on a pu prendre le pas sur TDF (qui nous avait brouillé pendant 4 ans, du temps des radios libres), et notre vengeance a été totale : TDF vomissait cette idée, ils ont tout fait pour nous éliminer, de même que France Télécom et le ministère de l’Industrie », qui voulaient privilégier leur projet de plan câble.

« Un nouveau front : celui de l’information, pétrole du XXIème siècle »

Devenu directeur de la prospective du groupe Havas, il y lance les premières expériences de télématique et de banque de données du groupe, et se lance dans la prospective.

Avec Maurice Ronai (lui aussi chercheur et pionnier du numérique, et qui était alors journaliste spécialisé dans l’informatique), il co-signe en 1979 « Panne des sens », un film (en vidéo) sur « l’informatisation de la société », pour reprendre la terminologie de l’époque. Les cinéphiles apprécieront qu’y figurent également au générique le réalisateur et scénariste Louis Daquin, la directrice de la photographie et cinéaste Caroline Champetier et Dominique Chapuis, alors chef op’ de Godard et qui sera par la suite celui du Shoah de Claude Lanzmann.

Cette même année, Lefébure et Ronai publient aussi et surtout une série d’articles dans Le Monde Diplomatique, intitulée « La guerre des données » et consacrée à l’importance croissante des réseaux télématiques et bases de données.

Ils y expliquaient pourquoi, « dans la guerre économique et industrielle mondiale, se dégage un nouveau front : celui de l’information », qu’ils qualifiaient déjà de « nouvelle matière première [et] pétrole du vingt-et-unième siècle » :

« Révolution informationnelle, société informationnelle, âge de l’information, société postindustrielle, troisième âge de la révolution industrielle… Toute une série d’analyses mettent l’accent sur l’information comme nouvelle matière première, nouvelle forme d’énergie, pétrole du vingt et unième siècle, agent majeur de la croissance, moteur de l’économie, nouvelle frontière pour des sociétés essoufflées. »

Un an avant le lancement des premières expérimentations du Minitel (pour « Médium interactif par numérisation d’information téléphonique »), ils relevaient déjà que grâce aux satellites, fibres optiques, réseaux de télécommunication, micro-ordinateurs, microprocesseurs et leurs applications, « l’informatisation des fichiers, conçus pour être interrogés en « conversationnel » (on line), et des réseaux de télétransmission internationaux qui permettent d’accéder à ces vastes « réservoirs de pensée » » :

« Il est actuellement possible, à partir de n’importe quel lieu où l’on dispose d’un téléphone, d’interroger à l’aide d’un terminal plusieurs millions de références d’articles, plusieurs milliards de données numériques ou textuelles sur tous les sujets, de modifier immédiatement la question en fonction des premières réponses et d’obtenir en quelques minutes l’information souhaitée. »

Ils soulignaient aussi que si l’information est «  une marchandise » et qu’ « un immense marché s’offre aux sociétés spécialisées dans la vente de données », « les impératifs de rentabilité et la concurrence annoncent une guerre commerciale où risquent de s’engloutir les notions de service public et de souveraineté de l’État ».

Évoquant la « suprématie économique et scientifique » des États-Unis en la matière, ils s’étonnaient du fait que, non contents de détenir « le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) », « avec quatre cent cinquante banques et bases de données, les États-Unis détiennent 90 % du stock mondial de données on line » :

« Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements. »

Ils notaient également que « l’avance américaine, évaluée à cinq ans, glisse insensiblement au monopole de fait, au niveau tant de la production des bases de données que des systèmes de distribution et des réseaux de transmission ».

Un an plus tard, Lefébure soulignait qu’ « à l’avenir, ceux qui contrôlent les réseaux télématiques détiendront en grande partie les moyens de transmission du savoir. Et, avec ces moyens, un pouvoir de contrôler l’évolution des sociétés et des esprits ».

Interrogé par Médiamorphoses à leurs sujets, Antoine Lefébure précise : « Ce qui m’intéresse alors, c’est moins l’informatique en elle-même que les services qu’elle peut fournir. C’est aussi cette idée ou ce fantasme qu’il y a, quelque part, un grand réservoir d’informations qui nous est fermé, et qu’il faudrait « pirater » pour pouvoir ensuite agir en conséquence ».

« Donc, avec Maurice Ronai, un ancien membre des comités d’action lycéens de Mai 68 et un complice d’Interférences, nous travaillons sur ces questions, reprend-il pour Next. Claude Julien nous donne carte blanche pour réaliser un dossier dans Le Monde Diplomatique, nous rédigeons également quelques articles pour Libération. Il n’en faut pas plus pour devenir « spécialistes » aux yeux des profanes. Il faut en effet se souvenir qu’à l’époque, très peu de personnes s’intéressent à l’information automatisée. »

Et ce, d’autant qu’ « en France, il y a un vrai mépris des technologies : non seulement la plupart des gens n’y comprennent rien, mais il y a en plus une sorte de suffisance qui fait que les leaders d’opinion (politiques, intellectuels, etc.) mettent comme un point d’honneur à les mépriser ».

Il se souvient qu’à Havas, « quand nous parlions par exemple d’ »algorithmes de cryptage » pour le décodeur de Canal Plus, André Rousselet nous interrompait brutalement en disant : « Épargnez-moi ce genre de mots ! » Une suffisance ridicule ! ».

« N’oublions pas que les médias audiovisuels sont alors interdits du fait du monopole », soulignait-il, ce pourquoi la plupart des gens de sa génération « vont s’investir dans la presse écrite ».

Pirate des monopoles d’État, maître d’œuvre du web gouvernemental

En 1988, François Mitterrand est réélu, le RPR place ses amis et Lefébure vole vers de nouvelles aventures. Il crée sa propre société, Technique Media Société (TMS), qui jouera un rôle de pionnier dans le développement de l’information automatisée, l’accès aux bases de données et des images satellitaires.

En 1994, il se rend aux États-Unis dans le cadre d’une étude sur le dépôt légal de l’audiovisuel, et découvre Mosaic, le premier navigateur à avoir rendu le World Wide Web populaire. En 2008, il raconte :

« C’est vraiment une révélation : il y a désormais une interface et ça ne coûte pratiquement rien. Non seulement ça marche, mais, en plus, il est évident que ça va changer le monde. Dès mon retour, j’arrête tout et je bascule TMS vers l’Internet. »

« Comme j’avais ma formation banques de données, c’était ce que j’attendais depuis 10 ans, et on a fait de TMS une des premières web agency » en France, nous précise-t-il, contribuant notamment à lancer, en 1996, le… tout premier site web du Premier ministre français (Alain Juppé, qu’avait alors convaincu son ministre des télécommunications, François Fillon), « optimisé pour Nestcape 2.0, en mode graphique, pour une fenêtre de 640 par 480 pixels ».

Un joli pied de nez, pour celui qui n’avait de cesse de lutter contre le monopole de l’État en matière de liberté d’expression audiovisuelle. Une victoire politique, aussi, alors que « certains, dans l’entourage du premier ministre, insistent pour que les sites n’intéressant a priori que le public français restent exclusivement basés sur Télétel, c’est-à-dire demeurent pour l’essentiel payants », comme le soulignait alors un article du Monde intitulé « Marianne flirte avec Internet ».

« En France, pendant dix ans, on a considéré l’information comme un marché ; on l’a fait payer. Les recettes générées sont devenues un élément de fonctionnement », y relevait de son côté Maurice Ronai, constatant qu’aux États-Unis, une bonne partie des textes officiels dont l’accès étaient payants en France (budgets détaillés, rapports d’activité, lois en discussion, etc.) « sont disponibles gratuitement sur Internet ».

Un constat appuyé par Antoine Lefébure qui, s’étant vu confié la maîtrise d’œuvre du montage des services en ligne de Matignon, expliquait au Monde que « la générosité est payante sur Internet. Les économies engendrées, en simplifiant la vie quotidienne des citoyens et de l’administration, seront supérieures au manque à gagner ».

« La consultation du site Web sera instructive : ce service témoignera de la façon dont le premier ministre entend informer et dialoguer effectivement avec les citoyens », concluait l’article du Monde, évoquant « un enjeu moins futile qu’il y pourrait paraître ». Une vision qu’il eut du mal, cela dit, à faire accepter, comme il le relevait auprès de Médiamorphoses :

« Au début, ce n’est pas facile, autant pour nous que pour les trois ou quatre autres sociétés qui s’installent sur le créneau. Pendant deux ans, je passe mon temps à expliquer la différence entre Internet et le minitel, que j’ai toujours détesté, sans doute parce que c’était une nouvelle incarnation du monopole. J’essaye aussi de convaincre mes interlocuteurs que ce réseau n’est pas un nouvel avatar de l’impérialisme américain. »

Un « pirate radio » poursuivi par la DST et la Justice, à l’âge de 13 ans

Interrogé sur ce qui avait pu présider à un tel parcours, somme toute emblématique de la « contre-culture » technologique des années 70 et 80, Antoine Lefébure explique avoir découvert, à l’âge de 12 ans, au dernier étage du Palais de la découverte, « un radio-amateur en blouse blanche » qui lui laissait parfois les manettes, lui permettant de correspondre avec des gens du monde entier :

« Et ça m’a passionné, j’ai commencé à acheter des vieux postes, je mettais 60 mètres de fil de fer pour écouter les ondes courtes et j’entendais des radioamateurs, j’étais DX [loisir qui consiste à rechercher et identifier des signaux radio/TV à longues distances, ndlr], et à 17 ans, je me suis lancé dans l’émission, en réception tu ne fais qu’écouter, c’était interdit quand tu n’avais pas de licence. »

Antoine Lefébure précise n’avoir « jamais eu de licence de radioamateur : j’ai toujours été pirate, quand on se salue avec nos potes, on se dit « pirate un jour, pirate toujours ! » ». Rapidement, il avait en effet identifié « un type comme moi qui avait une puissance incroyable et qui me bloquait en réception ». C’est ainsi qu’il a rencontré Sylvain Anichini, qui était « très fort en hautes fréquences et en informatique ».

Lefébure se souvient qu’à l’époque de leur rencontre, Sylvain Anichini avait installé son émetteur avec une antenne de 10 mètres sur le toit, qu’il émettait dans le monde entier « et s’était fait piquer deux fois par la DST et inculper deux fois. Le tribunal pour enfants l’a relaxé, mais il était dans le viseur des flics, son antenne faisait concurrence avec celle de la Place Beauvau ».

Antoine Lefébure se souvient aussi que le responsable de la police des communications radio-électriques (PCR), sise à Boullay-les-Troux (devenue depuis une station d’écoute de la DGSI), s’appelait Commissaire Brute : « il nous aimait bien parce qu’on lui donnait du boulot, d’autant qu’ils étaient en surnombre vu qu’il y avait moins de gauchistes » entre 1977 et 1981.

Cela n’empêcha pas Sylvain Anichini de faire carrière à la télé puis la radio, comme le raconta Télérama, et même de concevoir le décodeur de Canal+ après qu’il fut recruté par Antoine Lefébure à Havas :

« À 13 ans, il est convoqué au tribunal pour enfants. À 17 et 19 ans, il passe en correctionnelle. En 1981, il fabrique les antennes à la chaîne. Surdoué de la technique, mais las d’être traqué par la police, Sylvain Anichini passe alors à autre chose : en 1984, il devient le directeur technique de Canal+, puis de La Cinq, de La Cinquième, de France 3, avant de s’installer dix ans à Radio France. »

Jeune ingénieur de l’École des technologies de l’information et de la communication, Sylvain Anichini s’était aussi associé avec deux camarades pour importer les premiers micro-ordinateurs des États-Unis, relevait L’Usine Nouvelle en 1996 :

« J’ai été présenté à André Rousselet, qui m’a demandé : « Trouvez-moi quelque chose pour être opérationnel dans un an », se souvient-il. Cette course contre la montre, il la gagne grâce à son ingéniosité. En concevant le décodeur uniquement avec des pièces disponibles sur le marché. Et en fabriquant la boîte avec les moules plastiques d’un répondeur téléphonique. Canal Plus lancé, Sylvain Anichini rejoint la Cinq d’Hersant. « Nous avons conçu l’une des premières rédactions informatisées au monde, avec CNN », rappelle-t-il. »

Le « pirate » britannique qui avait devancé Edward Snowden

Sylvain Anichini n’est pas le seul « pirate » à avoir influencé Antoine Lefébure. Il se souvient d’avoir rencontré Duncan Campbell en 1973 - 74, « parce que c’était un pirate assez connu en Grande-Bretagne, j’étais fasciné par lui. Avec lui et Sylvain, j’avais toutes mes réponses ! ».

Né en 1952, Duncan Campbell s’était de son côté intéressé à la programmation informatique à l’âge de 16 ans. Étudiant en physique, il avait commencé à publier ses premiers articles dans la presse « alternative » et « underground » aux débuts des années 70 afin, tout comme Antoine Lefébure, d’y partager ses découvertes.

En 1976, il publia notamment « The Eavesdroppers », qui révéla l’existence du Government Communications Headquarters (GCHQ), l’équivalent britannique de la NSA, dont l’existence était alors secrète, quand bien même il s’agissait du plus important des services de renseignement britannique. Cela valut à son co-auteur, Mark Hosenball, un journaliste américain, d’être expulsé du Royaume-Uni, et à Campbell d’être placé sur écoute et surveillance par le MI5, le service de contre-espionnage britannique.

Dans un article intitulé « Le GCHQ et moi », publié en 2015, Duncan Campbell revient brièvement sur les nombreux problèmes judiciaires, policiers ainsi qu’avec les services de renseignement que ses révélations lui ont depuis valu :

« Au cours de mes 40 années de reportage sur la surveillance de masse, j’ai subi trois descentes de police, j’ai été emprisonné une fois, j’ai vu des émissions de télévision que j’avais réalisées ou contribué à réaliser interdites de diffusion sous la pression du gouvernement à cinq reprises, j’ai vu des enregistrements saisis, j’ai été poussé hors d’un hélicoptère, mon téléphone a été mis sur écoute pendant au moins une décennie et, avec cette arrestation, j’ai été mis en examen pour une peine pouvant aller jusqu’à 30 ans d’emprisonnement pour des violations présumées des lois sur le secret. »

Il y explique par ailleurs avoir entendu parler pour la première fois des services secrets étant enfant : « Ma mère, Mary, mathématicienne, se souvenait souvent de son travail pendant la guerre dans un établissement ultrasecret [Bletchley Park, ndlr], et notamment de ses deux années passées aux côtés d’un homme que l’on appelait « le Prof » » :

« Elle dressait le portrait d’un homme maladroit, dégingandé et bègue, qui aimait la course de fond et les champignons qu’il ramassait dans les bois locaux et que personne ne voulait toucher – et qui était un génie des mathématiques « hors de sa portée ». Le professeur était Alan Turing, le décrypteur du code allemand Enigma pendant la guerre, l’inventeur de l’ordinateur moderne et le héros du film The Imitation Game, récemment récompensé par un Oscar. »

Il y précise aussi que « c’est à l’école que j’ai découvert le réseau de surveillance du GCHQ ». Lors d’une sortie à vélo en Écosse avec un autre étudiant en sciences, ils avaient en effet repéré une grande station radio au sommet d’une colline, sécurisée par des clôtures, des portes verrouillées et un panneau sans signification accroché au câble : « CSOS Hawklaw ». Interrogé, le propriétaire d’un fish-and-chips des environs leur rétorqua que les gens qui y travaillaient « ne parlent jamais », précisant que « c’est une base secrète du gouvernement ».

En mode OSINT (pour Open Source INTelligence, ou renseignement de source ouverte – ROSO – en français), à la bibliothèque municipale, il consulta dans la foulée les annuaires téléphoniques du pays, à la recherche d’autres sites du même nom. Il découvrit d’une part que les initiales signifiaient « Composite Signals Organisation Station », d’autre part qu’il existait d’autres stations de ce type un peu partout au Royaume-Uni. Quatre ans et un diplôme de physique plus tard, il découvrit aussi que le CSOS faisait partie du GCHQ, mais également que ce dernier y avait aussi déployé d’autres stations d’écoute et de surveillance des télécommunications, avec la NSA.

En 1988, il révélait l’existence du programme Project 415 (surnommé Echelon) de surveillance et d’interception des communications satellites, mis en œuvre par les services de renseignement anglo-saxons de l’alliance des « Fives Eyes ». Dix ans plus tard, le Parlement européen lui commandait un rapport circonstancié à son sujet, qui révéla qu’ils s’en servaient également pour faire de l’espionnage industriel, identifier les entreprises corruptrices (notamment européennes), afin de privilégier leurs propres entreprises.

Et ce, alors que la Grande-Bretagne faisait pourtant aussi partie de l’Union européenne. Ses recommandations furent « adoptées dans leur intégralité le 5 septembre 2001 », soulignait-il, ironiquement :

« Six jours plus tard, les tours jumelles s’effondraient. Les plans visant à limiter la surveillance de masse ont été enterrés avec les victimes du 11 septembre et n’ont jamais été officiellement publiés. Mais la preuve de l’existence d’Échelon est désormais disponible. »

Évoquant l’une des auditions le ciblant explicitement comme « atteinte à la sécurité nationale », Duncan Campbell soulignait que les témoins des services de sécurité avaient tenté, les uns après les autres, d’affirmer que les informations qu’il avait publiées « étaient en fait secrètes ». Lors de l’un de ces échanges, le chef d’une unité SIGINT (pour SIGnal INTelligence, ou renseignement d’origine électromagnétique, ROEM en français) s’était vu montrer un panneau de signalisation estampillé « CSOS » flanqué à l’entrée de sa base, et consultable par tous les passants :

« Q : Est-ce le nom de votre unité ?
R : Je ne peux pas répondre à cette question, c’est un secret.
Q : Est-ce le panneau que les passants de la route principale voient à l’extérieur de la base de votre unité ?
R : Oui.
Q : Lisez-le au jury, s’il vous plaît.
R : Je ne peux pas le faire. C’est un secret.
 »

Dans un second article, nous reviendrons plus précisément sur « Vie et mort du secret d’État », l’essai qu’Antoine Lefébure vient de publier à ce sujet, mais que nous estimions ne pas pouvoir évoquer sans être préalablement revenu sur son parcours.

NB : le sous-titre est un hommage assumé à l’incontournable ouvrage de Fred Turner, « Aux sources de l’utopie numérique », (re)publié par le non moins incontournable C & F Editions.

L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

2 janvier 2026 à 11:34
Éducation prétexte ?
L’Arcom va évaluer la pertinence des actions d’éducation aux médias et au numérique

Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.

La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.

L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.

Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.

Une hausse des actions du PAF, peu d’informations sur celles des plateformes

Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».

Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :

Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.

En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».

Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.

En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.

Pas d’évaluation de l’efficacité

Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».

Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :

☕️ [MàJ] Sur Steam, Linux gagne finalement du terrain avec 3,58 % de parts de marché

7 janvier 2026 à 07:15

Mise à jour du 6 janvier à 16h30. Steam a mis à jour ses chiffres, comme nous l’a fait remarquer un lecteur. La part de marché est désormais de 3,58 %, en hausse de 0,38 point sur un mois. Linux ne stagne donc pas en décembre, mais progresse plus qu’en novembre et quasiment autant qu’en octobre.

Les autres chiffres précédemment communiqués étaient également faux, SteamOS remonte à 26,32 % de parts de marché sur les systèmes Linux, suivi par Arch Linux à 9,54 % et Linux Mint à 7,85 %. Windows descend finalement à 94,23 %, en baisse de 0,56 point, tandis que MacOS gagne aussi du terrain à 2,18 % (+ 0,16 point).

Les chiffres actualisés de Steam sont disponibles par ici. Aucune explication sur les changements ne semble avoir été donnée.


Brief original du 2 janvier à 11h15. En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.

En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.

Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.

SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.

Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).

L’ANFR rappelle des smartphones qui « n’auraient jamais dû être mis sur le marché »

2 janvier 2026 à 09:51
Qui me parle ?
L’ANFR rappelle des smartphones qui « n’auraient jamais dû être mis sur le marché »

Sans même avoir eu besoin de les tester, l’ANFR sonne le rappel de six smartphones car ils ne respectent pas la réglementation européenne. À l’heure actuelle, ils sont toujours disponibles sur des marketplaces de revendeurs français. Ce ne sont pas les seuls ; nous avons également trouvé d’autres smartphones à la vente alors qu’ils sont sous le coup d’une procédure de retrait.

Le 31 décembre, l’Agence nationale des fréquences a publié un communiqué demandant « aux sociétés responsables de la mise sur le marché de retirer du marché français et de rappeler plusieurs téléphones non destinés au marché européen ».

Procédure de rappel pour Kxd, Oppo, Vivo, Oscal, Blackview et Hotwav

Il s’agit des Kxd Classic A10, Oppo F11-CPH1911, Vivo Y79A, Oscal Flat 1C, Blackview WAVE 6C et Hotwav CYBER 15. Ils sont « commercialisés sur la plateforme de vente en ligne Cdiscount », précise l’Agence. Il ne s’agit pas cette fois-ci d’un dépassement du DAS (exposition aux ondes), mais de manquements réglementaires, notamment « l’absence de mise en œuvre d’une procédure d’évaluation de la conformité, la non-fourniture de la documentation technique et le défaut du marquage CE ».

L’Agence explique qu’il s’agit de non-conformités administratives « majeures », et que ces smartphones « n’auraient jamais dû être mis sur le marché en France ». L’ANFR n’a même pas eu besoin de tester les caractéristiques techniques des smartphones pour lancer sa procédure.

Trois responsables de la mise sur le marché ont été identifiés : Apex Ce Specialists GMBH (Kxd Classic A10, Oppo F11-CPH1911 et Vivo Y79A), Gavimosa Consultoria (Oscal Flat 1C et Blackview Wave 6C) et enfin la société Bigm Trading (Hotwav Cyber 15).

Les trois entreprises ont été mises en demeure de « prendre toutes les mesures nécessaires pour mettre fin aux non-conformités », visiblement sans résultat. L’ANFR a alors adopté pour chaque téléphone une décision « exigeant leur retrait du marché français et leur rappel ».

Malgré cela, des smartphones toujours disponibles à la vente


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

2 janvier 2026 à 07:56
L'opium du peuple
La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

L’administration chinoise du cyberespace vient d’introduire des « mesures provisoires » afin d’empêcher les IA anthropomorphes d’induire leurs utilisateurs en erreur, de générer ou diffuser rumeurs et fausses promesses, de les inciter au suicide ou à prendre des décisions déraisonnables « par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ».

La Cyberspace Administration of China (CAC) vient de publier un appel à commentaires au sujet de « mesures provisoires pour l’administration des services interactifs anthropomorphes d’intelligence artificielle », fournis au public sur le territoire de la République populaire de Chine, qui « simulent les traits de personnalité, les schémas de pensée et les styles de communication humains et permettent une interactions émotionnelle avec les humains par le biais de textes, d’images, d’audio, de vidéo, etc. ».

Ces règles « constitueraient la première tentative mondiale de réglementation de l’IA dotée de caractéristiques humaines ou anthropomorphiques », explique à CNBC Winston Ma, professeur adjoint à la faculté de droit de l’université de New York et ayant fait une partie de ses études en Chine. Cette version « illustre un bond en avant, passant de la sécurité du contenu à la sécurité émotionnelle » par rapport à la réglementation chinoise de 2023 sur l’IA générative, précise M. Ma.

Le texte étant en chinois, nous l’avons traduit en français grâce à l’outil de traduction du navigateur Vivaldi motorisé par Lingvanex (qui nous semblait donner de meilleurs résultats que Deepl.com), avant de l’améliorer en le comparant aux propositions de Google Traduction. Nous nous basons également sur des articles et traductions de plusieurs de nos confrères américains, notamment ArsTechnica.

Rumeurs, fausses promesses et manipulations émotionnelles

Censées entrer en vigueur « en janvier 2026 », ces « mesures provisoires » appellent les acteurs industriels à « renforcer l’autodiscipline de l’industrie, établir et améliorer les normes [et] lignes directrices » susceptibles de « construire un écosystème d’applications conforme aux valeurs fondamentales du socialisme ». L’objectif est de « respecter la morale et l’éthique sociales », et d’empêcher les IA anthropomorphes de :

  1. « générer ou diffuser des contenus qui mettent en danger la sécurité nationale, ou répandent des rumeurs susceptibles de perturber l’ordre économique et social ;
  2. générer ou diffuser des contenus qui font l’apologie de l’obscénité, des jeux de hasard, de la violence ou de l’incitation au crime ;
  3. générer ou diffuser des contenus qui insultent ou diffament autrui, ou qui portent atteinte à leurs droits et intérêts légitimes ;
  4. fournir de fausses promesses qui affectent gravement le comportement des utilisateurs et des services qui nuisent aux relations sociales et interpersonnelles ;
  5. porter atteinte à la santé physique des utilisateurs en encourageant, glorifiant ou suggérant le suicide ou l’automutilation, ou porter atteinte à leur dignité et à leur santé mentale par des violences verbales, des manipulations émotionnelles ou tout autre moyen ;
  6. inciter les utilisateurs à prendre des décisions déraisonnables par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ;
  7. induire ou extraire des informations confidentielles et sensibles. »

Surveiller les émotions et prises de risques de leurs utilisateurs

Le texte avance également que les fournisseurs devront « assumer la responsabilité principale de la sécurité des services interactifs anthropomorphes », et « s’acquitter de leurs responsabilités en matière de sécurité tout au long du cycle de vie des services interactifs anthropomorphes ».

Ils devront également « disposer de capacités de sécurité telles que la protection de la santé mentale, le guidage des limites émotionnelles et l’avertissement de risque de dépendance, et ne doivent pas utiliser d’interactions sociales alternatives, contrôler la psychologie de l’utilisateur ou induire une dépendance comme objectifs de conception ».

Ils devront aussi surveiller les émotions de leurs utilisateurs :

« Les fournisseurs devraient avoir la capacité d’identifier l’état des utilisateurs et, tout en protégeant leur vie privée, d’évaluer leurs émotions et leur dépendance à l’égard des produits et services. S’ils constatent que les utilisateurs ont des émotions extrêmes et une dépendance, les mesures d’intervention nécessaires devront être prises. »

En cas de tendances à haut risque menaçant la vie, la santé et la sécurité des biens des utilisateurs, ils devront « le rassurer et l’encourager à demander de l’aide, et lui donner accès à une assistance professionnelle », mais également « mettre en place un mécanisme d’intervention d’urgence » :

« Les fournisseurs doivent mettre en place un mécanisme d’intervention d’urgence. Si un utilisateur évoque explicitement le suicide, l’automutilation ou d’autres actions extrêmes, un opérateur humain prend le relais et contacte immédiatement le tuteur ou la personne à contacter en cas d’urgence. Pour les utilisateurs mineurs et âgés, les fournisseurs doivent exiger de l’utilisateur qu’il renseigne des informations telles que les coordonnées de son tuteur et de sa personne à contacter en cas d’urgence lors de son inscription. »

Les prestataires devront en outre obtenir le consentement explicite des tuteurs des mineurs, et être en capacité de les contacter « en temps réel », leur fournir des informations récapitulatives sur l’utilisation du service par le mineur, mettre en place des fonctions de blocage, limiter la durée d’utilisation, etc.

Ils devront également aider les personnes âgées à indiquer qui contacter en cas de problèmes susceptibles d’affecter leur vie, leur santé ou leur sécurité, afin de leur offrir une assistance sociale, psychologique ou d’urgence.

La Chine et l’Asie, pays-clés pour le marché des robots compagnons

Les « mesures provisoires » évoquent aussi une obligation de chiffrement des données, d’audits de sécurité et de contrôles d’accès pour « protéger la sécurité des données d’interaction des utilisateurs ». Sauf consentement express des utilisateurs, leurs données ne pourront pas non plus être utilisées pour entrainer les modèles de langage.

Les fournisseurs devront par ailleurs indiquer clairement que les utilisateurs interagissent avec l’intelligence artificielle plutôt qu’avec des personnes, et rappeler à ceux qui l’utiliseraient « en continu pendant plus de deux heures » qu’ils devraient se déconnecter.

Si un fournisseur « découvre qu’un utilisateur présente un danger majeur pour la sécurité », il devra au surplus « suspendre ou mettre fin à la fourniture de services à l’utilisateur », documenter ce qui s’est passé et transmettre un rapport circonstancié aux autorités compétentes concernées.

Si une entreprise d’IA ne respecte pas ces règles, les boutiques d’applications pourraient être contraintes de mettre fin à l’accès à leurs chatbots en Chine, relève Ars Technica, qui note que Sam Altman, PDG d’OpenAI, avait entamé l’année 2025 en assouplissant les restrictions qui bloquaient l’utilisation de ChatGPT en Chine. « Nous aimerions travailler avec la Chine » avait-il déclaré, soulignant que nous devrions « travailler aussi dur que possible » pour y parvenir, car « je pense que c’est vraiment important ».

Ars Technica souligne que ces règles pourraient compromettre les espoirs des entreprises d’IA, « car le marché chinois est essentiel à la promotion des robots compagnons ». D’après une récente étude de Business Research Insights, le marché mondial des robots compagnons aurait dépassé les 360 milliards de dollars en 2025, et ses prévisions de Business Research Insights suggèrent qu’il pourrait atteindre une valeur proche de 1 000 milliards de dollars d’ici 2035, « les marchés asiatiques favorables à l’IA étant susceptibles de stimuler une grande partie de cette croissance ».

❌