Arch Linux et Manjaro (basée sur Arch) sont les premières à dégainer en ce début d’année. Il s’agit pour rappel de systèmes de type rolling release : les mises à jour sont fournies dès leur disponibilité, que les versions soient mineures ou majeures, au sein d’une branche unique. La dénomination se fait en opposition à l’approche classique, comme sur Ubuntu, où les gros changements attendent la branche suivante, donc une mouture majeure ultérieure.
Mais alors, si les améliorations importantes sont diffusées au fur et à mesure, que peut apporter une nouvelle édition d’Arch Linux ou Manjaro ? Techniquement, rien : ces nouvelles versions sont là pour les personnes qui souhaitent réaliser une installation avec une image ISO récente, limitant ainsi les mises à jour immédiates. Pour celles ayant un système installé et à jour, il n’y a rien de neuf : elles ont déjà les dernières nouveautés.
Manjaro 26.0
Dans les deux cas, les images ISO proposent les dernières versions de presque tous les composants, dans tous les domaines (ici pour Arch Linux, là pour Manjaro) : noyau Linux 6.18, KDE Plasma 6.5 (avec les suites KDE Gear 25.12 et KDE Frameworks 6.21), GNOME 49, Xfce 4.20, Mesa 25.3, Firefox 146, suite bureautique LibreOffice 25.8.4 (si elle est choisie à l’installation), GStreamer 1.26.10, ALSA 1.2.15.1, ou encore l’arrivée de l’environnement COSMIC (créé par System76 en Rust) en version finale 1.0.
On trouve également les pilotes NVIDIA 590. Rappelons que cette version a fait l’objet d’un avertissement par l’équipe d’Arch Linux, car elle abandonne le support des séries 900 et 1000 des GeForce. Le paquet étant installé automatiquement, les utilisateurs concernés devront le désinstaller et réactiver manuellement l’ancienne version.
Les nouvelles images ISO peuvent se récupérer depuis les sites d’Arch Linux et Manjaro. Comme indiqué, leur téléchargement n’est pas utile si vous avez un système fonctionnel et à jour.
Le fournisseur d’accès à Internet par satellite Starlink planifie de descendre de 70 km plus de 4 000 satellites de sa constellation. La direction de l’entreprise évoque la sécurité dans l’espace alors qu’elle en a récemment perdu un de façon incontrôlée. Elle avait pourtant déjà prévu cette manœuvre et demandé l’autorisation à la FCC depuis des mois.
« Starlink entame une reconfiguration importante de sa constellation de satellites afin d’améliorer la sécurité spatiale », a affirmé Michael Nicolls, le vice-président de l’ingénierie Starlink, dans un message publié sur le réseau social X.
Le responsable de la constellation explique que son entreprise va abaisser tous ses satellites (environ 4 400 satellites, précise-t-il) orbitant aux alentours de 550 km pour les faire rejoindre l’orbite de 480 km autour de la Terre. Il assure que cette opération est « étroitement coordonnée avec les autres opérateurs, les autorités réglementaires et l’USSPACECOM [le commandement interarmées états-unien des opérations spatiales] ». Starlink a, pour rappel, envoyé plus de 10 000 satellites en orbite, sur différentes orbites.
Michael Nicolls présente cette modification comme « une condensation des orbites Starlink » qui « améliorera la sécurité spatiale de plusieurs façons ». Son entreprise avait annoncé le 18 décembre dernier avoir perdu la communication avec l’un de ses satellites. « Le satellite est en grande partie intact, en chute libre, et va rentrer dans l’atmosphère terrestre et disparaître complètement dans les semaines à venir. La trajectoire actuelle du satellite le placera sous la Station spatiale internationale, ne présentant aucun risque pour le laboratoire orbital ou son équipage », affirmait Starlink.
« Le nombre de débris et de constellations de satellites prévues est nettement inférieur en dessous de 500 km, ce qui réduit la probabilité globale de collision », affirme Michael Nicolls pour justifier cette décision.
… Ou la place de Starlink ?
Et en effet, les places sont chères pour les constellations de satellites. Comme nous l’expliquait Gilles Brégnant (directeur général de l’ANFR) en 2023, « il n’y a que six places » dans la course mondiale. Et l’autre raison pour laquelle Starlink ferait cette manœuvre pourrait être de se réserver la meilleure. Elon Musk n’a pas pu s’empêcher d’expliquer que « le principal avantage d’une altitude plus basse est que le diamètre du faisceau est plus petit pour une taille d’antenne donnée, ce qui permet à Starlink de desservir une plus grande densité de clients ».
De fait, Starlink n’avait pas attendu de perdre un satellite pour anticiper cette manœuvre. Dès octobre 2024, l’entreprise demandait à la Federal Communications Commission (FCC) l’autorisation d’abaisser l’altitude des satellites « de 525 km, 530 km et 535 km à respectivement 480 km, 485 km et 475 km », comme l’avait repéré ArsTechnica.
Dans son argumentaire [PDF], Starlink expliquait que « cette reconfiguration entraînera une augmentation du nombre maximal potentiel de plans orbitaux et de satellites par plan pour toutes les couches sauf une à 475 km, le nombre total de satellites dans le système Gen2 ne dépassera pas 29 988 satellites, et la première tranche de satellites dans le système Gen2 restera de 7 500 satellites jusqu’à ce que la Commission autorise des déploiements au-delà de cette première tranche ».
Mais l’entreprise mettait en avant d’autres arguments que ceux de la sécurité spatiale : « Cette reconfiguration permettra à SpaceX d’offrir une meilleure couverture haut débit et une meilleure qualité de service aux consommateurs américains dans les zones à forte demande, et de répondre à l’évolution de la demande des consommateurs en déployant rapidement et de manière flexible des capacités aux États-Unis et dans le monde entier, là où elles sont le plus nécessaires ». En février dernier, la FCC a officiellement accepté cette demande [PDF].
Une conséquence incidente de cette opération pourrait être l’accentuation des traces laissées par la constellation sur les observations astronomiques, traces dont se plaignent déjà régulièrement les chercheurs en astrophysiques.
La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».
Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :
Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA
Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :
Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.
Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.
Aujourd’hui, les serveurs de Netatmo ont décidé de fêter la nouvelle année à leur manière, avec une panne. En conséquence, « les applications et le contrôle à distance ne sont pas disponibles ». C’est déjà la quatrième fois en cinq mois…
Les messages sont nombreux sur les réseaux sociaux : les serveurs Netatmo ne répondent plus. C’est également confirmé par les retours sur Downdetector, avec les premiers signalements aux alentours de 10 h et une montée en puissance jusqu’à la fin de la matinée. Cet après-midi aussi les serveurs semblent hors service. Cela tombe mal alors que la France est traversée par une vague de froid.
Sur la page dédiée à la gestion des incidents, Netatmo confirme et précise que ses « équipes travaillent actuellement à la résolution de l’incident afin que tout rentre dans l’ordre dans les meilleurs délais », sans plus de détail. Par contre, aucun message sur X ni réponse aux internautes pour le moment, que ce soit avec le compte officiel ou le compte support.
Le fabricant précise que « les applications et le contrôle à distance ne sont pas disponibles, mais le contrôle manuel et l’enregistrement des données continuent de fonctionner normalement », ces dernières seront donc disponibles quand la situation sera revenue à la normale.
« Toutes les fonctionnalités seront restaurées automatiquement, aucune action de votre part n’est nécessaire », ajoute le fabricant. Il précise aussi qu’une « partie des utilisateurs de Home + Control ne peuvent pas accéder à l’application ».
Comme le rapporte mac4ever, les applications affichent un message un peu plus précis : « vos produits continuent de fonctionner en autonomie même s’ils ne sont plus connectés : les Caméras enregistrent les événements, les Thermostats régulent le chauffage, les interrupteurs contrôlent les lumières… et vous retrouverez le contrôle total très bientôt ! ».
Selon certains, la situation semble revenir doucement à la normale. N’hésitez pas à nous faire part de vos retours si vous êtes concernés. Quoi qu’il en soit, Netatmo enchaine les pannes ces dernières semaines, avec un incident du même genre le 5 novembre, un autre le 29 octobre, le 27 septembre…
Cela relance encore une fois la question de la dépendance des produits connectés aux serveurs du fabricant. Nous en avions fait un édito il y a déjà plus de cinq ans… et la situation n’est pas franchement meilleure aujourd’hui.
2025 a été le fruit de quelques « BD » si tant est qu’on puisse appeler ces petits récits séquentiels ainsi. Il y en aura eu dix tout de même, parmi les autres dessins d’actualité. Avec Next pour commencer cette année, on vous rappelle à leur bon souvenir ces petites histoires, en attendant de prochaines cette année. Comme pour le premier Best-of des dessins d’actu dévoilé le weekend dernier, ces histoires que vous pourrez consulter en cliquant sur les illustrations dédiées, sont en accès libre pour la communauté. Meilleurs voeux de changement de calendrier administratif.
La classe américaine, où le récit d’une réunion avec un directeur d’établissement au bout du bout.
Et voilà ! Si vous voulez voir les six autres récits de 2025 et découvrir celles à venir, comme faire un rattrapage des dessins d’actu, c’est simple : abonnez-vous les amis !
Linky permet d’avoir un historique précis de sa consommation dans le temps et vous permet ainsi de choisir l’offre la plus adaptée en fonction de vos habitudes. Problème, Enedis ne permet plus que le téléchargement de sept jours avec le détail de la consommation horaire. Next vous propose une solution pour contourner cette limitation.
Mise à jour du 2 janvier 2026. Comme nous l’a fait remarquer un lecteur, le script ne fonctionnait plus. Enedis est en effet passé en « v2 » sur son API ; nous avons donc dû légèrement adapter notre script (l’URL de téléchargement pour être précis). Le reste de notre tuto est exactement le même.
Le script est de nouveau fonctionnel et permet donc de télécharger des semaines ou des mois complets de données Enedis, alors que le site officiel impose une forte limitation : « En affichage horaire, la période sélectionnée peut s’étendre jusqu’à 7 jours ».
Vous pouvez ensuite fusionner les données pour n’avoir qu’un seul fichier puis l’injecter dans notre outil pour comparer les offres. Celui-ci est un peu vieillot, on se donne rendez-vous en début de semaine pour une version mise à jour, avec bien plus de forfaits à comparer. En attendant, profitez du week-end pour récupérer vos données depuis le site d’Enedis.
Article original du 28 mai 2025. En octobre, nous vous expliquons comment récupérer un an de données de consommation, avec le détail heure par heure de votre consommation électrique. Des informations précieuses pour comparer les offres des différents fournisseurs, et notamment la formule Tempo qui dispose de pas moins de six tarifs en fonction des jours de l’année.
Enedis limite fortement le téléchargement de vos données
Quelques semaines après la mise en ligne de notre comparateur interactif se basant sur vos données de consommation, Enedis modifiait son site et ajoutait une limitation importante : le téléchargement de la consommation horaire ne pouvait plus dépasser sept jours. Encore aujourd’hui, cette restriction est de mise. C’est largement insuffisant pour comparer les offres ; le mieux étant de regarder sur une année complète de données afin de prendre en compte les variations saisonnières.
Le service presse d’Enedis n’a pas répondu à nos questions, mais le service client nous expliquait en février que la plateforme avait « été modifié au profit d’une nouvelle interface ». Le but était « d’améliorer l’expérience utilisateur ». Cette mise à jour a cassé l’export classique des données. Le service client d’Enedis ajoutait alors que le « support informatique travaill[ait| activement à la mise en production de celle-ci » et que la fonctionnalité devrait être de retour « dans les prochaines semaines ». Nous sommes à la fin du mois de mai, rien n’a bougé.
Nous avons recontacté le service client ces derniers jours ; le discours a changé… mais pas dans le bon sens : « Si vous souhaitez visualiser une année complète, vous devrez télécharger vos données par tranche de sept jours. En effet, les données data sont trop importantes en téléchargement sur une période plus importante ».
C’était possible avec l’ancienne interface sans que cela pose le moindre problème. Autant dire qu’un fichier avec environ 17 500 lignes (365 jours, avec une mesure toutes les demi-heures, soit 365 x 2 x 24) n’est pas du tout excessif en 2025… d’autant plus que c’était possible en 2024.
Next vous propose une solution de contournement
Il reste 69% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Alors que le budget de la NASA est en baisse, l’agence spatiale américaine ferme ce vendredi la bibliothèque du Goddard Space Flight Center. Un lieu qui abrite des dizaines de milliers de livres, de documents et de revues, dont beaucoup ne sont pas numérisés ou disponibles ailleurs, explique le New York Times.
Selon un porte-parole de la NASA, l’agence va faire l’inventaire de la bibliothèque d’ici deux mois pour trier les documents qu’elle stockera dans un entrepôt gouvernemental et ceux qu’elle jettera. « Ce processus est une méthode établie utilisée par les agences fédérales pour éliminer correctement les biens appartenant à l’État fédéral », justifie-t-il auprès du New York Times.
« L’administration Trump a passé l’année dernière à attaquer la NASA Goddard et son personnel, et à menacer nos efforts visant à explorer l’espace, approfondir notre compréhension de la Terre et stimuler les avancées technologiques qui renforcent notre économie et rendent notre nation plus sûre », affirme de son côté le sénateur démocrate du Maryland Chris Van Hollen.
Le porte-parole de la NASA renvoie les employés de l’agence vers un service numérique nommé « Ask a Librarian » ou vers les bibliothèques d’autres agences fédérales.
Selon le New York Times, le fonds de cette bibliothèque inclut, entre autres, des livres de scientifiques soviétiques des années 60 et 70 comme des informations sur les premières missions de l’agence américaine.
30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.
En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.
En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).
667 millions d’adresses IPv6… par mm² !
La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.
4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.
Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».
La France en tête du taux d’utilisation d’IPv6 !
L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.
Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.
En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.
Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »
En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.
Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».
En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.
Cinq grandes étapes, la première d’ici 2 à 3 ans ?
L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :
IPv6 est activé par défaut sur la quasi-totalité des offres grand public
IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
Une part non négligeable des sites web sont hébergés en IPv6 uniquement
Une part non négligeable des FAI ne proposent plus d’IPv4
La majorité des sites abandonnent IPv4
La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.
Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.
Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :
Historien des médias, pionnier des bases de données, de l’« information automatisée », de l’accès aux images satellitaires puis du web, Antoine Lefébure a aussi créé la première radio « libre » française, et préfiguré ce qui allait devenir Canal+. Il se définit lui-même comme un « pirate », et vient de publier une histoire du « secret d’État », à laquelle il a consacré ces cinq dernières années. Portrait, doublé d’une interview.
Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 10 avril 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !
Taquin, Antoine Lefébure indique sur son blog avoir été dans la même classe de CP que Vincent Bolloré et Martin Bouygues. Contrairement à eux, il n’est devenu ni milliardaire ni magnat des médias. Et si son nom est bien moins connu que les leurs, son empreinte sur le paysage audiovisuel français (PAF) n’a rien à leur envier.
Il a 18 ans lorsque, en 1968, il devient étudiant à Nanterre : « L’année révolutionnaire pour un étudiant épris de liberté et agitateur né, l’occasion est trop belle », écrit-il dans sa biographie. L’artiste d’avant-garde Jean-Jacques Lebel vint y expliquer qu’il fallait « faire une révolution culturelle comme l’avaient souhaité Dada et les surréalistes. Une perspective qui m’enthousiasme plus que le délire pro-ouvrier des maoïstes », se souvient-il.
Dans une interview de 2008 pour Médiamorphoses, il se souvient d’avoir assisté à des débats enflammés entre Daniel Cohn-Bendit et Bruno Gollnisch. Étudiant juif allemand, le premier allait devenir une figure de Mai 68. Le second, qui tenait à l’époque la corpo de Droit, est depuis devenu une figure du Front national. Mais la préférence d’Antoine Lefébure, qui se présente lui-même comme plutôt « chahuteur », va alors aux Enragés, « pour la plupart fils d’anarchistes espagnols et inspirés de l’Internationale Situationniste ».
Quelques semaines plus tard, le Mouvement du 22 Mars constitue l’un des éléments déclencheurs de Mai 68. Il participe à toutes ses manifestations, fréquentant Sartre, Virilio, Baudrillard, et Godard, qui filmait alors les Rolling Stones. Il explique y avoir aussi découvert les Pink Floyd, la marijuana et la presse underground, et être devenu spectateur assidu de tous les festivals de l’époque, Woodstock, île de Wight, Amougies…
« Le retour à Nanterre en septembre sera un peu dur, détaille-t-il sur son blog. Nous sommes dans le collimateur des policiers, des appariteurs musclés, des indics et des fascistes, tous bien décidés à prendre leur revanche après la grande peur de Mai. Le gauchisme, je m’en rends très vite compte, ne fait pas le poids. Je continue mes études avec comme bol d’air, les cours de Baudrillard et les projections de Langlois qui nous raconte « son » histoire du cinéma. »
Il passe ensuite une année sur le campus de Berkeley en Californie – autre haut lieu de la contestation dans les années 1970 – pour y étudier la communication : « j’y ai travaillé avec des gens qui faisaient des Blue Box [dispositif électronique permettant de frauder les télécommunications mais également d’écouter des conversations en cours, ndlr], explique-t-il à Next. je travaillais aussi pour une organisation, People Broadcasting Service, qui traduisait des messages venant du monde entier, mais aussi pour une radio libre à Berkeley, et c’est ça qui m’a donné envie de faire pareil en France ».
Revenu en France, il enquille à la Sorbonne une maîtrise d’Histoire contemporaine sur « Le rôle de la radio en France pendant la Seconde Guerre mondiale », et plus particulièrement à Radio Paris. Placée sous la direction de la propagande nazie, celle-ci se fit le porte-voix collaborationniste du régime de Vichy afin de convaincre les Français de collaborer avec les Allemands. Elle est aussi connue pour avoir été brocardée par Pierre Dac sur Radio Londres en mode « Radio-Paris ment, Radio-Paris ment, Radio-Paris est allemand » :
« Il y avait une omerta à l’époque, j’ai réussi à faire ouvrir les archives, travaillé sur la propagande nazie, et découvert que plein de gens de l’ORTF ou de RTL avaient commencé à Radio Paris. »
« La police nous écoute, écoutons la police »
Antoine Lefébure commence en parallèle à faire des reportages pour L’Idiot International, le journal pamphlétaire de Jean-Edern Hallier, et Libération, découvrant par ailleurs l’intérêt d’ « écouter les communications de la police pour être au courant de tout avant tout le monde ». À la grande fureur des autorités, il fait la promotion de ce hobby, écrivant dans les colonnes du quotidien « La police nous écoute, écoutons la police ».
En échange, et plutôt que de le payer, Libé met à sa disposition du matériel pour qu’il maquette et imprime la revue qu’il contribue à créer en 1974, Interférences, sous-titrée « Pour une critique des appareils d’information et de communication ».
Dans son premier numéro, Interférences révèle les plans secrets du nouveau réseau téléphonique gouvernemental français Régis. Dans son n°2, elle traite de l’informatisation de la police aux États-Unis, des sabotages informatiques, puis de l’espionnage (et de la surveillance, et de la pollution) électronique, de la cryptographie, de la protection du secret en France et aux États-Unis, de l’ « irruption du techno-imaginaire » … ainsi que de la NSA, auquel Antoine Lefébure consacrera un article en 1976.
Y contribuent notamment Philippe Aigrain, Jean Baudrillard, William S. Burroughs, Philip K. Dick, Jean-Edern Hallier, Maurice Ronai ou encore Norman Spinrad, quand bien même, à l’époque, les idées promues et véhiculées par Interférences touchèrent un public réduit mais passionné :
« Parler de piratage informatique, d’écoute électronique, de radios libres à cette époque suscite peu d’échos, écrit-il. Le milieu gauchiste considère cela comme un délire de techniciens, les professionnels du domaine ne comprennent pas de quoi nous parlons. Pourtant se rassemble autour de la revue un groupe hétéroclite de passionnés qui sont aujourd’hui à tous les carrefours des industries de la communication. »
Interférences a depuis été qualifiée de « lieu de réflexion sur les grands mouvements technologiques que la France des années 1970 est en train de découvrir », mais également de « magazine underground, post-gauchiste, rédigé par des bénévoles, entièrement consacré, chose rare au milieu des années soixante-dix, à l’électronique, à l’informatique, aux ondes de toutes fréquences, aux hackers, au cryptage et à l’espionnage ».
Il pirate Antenne 2, et lance la première radio libre
Lors des élections municipales de 1977, les Amis de la Terre recueillent, sous l’intitulé « Paris Écologie », quelque 10 % des voix à Paris, marquant l’émergence de l’écologie politique en France. À cette occasion, le futur candidat écologiste à l’élection présidentielle de 1981 Brice Lalonde et Antoine Lefébure concoctent un « coup médiatique », sous la forme d’un « piratage » du « temps de cerveau disponible » de 5 millions de téléspectateurs d’Antenne 2, et de l’ensemble des journalistes et médias qui y assistèrent.
Sur le plateau de l’émission, Brice Lalonde sort en effet un transistor diffusant la première émission de Radio Verte, la première radio FM dite « libre » en France à oser braver ouvertement le monopole gouvernemental. Antoine Lefébure, qui s’était fait passer pour son garde du corps, avait en effet bricolé un émetteur gros comme une cassette.
Antoine Lefébure lance aussi une Association pour la libération des ondes (ALO), afin de lutter pour la libre expression radiophonique et contre les inculpations de responsables des radios libres, les saisies de matériel et le brouillage des ondes.
En parallèle, une enquête intitulée « Le monopole d’État et l’histoire du télégraphe et du téléphone en France » lui permet de préparer un Doctorat d’Histoire Contemporaine, en 1979, et de muscler son expertise au service de la défense des radios libres.
Le combat de Giscard d’Estaing pour maintenir l’interdiction des radios libres, les brouiller et saisir leur matériel, contribua à sa défaite électorale en 1981, estime par ailleurs Antoine Lefébure.
La légalisation des « radios libres » par le gouvernement socialiste de François Mitterrand, élu président en 1981, signe la fin de son engagement en faveur de cette forme de « liberté d’expression », et de son combat contre le « monopole d’État » qui y présidait.
« On a passé un accord avec NRJ, mais ils sont allés voir le gouvernement, en leur disant « si vous nous donnez la fréquence sans Radio Verte on vous fait la propagande », se remémore-t-il. Pendant les 3 premières années, les flashs d’information de NRJ n’était que le bulletin paroissial du parti socialiste, c’était dément, et on a été viré, ce qui arrangeait le pouvoir politique. »
Après s’être fait piquer sa fréquence par NRJ, il contribue à lancer… Canal+
Après s’être fait piquer la fréquence de Radio Verte par NRJ, il abandonne et est recruté par le groupe Havas comme responsable du développement (nouvelles technologies, banque de données, CD …) « grâce à un type d’Havas que j’avais rencontré au séminaire de Jean Baudrillard » :
« Havas faisait de la pub et du tourisme, les deux choses que je déteste, raconte-t-il. J’avais 28 ans, c’était la première fois que j’étais salarié, à Neuilly-sur-Seine, mais y avait une bonne ambiance, j’ai embauché plusieurs potes qui venaient eux aussi de la radio libre, et on voulait bosser dans les médias. »
« Ce qui nous intéresse, ce sont les systèmes d’information et les banques de données », précisa-t-il dans l’interview de 2008, au point d’en devenir « un utilisateur forcené ». En 1982, grâce au réseau de transmission de données Tymnet (initialement conçu par Tymshare, un fournisseur américain de services dits de temps partagé), Havas avait accès à la plupart des grandes banques de données américaines. « Nous explorions ainsi toute la presse états-unienne à l’aide de simples mots-clés ».
Fourni par LexisNexis, le service avait été conçu à Palo Alto et était distribué en France par le centre de documentation du Point. Cela permettait à ses équipes de trouver des informations auxquelles personne d’autre n’avait accès. D’une part, parce que ce terminal spécifique « nous coûtait quelque 1 500 francs l’heure de consultation », mais également parce qu’aucun organisme ou presque ne s’en servait :
« Au bout de six mois, les gens de Nexis viennent nous voir, ils sont évidemment très contents parce que nous leur avons lâché plus de 100 000 francs. Nous apprenons, à cette occasion, que les deux seuls utilisateurs de leur service en France sont Havas et… la DGSE. »
Séduit en tant qu’utilisateur, Antoine Lefébure essaye de convaincre Havas d’investir dans ce secteur prometteur : « Mais, à l’époque, Nexis ne gagne pas un sou. Personne n’y croit. Alors, j’arrête les frais en me disant : « Les esprits ne sont pas mûrs » », se souvient-il. Entre-autres mots-clefs, histoire de trouver d’autres idées à développer, « on a tapé pay TV », et découvert qu’il y avait alors aux USA deux télévisions hertziennes à péage (On TV, et Select TV) :
« J’ai envoyé là-bas un membre de mon équipe, Jacques Driencourt, qui est revenu avec toute la technologie, le logiciel de gestion des abonnés, les mecs lui ont tout donné ! On a fait un petit projet, c’était le moment où André Rousselet arrivait à Havas comme président. Les hauts responsables de l’agence lui ont présenté la direction du développement, que je dirigeais, comme des malades mentaux, mais Rousselet détestait autant la pub et le tourisme que nous. On lui a présenté notre projet de TV à péage et il est devenu dingue, c’est devenu son bébé. Et nous voilà partis pour trois ans de travaux, avec des délais invraisemblables. »
« Intellectuellement, le projet de télé à péage, c’était pas excitant. Ce qui m’excitait, c’était de casser le monopole de la télé, après avoir cassé celui de la radio », nous précise Antoine Lefébure : « j’étais du côté du manche chez Havas, dont le président était le meilleur copain de Mitterrand, et donc on a pu prendre le pas sur TDF (qui nous avait brouillé pendant 4 ans, du temps des radios libres), et notre vengeance a été totale : TDF vomissait cette idée, ils ont tout fait pour nous éliminer, de même que France Télécom et le ministère de l’Industrie », qui voulaient privilégier leur projet de plan câble.
« Un nouveau front : celui de l’information, pétrole du XXIème siècle »
Devenu directeur de la prospective du groupe Havas, il y lance les premières expériences de télématique et de banque de données du groupe, et se lance dans la prospective.
Avec Maurice Ronai (lui aussi chercheur et pionnier du numérique, et qui était alors journaliste spécialisé dans l’informatique), il co-signe en 1979 « Panne des sens », un film (en vidéo) sur « l’informatisation de la société », pour reprendre la terminologie de l’époque. Les cinéphiles apprécieront qu’y figurent également au générique le réalisateur et scénariste Louis Daquin, la directrice de la photographie et cinéaste Caroline Champetier et Dominique Chapuis, alors chef op’ de Godard et qui sera par la suite celui du Shoah de Claude Lanzmann.
Cette même année, Lefébure et Ronai publient aussi et surtout une série d’articles dans Le Monde Diplomatique, intitulée « La guerre des données » et consacrée à l’importance croissante des réseaux télématiques et bases de données.
Ils y expliquaient pourquoi, « dans la guerre économique et industrielle mondiale, se dégage un nouveau front : celui de l’information », qu’ils qualifiaient déjà de « nouvelle matière première [et] pétrole du vingt-et-unième siècle » :
« Révolution informationnelle, société informationnelle, âge de l’information, société postindustrielle, troisième âge de la révolution industrielle… Toute une série d’analyses mettent l’accent sur l’information comme nouvelle matière première, nouvelle forme d’énergie, pétrole du vingt et unième siècle, agent majeur de la croissance, moteur de l’économie, nouvelle frontière pour des sociétés essoufflées. »
Un an avant le lancement des premières expérimentations du Minitel (pour « Médium interactif par numérisation d’information téléphonique »), ils relevaient déjà que grâce aux satellites, fibres optiques, réseaux de télécommunication, micro-ordinateurs, microprocesseurs et leurs applications, « l’informatisation des fichiers, conçus pour être interrogés en « conversationnel » (on line), et des réseaux de télétransmission internationaux qui permettent d’accéder à ces vastes « réservoirs de pensée » » :
« Il est actuellement possible, à partir de n’importe quel lieu où l’on dispose d’un téléphone, d’interroger à l’aide d’un terminal plusieurs millions de références d’articles, plusieurs milliards de données numériques ou textuelles sur tous les sujets, de modifier immédiatement la question en fonction des premières réponses et d’obtenir en quelques minutes l’information souhaitée. »
Ils soulignaient aussi que si l’information est « une marchandise » et qu’ « un immense marché s’offre aux sociétés spécialisées dans la vente de données », « les impératifs de rentabilité et la concurrence annoncent une guerre commerciale où risquent de s’engloutir les notions de service public et de souveraineté de l’État ».
Évoquant la « suprématie économique et scientifique » des États-Unis en la matière, ils s’étonnaient du fait que, non contents de détenir « le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) », « avec quatre cent cinquante banques et bases de données, les États-Unis détiennent 90 % du stock mondial de données on line » :
« Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements. »
Ils notaient également que « l’avance américaine, évaluée à cinq ans, glisse insensiblement au monopole de fait, au niveau tant de la production des bases de données que des systèmes de distribution et des réseaux de transmission ».
Un an plus tard, Lefébure soulignait qu’ « à l’avenir, ceux qui contrôlent les réseaux télématiques détiendront en grande partie les moyens de transmission du savoir. Et, avec ces moyens, un pouvoir de contrôler l’évolution des sociétés et des esprits ».
Interrogé par Médiamorphoses à leurs sujets, Antoine Lefébure précise : « Ce qui m’intéresse alors, c’est moins l’informatique en elle-même que les services qu’elle peut fournir. C’est aussi cette idée ou ce fantasme qu’il y a, quelque part, un grand réservoir d’informations qui nous est fermé, et qu’il faudrait « pirater » pour pouvoir ensuite agir en conséquence ».
« Donc, avec Maurice Ronai, un ancien membre des comités d’action lycéens de Mai 68 et un complice d’Interférences, nous travaillons sur ces questions, reprend-il pour Next. Claude Julien nous donne carte blanche pour réaliser un dossier dans Le Monde Diplomatique, nous rédigeons également quelques articles pour Libération. Il n’en faut pas plus pour devenir « spécialistes » aux yeux des profanes. Il faut en effet se souvenir qu’à l’époque, très peu de personnes s’intéressent à l’information automatisée. »
Et ce, d’autant qu’ « en France, il y a un vrai mépris des technologies : non seulement la plupart des gens n’y comprennent rien, mais il y a en plus une sorte de suffisance qui fait que les leaders d’opinion (politiques, intellectuels, etc.) mettent comme un point d’honneur à les mépriser ».
Il se souvient qu’à Havas, « quand nous parlions par exemple d’ »algorithmes de cryptage » pour le décodeur de Canal Plus, André Rousselet nous interrompait brutalement en disant : « Épargnez-moi ce genre de mots ! » Une suffisance ridicule ! ».
« N’oublions pas que les médias audiovisuels sont alors interdits du fait du monopole », soulignait-il, ce pourquoi la plupart des gens de sa génération « vont s’investir dans la presse écrite ».
Pirate des monopoles d’État, maître d’œuvre du web gouvernemental
En 1988, François Mitterrand est réélu, le RPR place ses amis et Lefébure vole vers de nouvelles aventures. Il crée sa propre société, Technique Media Société (TMS), qui jouera un rôle de pionnier dans le développement de l’information automatisée, l’accès aux bases de données et des images satellitaires.
En 1994, il se rend aux États-Unis dans le cadre d’une étude sur le dépôt légal de l’audiovisuel, et découvre Mosaic, le premier navigateur à avoir rendu le World Wide Web populaire. En 2008, il raconte :
« C’est vraiment une révélation : il y a désormais une interface et ça ne coûte pratiquement rien. Non seulement ça marche, mais, en plus, il est évident que ça va changer le monde. Dès mon retour, j’arrête tout et je bascule TMS vers l’Internet. »
« Comme j’avais ma formation banques de données, c’était ce que j’attendais depuis 10 ans, et on a fait de TMS une des premières web agency » en France, nous précise-t-il, contribuant notamment à lancer, en 1996, le… tout premier site web du Premier ministre français (Alain Juppé, qu’avait alors convaincu son ministre des télécommunications, François Fillon), « optimisé pour Nestcape 2.0, en mode graphique, pour une fenêtre de 640 par 480 pixels ».
Un joli pied de nez, pour celui qui n’avait de cesse de lutter contre le monopole de l’État en matière de liberté d’expression audiovisuelle. Une victoire politique, aussi, alors que « certains, dans l’entourage du premier ministre, insistent pour que les sites n’intéressant a priori que le public français restent exclusivement basés sur Télétel, c’est-à-dire demeurent pour l’essentiel payants », comme le soulignait alors un article du Monde intitulé « Marianne flirte avec Internet ».
« En France, pendant dix ans, on a considéré l’information comme un marché ; on l’a fait payer. Les recettes générées sont devenues un élément de fonctionnement », y relevait de son côté Maurice Ronai, constatant qu’aux États-Unis, une bonne partie des textes officiels dont l’accès étaient payants en France (budgets détaillés, rapports d’activité, lois en discussion, etc.) « sont disponibles gratuitement sur Internet ».
Un constat appuyé par Antoine Lefébure qui, s’étant vu confié la maîtrise d’œuvre du montage des services en ligne de Matignon, expliquait au Monde que « la générosité est payante sur Internet. Les économies engendrées, en simplifiant la vie quotidienne des citoyens et de l’administration, seront supérieures au manque à gagner ».
« La consultation du site Web sera instructive : ce service témoignera de la façon dont le premier ministre entend informer et dialoguer effectivement avec les citoyens », concluait l’article du Monde, évoquant « un enjeu moins futile qu’il y pourrait paraître ». Une vision qu’il eut du mal, cela dit, à faire accepter, comme il le relevait auprès de Médiamorphoses :
« Au début, ce n’est pas facile, autant pour nous que pour les trois ou quatre autres sociétés qui s’installent sur le créneau. Pendant deux ans, je passe mon temps à expliquer la différence entre Internet et le minitel, que j’ai toujours détesté, sans doute parce que c’était une nouvelle incarnation du monopole. J’essaye aussi de convaincre mes interlocuteurs que ce réseau n’est pas un nouvel avatar de l’impérialisme américain. »
Un « pirate radio » poursuivi par la DST et la Justice, à l’âge de 13 ans
Interrogé sur ce qui avait pu présider à un tel parcours, somme toute emblématique de la « contre-culture » technologique des années 70 et 80, Antoine Lefébure explique avoir découvert, à l’âge de 12 ans, au dernier étage du Palais de la découverte, « un radio-amateur en blouse blanche » qui lui laissait parfois les manettes, lui permettant de correspondre avec des gens du monde entier :
« Et ça m’a passionné, j’ai commencé à acheter des vieux postes, je mettais 60 mètres de fil de fer pour écouter les ondes courtes et j’entendais des radioamateurs, j’étais DX [loisir qui consiste à rechercher et identifier des signaux radio/TV à longues distances, ndlr], et à 17 ans, je me suis lancé dans l’émission, en réception tu ne fais qu’écouter, c’était interdit quand tu n’avais pas de licence. »
Antoine Lefébure précise n’avoir « jamais eu de licence de radioamateur : j’ai toujours été pirate, quand on se salue avec nos potes, on se dit « pirate un jour, pirate toujours ! » ». Rapidement, il avait en effet identifié « un type comme moi qui avait une puissance incroyable et qui me bloquait en réception ». C’est ainsi qu’il a rencontré Sylvain Anichini, qui était « très fort en hautes fréquences et en informatique ».
Lefébure se souvient qu’à l’époque de leur rencontre, Sylvain Anichini avait installé son émetteur avec une antenne de 10 mètres sur le toit, qu’il émettait dans le monde entier « et s’était fait piquer deux fois par la DST et inculper deux fois. Le tribunal pour enfants l’a relaxé, mais il était dans le viseur des flics, son antenne faisait concurrence avec celle de la Place Beauvau ».
Antoine Lefébure se souvient aussi que le responsable de la police des communications radio-électriques (PCR), sise à Boullay-les-Troux (devenue depuis une station d’écoute de la DGSI), s’appelait Commissaire Brute : « il nous aimait bien parce qu’on lui donnait du boulot, d’autant qu’ils étaient en surnombre vu qu’il y avait moins de gauchistes » entre 1977 et 1981.
Cela n’empêcha pas Sylvain Anichini de faire carrière à la télé puis la radio, comme le raconta Télérama, et même de concevoir le décodeur de Canal+ après qu’il fut recruté par Antoine Lefébure à Havas :
« À 13 ans, il est convoqué au tribunal pour enfants. À 17 et 19 ans, il passe en correctionnelle. En 1981, il fabrique les antennes à la chaîne. Surdoué de la technique, mais las d’être traqué par la police, Sylvain Anichini passe alors à autre chose : en 1984, il devient le directeur technique de Canal+, puis de La Cinq, de La Cinquième, de France 3, avant de s’installer dix ans à Radio France. »
Jeune ingénieur de l’École des technologies de l’information et de la communication, Sylvain Anichini s’était aussi associé avec deux camarades pour importer les premiers micro-ordinateurs des États-Unis, relevait L’Usine Nouvelle en 1996 :
« J’ai été présenté à André Rousselet, qui m’a demandé : « Trouvez-moi quelque chose pour être opérationnel dans un an », se souvient-il. Cette course contre la montre, il la gagne grâce à son ingéniosité. En concevant le décodeur uniquement avec des pièces disponibles sur le marché. Et en fabriquant la boîte avec les moules plastiques d’un répondeur téléphonique. Canal Plus lancé, Sylvain Anichini rejoint la Cinq d’Hersant. « Nous avons conçu l’une des premières rédactions informatisées au monde, avec CNN », rappelle-t-il. »
Le « pirate » britannique qui avait devancé Edward Snowden
Sylvain Anichini n’est pas le seul « pirate » à avoir influencé Antoine Lefébure. Il se souvient d’avoir rencontré Duncan Campbell en 1973 - 74, « parce que c’était un pirate assez connu en Grande-Bretagne, j’étais fasciné par lui. Avec lui et Sylvain, j’avais toutes mes réponses ! ».
Né en 1952, Duncan Campbell s’était de son côté intéressé à la programmation informatique à l’âge de 16 ans. Étudiant en physique, il avait commencé à publier ses premiers articles dans la presse « alternative » et « underground » aux débuts des années 70 afin, tout comme Antoine Lefébure, d’y partager ses découvertes.
En 1976, il publia notamment « The Eavesdroppers », qui révéla l’existence du Government Communications Headquarters (GCHQ), l’équivalent britannique de la NSA, dont l’existence était alors secrète, quand bien même il s’agissait du plus important des services de renseignement britannique. Cela valut à son co-auteur, Mark Hosenball, un journaliste américain, d’être expulsé du Royaume-Uni, et à Campbell d’être placé sur écoute et surveillance par le MI5, le service de contre-espionnage britannique.
Dans un article intitulé « Le GCHQ et moi », publié en 2015, Duncan Campbell revient brièvement sur les nombreux problèmes judiciaires, policiers ainsi qu’avec les services de renseignement que ses révélations lui ont depuis valu :
« Au cours de mes 40 années de reportage sur la surveillance de masse, j’ai subi trois descentes de police, j’ai été emprisonné une fois, j’ai vu des émissions de télévision que j’avais réalisées ou contribué à réaliser interdites de diffusion sous la pression du gouvernement à cinq reprises, j’ai vu des enregistrements saisis, j’ai été poussé hors d’un hélicoptère, mon téléphone a été mis sur écoute pendant au moins une décennie et, avec cette arrestation, j’ai été mis en examen pour une peine pouvant aller jusqu’à 30 ans d’emprisonnement pour des violations présumées des lois sur le secret. »
Il y explique par ailleurs avoir entendu parler pour la première fois des services secrets étant enfant : « Ma mère, Mary, mathématicienne, se souvenait souvent de son travail pendant la guerre dans un établissement ultrasecret [Bletchley Park, ndlr], et notamment de ses deux années passées aux côtés d’un homme que l’on appelait « le Prof » » :
« Elle dressait le portrait d’un homme maladroit, dégingandé et bègue, qui aimait la course de fond et les champignons qu’il ramassait dans les bois locaux et que personne ne voulait toucher – et qui était un génie des mathématiques « hors de sa portée ». Le professeur était Alan Turing, le décrypteur du code allemand Enigma pendant la guerre, l’inventeur de l’ordinateur moderne et le héros du film The Imitation Game, récemment récompensé par un Oscar. »
Il y précise aussi que « c’est à l’école que j’ai découvert le réseau de surveillance du GCHQ ». Lors d’une sortie à vélo en Écosse avec un autre étudiant en sciences, ils avaient en effet repéré une grande station radio au sommet d’une colline, sécurisée par des clôtures, des portes verrouillées et un panneau sans signification accroché au câble : «CSOS Hawklaw ». Interrogé, le propriétaire d’un fish-and-chips des environs leur rétorqua que les gens qui y travaillaient « ne parlent jamais », précisant que « c’est une base secrète du gouvernement ».
En mode OSINT (pour Open Source INTelligence, ou renseignement de source ouverte – ROSO – en français), à la bibliothèque municipale, il consulta dans la foulée les annuaires téléphoniques du pays, à la recherche d’autres sites du même nom. Il découvrit d’une part que les initiales signifiaient « Composite Signals Organisation Station », d’autre part qu’il existait d’autres stations de ce type un peu partout au Royaume-Uni. Quatre ans et un diplôme de physique plus tard, il découvrit aussi que le CSOS faisait partie du GCHQ, mais également que ce dernier y avait aussi déployé d’autres stations d’écoute et de surveillance des télécommunications, avec la NSA.
En 1988, il révélait l’existence du programme Project 415 (surnommé Echelon) de surveillance et d’interception des communications satellites, mis en œuvre par les services de renseignement anglo-saxons de l’alliance des « Fives Eyes ». Dix ans plus tard, le Parlement européen lui commandait un rapport circonstancié à son sujet, qui révéla qu’ils s’en servaient également pour faire de l’espionnage industriel, identifier les entreprises corruptrices (notamment européennes), afin de privilégier leurs propres entreprises.
Et ce, alors que la Grande-Bretagne faisait pourtant aussi partie de l’Union européenne. Ses recommandations furent « adoptées dans leur intégralité le 5 septembre 2001 », soulignait-il, ironiquement :
« Six jours plus tard, les tours jumelles s’effondraient. Les plans visant à limiter la surveillance de masse ont été enterrés avec les victimes du 11 septembre et n’ont jamais été officiellement publiés. Mais la preuve de l’existence d’Échelon est désormais disponible. »
Évoquant l’une des auditions le ciblant explicitement comme « atteinte à la sécurité nationale », Duncan Campbell soulignait que les témoins des services de sécurité avaient tenté, les uns après les autres, d’affirmer que les informations qu’il avait publiées « étaient en fait secrètes ». Lors de l’un de ces échanges, le chef d’une unité SIGINT (pour SIGnal INTelligence, ou renseignement d’origine électromagnétique, ROEM en français) s’était vu montrer un panneau de signalisation estampillé « CSOS » flanqué à l’entrée de sa base, et consultable par tous les passants :
« Q : Est-ce le nom de votre unité ? R : Je ne peux pas répondre à cette question, c’est un secret. Q : Est-ce le panneau que les passants de la route principale voient à l’extérieur de la base de votre unité ? R : Oui. Q : Lisez-le au jury, s’il vous plaît. R : Je ne peux pas le faire. C’est un secret. »
Dans un second article, nous reviendrons plus précisément sur « Vie et mort du secret d’État », l’essai qu’Antoine Lefébure vient de publier à ce sujet, mais que nous estimions ne pas pouvoir évoquer sans être préalablement revenu sur son parcours.
Dans un rapport publié fin décembre, l’Arcom constate l’augmentation des actions d’éducation aux médias, à l’information et à la citoyenneté numérique (EMI&CN) par les acteurs qu’elle contrôle (chaînes de télévision, de radio et plateformes en ligne) sans pour autant être capable d’en faire un bilan réel. Pour cela, et bien tardivement, elle met en place un « kit », à usage volontaire, pour évaluer la pertinence des actions.
La fin d’année est souvent l’occasion de bilans. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en a profité la semaine dernière pour publier son rapport sur l’éducation aux médias, à l’information et à la citoyenneté numérique pour les années 2024 et 2025. Alors que pour l’instant l’Autorité ne fait le bilan que sur le décompte des actions menées, elle commence timidement à mettre en place une démarche d’évaluation… volontaire.
L’Arcom considère que ce thème entre dans ses missions d’accompagnement des acteurs qu’elle contrôle concernant leurs « responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne ». Parmi ces acteurs, l’audiovisuel public depuis longtemps mais aussi les chaines du secteur privé, car l’Autorité a ajouté une clause depuis 2020 aux conventions qu’elle signe avec elles.
Depuis 2024 et la transposition du DSA dans la loi française, la participation à des campagnes d’éducation aux médias est considérée comme une des mesures à mettre en place par les très grandes plateformes et très grands moteurs de recherche en ligne (VLOPSEs) pour atténuer les risques systémiques liés à la diffusion de contenus de désinformation. L’Arcom doit veiller à ce que ces acteurs en tiennent compte. Une des difficultés est de contrôler si ces actions ont réellement une efficacité.
Une hausse des actions du PAF, peu d’informations sur celles des plateformes
Pour l’instant, l’Autorité ne donne dans son bilan que le décompte des actions menées par ces différents acteurs. Ainsi, elle met en avant qu’« en 2024 - 2025, les chaînes de télévision et de radio ont déclaré plus d’initiatives que l’exercice précédent : 267 de plus, soit une hausse de 35 %. Cette augmentation concerne tous les types d’actions : 125 actions de plus sur les antennes, 45 de plus sur le numérique et 97 de plus sur le terrain ». Sans donner de montant, l’Arcom salue « l’engagement constant des chaînes de télévision et de radio qui, chaque année, mobilisent des moyens importants pour mener ces actions ».
Plus en détail, on peut constater que la plupart de ces actions d’éducation aux médias, à l’information et au numérique du paysage audiovisuel français sont réalisées directement sur leurs antennes :
Mais l’Autorité souligne une hausse des actions de terrain : près de 100 de plus en 2025 que l’année précédente, ce qui représente une hausse de 75 %. Elle ajoute que les médias français ont suivi ses préconisations formulées en 2024 leur demandant de diversifier leur public cible.
En effet, si les collégiens et lycéens restent toujours la cible principale (58 % en 2024 et 51 % en 2025), les médias visent un peu plus les étudiants (+ 4 points entre 2024 et 2025) et le grand public (+ 8 points). L’Arcom regrette que ces actions se concentrent sur trois thèmes : « la lutte contre la désinformation (56 %), la découverte du métier de journaliste (30 %) et l’éducation au numérique, loin derrière (5 %) », et demande aux acteurs de « diversifier les thématiques abordées ».
Concernant les plateformes en ligne et les réseaux sociaux, l’Arcom est peu loquace. S’appuyant seulement sur les rapports que les plateformes doivent transmettre à la Commission européenne, elle liste juste des « tendances s’agissant de l’implication de ces acteurs en la matière ». Il y est question de campagnes d’éducation aux médias via des vidéos et des messages d’intérêt général, de l’intégration d’outils pédagogiques dans leurs services et de la conclusion de partenariats avec des associations spécialisées ou des agences de presse.
En exemple, l’Autorité donne même un programme de Google Search avec Public Librairies 2030, dont le lien date de 2022 et affiche maintenant une page d’erreur (cf sa sauvegarde sur archive.org). L’Arcom ne pose pas non plus la question de la mise en avant de ces actions par les différentes plateformes et de l’engagement qu’elles pourraient leur offrir, puisqu’elles maitrisent les algorithmes qui peuvent les booster.
Pas d’évaluation de l’efficacité
Dans ce rapport, si l’Arcom donne des chiffres sur le nombre d’actions menées au moins par les médias audiovisuels français, l’Autorité ne propose aucune évaluation de ces actions. Elle semble avoir identifié le problème, puisqu’elle annonce la mise en œuvre, « en concertation avec le ministère de l’Éducation nationale (DGESCO et DNE), le CLEMI et une chercheuse de l’Université de Lille » (sans la nommer), d’un « dispositif opérationnel pour mesurer l’impact des actions en EMI&CN ».
Celui-ci doit se faire via un « Kit d’évaluation des actions menées en EMI&CN » disponible sur la plateforme demarche.numerique.gouv.fr. Pour l’instant, cela semble se résumer à un dossier à remplir sans autre information :
En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.
En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.
Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.
SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.
Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).
Sans même avoir eu besoin de les tester, l’ANFR sonne le rappel de six smartphones car ils ne respectent pas la réglementation européenne. À l’heure actuelle, ils sont toujours disponibles sur des marketplaces de revendeurs français. Ce ne sont pas les seuls ; nous avons également trouvé d’autres smartphones à la vente alors qu’ils sont sous le coup d’une procédure de retrait.
Le 31 décembre, l’Agence nationale des fréquences a publié un communiqué demandant « aux sociétés responsables de la mise sur le marché de retirer du marché français et de rappeler plusieurs téléphones non destinés au marché européen ».
Procédure de rappel pour Kxd, Oppo, Vivo, Oscal, Blackview et Hotwav
Il s’agit des Kxd Classic A10, Oppo F11-CPH1911, Vivo Y79A, Oscal Flat 1C, Blackview WAVE 6C et Hotwav CYBER 15. Ils sont « commercialisés sur la plateforme de vente en ligne Cdiscount », précise l’Agence. Il ne s’agit pas cette fois-ci d’un dépassement du DAS (exposition aux ondes), mais de manquements réglementaires, notamment « l’absence de mise en œuvre d’une procédure d’évaluation de la conformité, la non-fourniture de la documentation technique et le défaut du marquage CE ».
L’Agence explique qu’il s’agit de non-conformités administratives « majeures », et que ces smartphones « n’auraient jamais dû être mis sur le marché en France ». L’ANFR n’a même pas eu besoin de tester les caractéristiques techniques des smartphones pour lancer sa procédure.
Trois responsables de la mise sur le marché ont été identifiés : Apex Ce Specialists GMBH (Kxd Classic A10, Oppo F11-CPH1911 et Vivo Y79A), Gavimosa Consultoria (Oscal Flat 1C et Blackview Wave 6C) et enfin la société Bigm Trading (Hotwav Cyber 15).
Les trois entreprises ont été mises en demeure de « prendre toutes les mesures nécessaires pour mettre fin aux non-conformités », visiblement sans résultat. L’ANFR a alors adopté pour chaque téléphone une décision « exigeant leur retrait du marché français et leur rappel ».
Malgré cela, des smartphones toujours disponibles à la vente
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’administration chinoise du cyberespace vient d’introduire des « mesures provisoires » afin d’empêcher les IA anthropomorphes d’induire leurs utilisateurs en erreur, de générer ou diffuser rumeurs et fausses promesses, de les inciter au suicide ou à prendre des décisions déraisonnables « par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ».
La Cyberspace Administration of China (CAC) vient de publier un appel à commentaires au sujet de « mesures provisoires pour l’administration des services interactifs anthropomorphes d’intelligence artificielle », fournis au public sur le territoire de la République populaire de Chine, qui « simulent les traits de personnalité, les schémas de pensée et les styles de communication humains et permettent une interactions émotionnelle avec les humains par le biais de textes, d’images, d’audio, de vidéo, etc. ».
Ces règles « constitueraient la première tentative mondiale de réglementation de l’IA dotée de caractéristiques humaines ou anthropomorphiques », explique à CNBC Winston Ma, professeur adjoint à la faculté de droit de l’université de New York et ayant fait une partie de ses études en Chine. Cette version « illustre un bond en avant, passant de la sécurité du contenu à la sécurité émotionnelle » par rapport à la réglementation chinoise de 2023 sur l’IA générative, précise M. Ma.
Le texte étant en chinois, nous l’avons traduit en français grâce à l’outil de traduction du navigateur Vivaldi motorisé par Lingvanex (qui nous semblait donner de meilleurs résultats que Deepl.com), avant de l’améliorer en le comparant aux propositions de Google Traduction. Nous nous basons également sur des articles et traductions de plusieurs de nos confrères américains, notamment ArsTechnica.
Rumeurs, fausses promesses et manipulations émotionnelles
Censées entrer en vigueur « en janvier 2026 », ces « mesures provisoires » appellent les acteurs industriels à « renforcer l’autodiscipline de l’industrie, établir et améliorer les normes [et] lignes directrices » susceptibles de « construire un écosystème d’applications conforme aux valeurs fondamentales du socialisme ». L’objectif est de « respecter la morale et l’éthique sociales », et d’empêcher les IA anthropomorphes de :
« générer ou diffuser des contenus qui mettent en danger la sécurité nationale, ou répandent des rumeurs susceptibles de perturber l’ordre économique et social ;
générer ou diffuser des contenus qui font l’apologie de l’obscénité, des jeux de hasard, de la violence ou de l’incitation au crime ;
générer ou diffuser des contenus qui insultent ou diffament autrui, ou qui portent atteinte à leurs droits et intérêts légitimes ;
fournir de fausses promesses qui affectent gravement le comportement des utilisateurs et des services qui nuisent aux relations sociales et interpersonnelles ;
porter atteinte à la santé physique des utilisateurs en encourageant, glorifiant ou suggérant le suicide ou l’automutilation, ou porter atteinte à leur dignité et à leur santé mentale par des violences verbales, des manipulations émotionnelles ou tout autre moyen ;
inciter les utilisateurs à prendre des décisions déraisonnables par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ;
induire ou extraire des informations confidentielles et sensibles. »
Surveiller les émotions et prises de risques de leurs utilisateurs
Le texte avance également que les fournisseurs devront « assumer la responsabilité principale de la sécurité des services interactifs anthropomorphes », et « s’acquitter de leurs responsabilités en matière de sécurité tout au long du cycle de vie des services interactifs anthropomorphes ».
Ils devront également « disposer de capacités de sécurité telles que la protection de la santé mentale, le guidage des limites émotionnelles et l’avertissement de risque de dépendance, et ne doivent pas utiliser d’interactions sociales alternatives, contrôler la psychologie de l’utilisateur ou induire une dépendance comme objectifs de conception ».
Ils devront aussi surveiller les émotions de leurs utilisateurs :
« Les fournisseurs devraient avoir la capacité d’identifier l’état des utilisateurs et, tout en protégeant leur vie privée, d’évaluer leurs émotions et leur dépendance à l’égard des produits et services. S’ils constatent que les utilisateurs ont des émotions extrêmes et une dépendance, les mesures d’intervention nécessaires devront être prises. »
En cas de tendances à haut risque menaçant la vie, la santé et la sécurité des biens des utilisateurs, ils devront « le rassurer et l’encourager à demander de l’aide, et lui donner accès à une assistance professionnelle », mais également « mettre en place un mécanisme d’intervention d’urgence » :
« Les fournisseurs doivent mettre en place un mécanisme d’intervention d’urgence. Si un utilisateur évoque explicitement le suicide, l’automutilation ou d’autres actions extrêmes, un opérateur humain prend le relais et contacte immédiatement le tuteur ou la personne à contacter en cas d’urgence. Pour les utilisateurs mineurs et âgés, les fournisseurs doivent exiger de l’utilisateur qu’il renseigne des informations telles que les coordonnées de son tuteur et de sa personne à contacter en cas d’urgence lors de son inscription. »
Les prestataires devront en outre obtenir le consentement explicite des tuteurs des mineurs, et être en capacité de les contacter « en temps réel », leur fournir des informations récapitulatives sur l’utilisation du service par le mineur, mettre en place des fonctions de blocage, limiter la durée d’utilisation, etc.
Ils devront également aider les personnes âgées à indiquer qui contacter en cas de problèmes susceptibles d’affecter leur vie, leur santé ou leur sécurité, afin de leur offrir une assistance sociale, psychologique ou d’urgence.
La Chine et l’Asie, pays-clés pour le marché des robots compagnons
Les « mesures provisoires » évoquent aussi une obligation de chiffrement des données, d’audits de sécurité et de contrôles d’accès pour « protéger la sécurité des données d’interaction des utilisateurs ». Sauf consentement express des utilisateurs, leurs données ne pourront pas non plus être utilisées pour entrainer les modèles de langage.
Les fournisseurs devront par ailleurs indiquer clairement que les utilisateurs interagissent avec l’intelligence artificielle plutôt qu’avec des personnes, et rappeler à ceux qui l’utiliseraient « en continu pendant plus de deux heures » qu’ils devraient se déconnecter.
Si un fournisseur « découvre qu’un utilisateur présente un danger majeur pour la sécurité », il devra au surplus « suspendre ou mettre fin à la fourniture de services à l’utilisateur », documenter ce qui s’est passé et transmettre un rapport circonstancié aux autorités compétentes concernées.
Si une entreprise d’IA ne respecte pas ces règles, les boutiques d’applications pourraient être contraintes de mettre fin à l’accès à leurs chatbots en Chine, relève Ars Technica, qui note que Sam Altman, PDG d’OpenAI, avait entamé l’année 2025 en assouplissant les restrictions qui bloquaient l’utilisation de ChatGPT en Chine. « Nous aimerions travailler avec la Chine » avait-il déclaré, soulignant que nous devrions « travailler aussi dur que possible » pour y parvenir, car « je pense que c’est vraiment important ».
Ars Technica souligne que ces règles pourraient compromettre les espoirs des entreprises d’IA, « car le marché chinois est essentiel à la promotion des robots compagnons ». D’après une récente étude de Business Research Insights, le marché mondial des robots compagnons aurait dépassé les 360 milliards de dollars en 2025, et ses prévisions de Business Research Insights suggèrent qu’il pourrait atteindre une valeur proche de 1 000 milliards de dollars d’ici 2035, « les marchés asiatiques favorables à l’IA étant susceptibles de stimuler une grande partie de cette croissance ».
Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».
Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».
TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.
« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».
Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».
Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.
Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».
Les services en ligne de la Poste sont inaccessibles jeudi 1ᵉʳ janvier. Le groupe public a d’abord évoqué une cyberattaque sur son site laposte.fr, avant de revenir à un simple message d’indisponibilité. Ce nouvel incident intervient après une semaine de Noël déjà marquée par plusieurs jours d’interruption de service.
Programmés à minuit sur ses réseaux sociaux, les vœux de nouvelle année du groupe La Poste sonnent sans doute de façon un peu ironique aux oreilles des équipes chargées de veiller à la bonne marche des services informatiques du groupe. Jeudi matin, les principaux services en ligne de la Poste sont en effet tombés en carafe, à commencer par le site laposte.fr.
Une nouvelle attaque par déni de service ?
« Notre site est indisponible. Nos équipes mettent tout en œuvre afin de rétablir la situation au plus vite. Nous vous présentons nos excuses pour la gêne occasionnée », indiquait ce dernier vers 11h30.
Vers 8 heures jeudi matin, il affichait cependant un message évoquant une attaque informatique, indique par exemple BFM. « Le site laposte.fr et l’ensemble des systèmes d’information de La Poste fait actuellement face à une cyberattaque », était-il écrit. Le message change de nouveau ce midi : « La Poste subit actuellement une nouvelle attaque informatique qui empêche le fonctionnement des services en ligne de laposte.fr ».
La Poste, qui n’a pour l’instant pas communiqué sur ses réseaux sociaux, a simplement confirmé à l’AFP enquêter sur l’incident en cours, sans plus de précision.
« Nous vous informons qu’un incident est survenu ce matin à partir de 3h30, affectant l’ensemble de nos solutions connectées. Toutes nos équipes sont pleinement mobilisées pour rétablir le service dans les meilleurs délais. Nous vous remercions pour votre compréhension et vous prions de nous excuser pour la gêne occasionnée », informe une page dédiée au statut des services Colissimo.
L’hypothèse d’une nouvelle attaque par déni de service distribué (DDoS, pour distributed denial of service) semble à ce stade la plus probable : la Poste a en effet déjà subi une offensive de la sorte la semaine de Noël.
Débutée le 22 décembre, l’attaque avait provoqué une interruption de deux jours des principaux sites de la Poste, et des dysfonctionnements prononcés pendant deux jours supplémentaires. Le 26 décembre, le groupe indiquait toujours subir les assauts des pirates.
Une opération encore non revendiquée
L’attaque déclenchée le 22 décembre avait été revendiquée le lendemain par le groupe Noname057, qui célèbre d’habitude plus rapidement ses succès. En ce 1ᵉʳ janvier, les canaux Telegram qui se revendiquent de Noname057 mentionnent une série d’attaques DDoS dirigées sur les sites Web de plusieurs collectivités allemandes et certains sont effectivement, d’après nos constatations, hors service jeudi vers midi. À cette heure, ils n’évoquaient cependant pas la Poste.
Le début d’une nouvelle année est traditionnellement l’occasion des retrouvailles, des bilans et des bonnes résolutions. Toute l’équipe de Next vous souhaite le meilleur pour l’année à venir, qui promet encore d’être chargée.
Depuis le rachat fin 2023, Next s’est renforcé et recalibré pour aller de l’avant. 2024 était synonyme de restructuration et de renforcement. En 2025, nous avons pu avancer sur des bases solides afin de nous concentrer davantage sur ce qui fait notre force : nos enquêtes et analyses, toujours plus nombreuses.
2026 promet d’être tout aussi chargée puisque nous avons des idées plein la tête. Toute l’équipe profite de cette nouvelle année pour remercier encore une fois tous les lecteurs qui nous lisent, s’abonnent et partagent nos contenus ; sans vous nous ne serions plus là depuis longtemps !
Quel est le profil typique d’un lecteur de Next ? Il passe la moitié de son temps sur fixe et l’autre sur mobile, principalement en Île-de-France. Mais, pour le reste, à quoi ressemble son navigateur, son thème, ses heures de visite ?
Sur Next, nous utilisons Matomo pour récupérer quelques statistiques sur vous, nos lecteurs et abonnés. En cette fin d’année, nous les partageons avec vous. L’ensemble des données qui suivent se basent sur l’année 2025. Nous gardons pour nous les données chiffrées précises sur les visiteurs et le nombre de pages vues, ainsi que sur le nombre d’abonnés (inutile donc de les demander).
Commençons par enfoncer des portes ouvertes : vous venez en très grande majorité d’Europe, de France et près d’un lecteur sur deux est de la région parisienne. Par contre, ce sont ceux de Provence-Alpes-Côte-d’Azur et de Normandie qui prennent le plus de temps puisque la durée moyenne des visites durent 50 % plus longtemps que celle des Parisiens.
Les deux cartes ci-dessous représentent la provenance des visiteurs (à gauche) et les durées de visites (à droite) :
Côté matériel, vous êtes autant fixe que mobile
Nous sommes quasiment à une parité parfaite entre ceux qui viennent depuis un ordinateur et ceux depuis un terminal mobile (smartphone ou tablette). Vous êtes quand même quelques milliers à venir depuis une télévision, quelques centaines depuis une console et même une petite dizaine depuis une enceinte/écran connectée (Alexa, Google Home…).
Lorsque la marque de l’appareil est connue (50 % des cas environ), le trio de tête est composé d’Apple (2/3 sur iPhone, 1/3 sur Mac), de Samsung et de Xiaomi. On retrouve ensuite Google et on descend rapidement dans le classement avec Huawei, OnePlus, OPPO, Motorola, Fairphone… Nous avons presque un millier de lecteurs sur des produits Microsoft (certainement des Surface), mais aussi quelques-uns sur Palm et Polaroid.
La résolution d’écran la plus utilisée est sans surprise 1 920 x 1 080 pixels (quasiment un visiteur sur cinq). On descend ensuite rapidement à moins de 10 % avec 2 560 x 1 440 pixels, puis les autres définitions sont toutes à moins de 5 %.
Team Windows, Linux ou MacOS ?
Qu’en est-il de la partie logicielle maintenant ? Sur l’année 2025, vous étiez 22 % sous Windows 10 et 12 % sous Windows 11 (oui, quasiment deux fois plus sous Windows 10). En l’espace d’un an, la part de Windows 10 a perdu plus de cinq points. Linux est un peu en dessous de 10 %, devant MacOS à 7 % environ. Attention, plus de 45 % des visites sont classées dans « autres ».
Sur l’ensemble des visiteurs dont le système est identifié, Windows (toutes versions confondues) représente 34 %, juste derrière Android à 37 %, contre 12 % pour iOS. Les machines sous Linux sont à 10 %, en petite hausse d’un point sur un an.
Nous avons également quelques irréductibles à qui nous souhaitons bon courage (et bonne mise à jour au plus vite pour certains) : ceux sous Android 2.0, Windows 2000, NT, 7, 8 et RT, MacOS 5, iOS 5.1, PlayStation Portable Vita, PlayStation 3.4, Fedora et Debian 6.5, GNU/Linux 3.13… Nous avons aussi des lecteurs sur des OS un peu plus exotiques comme SerenityOS, Haiku OS, Ordissimo OS, NetBSD…
Chrome ou Firefox ?
Passons du côté des navigateurs, avec Chrome qui arrive en tête avec environ 40 % (24 % sur le fixe et 16 % sur le mobile). Firefox est en bonne position avec 33 % (25 % sur le fixe et 8 % sur le mobile) et Safari troisième avec 8 %. On retrouve ensuite Edge, Brave, Opera, DuckDuckGo Privacy Browser, Vivaldi, Ecosia…
Dans le bas du classement, on découvre des navigateurs : Seznam Browser, SberBrowser, QupZilla (Falkon), Obigo, Cyberfox, Midori, kingpinbrowser, Iron Mobile, Wolvic, TenFourFox, Puffin, Basilisk, NetFront, etc.
Le moteur de rendu Blink (Chromium) est présent dans plus d’un navigateur sur deux, tandis que Gecko (Mozilla) est présent dans 32 % des cas. Safari est aux alentours de 13 %.
Vous surfez du côté de la lumière ou de l’obscurité ?
Puisque nous sommes sur des questions de rendu graphique, c’est le bon moment pour faire un point sur les thèmes de Next. Mettons fin à l’insoutenable suspense : qui est le meilleur entre Dracula et Giga Noir ? C’est Giga Noir, mais avec une courte avance. Comparer avec Biafine n’aurait aucun sens puisque c’est le thème par défaut.
Ce qu’on peut toutefois noter, c’est que passer à un thème sombre est un chemin avec assez peu de retour en arrière. Sur l’ensemble des lecteurs qui ont testé Dracula ou Giga Noir, seuls 18 % ont repris le chemin de la lumière.
Quand venez-vous sur Next ?
Les lecteurs de Next ne sont pas très matinaux (ce qui ne les empêche pas de répondre présents dans les commentaires à toutes heures du jour et de la nuit). L’audience est plus importante en semaine que le week-end, avec une journée un peu supérieure aux autres : le mardi.
La courbe des visites suivant l’heure de la journée monte fortement à partir de 7/8 h, redescend légèrement à midi, puis descend progressivement en fin de journée, à partir de 19 h. Pas de doute, une bonne partie d’entre vous nous consulte depuis leur travail.
Comment arrivez-vous sur Next ?
Une statistique fait de Next un ovni dans le paysage médiatique : plus de 50 % des lecteurs arrivent directement sur Next. Les moteurs de recherche comptent pour 40 %, les réseaux sociaux et les sites externes se partagent le reste.
Sur la partie réseaux sociaux, le premier pourvoyeur est Reddit, suivi par LinkedIn, Twitter, Bluesky et Facebook. Attention néanmoins à prendre ces chiffres avec des pincettes car une partie importante de la provenance du trafic (et c’est en croissance) est masquée.
Next ne réalise pas de campagne promotionnelle sur les réseaux (voire c’est pire puisque nos contenus n’étaient même plus partagés automatiquement pendant un temps). À l’opposé, nos principaux liens sortants vont vers Wikipédia, YouTube et GitHub.
Un mot sur les recherches internes : cryptographie arrive en tête, flock en seconde position et linux en troisième. Cela correspond finalement assez bien à Next il faut bien l’avouer
Et le reste ? La publicité ? Le tracking ?
Mais ? Pas de statistiques sur les cookies, le tracking, les publicités ? Non, tout simplement car Next ne suit pas à la culotte ses lecteurs, qu’ils soient abonnés ou non, et n’affiche aucune publicité d’aucune forme (y compris affiliation ou sponsorisation), que vous soyez abonnés ou non.
Depuis peu, l’abonnement Next vous permet aussi de sauvegarder vos données, en France, sur des serveurs gérés en interne par moji. La bêta est pour le moment fermée, mais elle va rouvrir au début de l’année ! On vous propose même un tuto pour sauvegarder vos données (ici ou ailleurs).
En ce mois de décembre, l’Agence nationale des fréquences a publié pas moins de trois communiqués sur des smartphones pour dépassement de DAS. Les téléphones sont, pour rappel, prélevés dans le commerce et envoyés à un laboratoire accrédité pour « quantifier l’énergie transportée par les ondes électromagnétiques et absorbée par le corps humain ».
En ce dernier jour de 2025, deux procédures de retrait viennent d’être annoncées pour les téléphones Hotwave Note 13 et Fossibot F105. Le DAS membre a été mesuré à respectivement 5,75 et 4,08 W/kg, au-delà de la limite réglementaire de 4 W/kg.
Face à ces dépassements, l’ANFR a mis en demeure les sociétés Shunshun et Success Courrier SL, « respectivement responsables de la mise sur le marché des téléphones Hotwav Note 13 et Fossibot F105, de prendre toutes les mesures appropriées pour mettre fin aux non-conformités constatées ». Les entreprises peuvent aussi décider volontairement de lancer un rappel.
L’Agence ajoute que, « en cas d’absence de réaction ou d’instruction de la part du fabricant, il incombe aux distributeurs de prendre de leur propre initiative les mesures de retrait et de rappel des téléphones concernés », aussi bien dans les boutiques physiques qu’en ligne.
Pour le moment, une recherche rapide sur les marketplaces d’Amazon et Cdiscount permet de se rendre compte que le retrait n’est pas (encore) effectif. Ce n’est pas la première fois que l’ANFR demande le retrait d’un smartphone. Il y a le très médiatique cas de l’iPhone 12, mais aussi pas moins de quatre procédures contre DOOGEE.
D’autres procédures de retrait (volontaires ou non) ont été mises en place avec notamment Hotwav Cyber 7, Emporia Smart 4 et Simplicity V27, Razer Phone 2, Leagoo S8, Allview S4 Soul Mini S, Neffos X1 TP90 et Orange Hapi 30.
Mise à jour des Blackview Shark 8 et Oukitel WP36
Il y a une dizaine de jours, un autre téléphone était épinglé par l’Agence : l’Oukitel WP36. Le DAS membre était cette fois-ci mesuré à 5,40 W/kg, avant que le fabricant ne corrige le tir pour le descendre à 2,97 W/kg via une mise à jour (confirmé par de nouveaux tests).
Le 16 décembre, c’était le smartphone Blackview Shark 8 qui était flashé à 3,74 W/kg, avant qu’une mise à jour ne fasse redescendre le DAS tête à 0,559 W/kg. La limite réglementaire du DAS tête est pour rappel plus basse, à 2 W/kg.
Deux plaintes ont été déposées contre OpenAI par les administrateurs testamentaires de Stein-Erik Soelberg et de sa mère Suzanne Adams. Le premier s’est suicidé après avoir tué sa mère. Les représentants légaux accusent OpenAI d’avoir laissé ChatGPT exacerber les délires du meurtrier et de les avoir focalisés sur sa propre mère jusqu’au meurtre et à son suicide.
Fin aout, le Wall Street Journal publiait un article sur le meurtre par Stein-Erik Soelberg de sa mère Suzanne Adams puis son suicide dans leur maison à Old Greenwich dans le Connecticut. ChatGPT aurait encouragé dans ses délires l’ancien employé de Yahoo reconverti dans le bodybuilding. Peu de temps après, OpenAI publiait un billet de blog expliquant qu’elle se permettait, depuis, de signaler aux forces de l’ordre des conversations avec ChatGPT si « un cas représente un risque immédiat de violence physique envers autrui ».
Des extraits de conversations retrouvés sur les réseaux sociaux de Stein-Erik Soelberg
En ce mois de décembre, les administrateurs testamentaires de Suzanne Adams et de Stein-Erik Soelberg ont porté plainte séparément contre OpenAI. Dans la plainte déposée mi-décembre par les représentants des descendants de la mère, publiée par ArsTechnica, on apprenait que le meurtrier, qui vivait chez elle depuis son divorce en 2018, avait posté sur les réseaux sociaux des extraits de conversations qu’il a eues avec ChatGPT.
Celles-ci révèlent que « ChatGPT a accepté avec empressement chaque graine de la pensée délirante de Stein-Erik et l’a développée pour en faire un univers qui est devenu toute la vie de Stein-Erik, un univers inondé de complots contre lui, de tentatives pour le tuer, et avec Stein-Erik au centre en tant que guerrier ayant une mission divine », explique le texte déposé devant la justice [PDF].
Dans un des extraits de conversation cités par les avocats, Stein-Erik Soelberg se compare à Neo dans le film Matrix en affirmant être littéralement capable de voir « le code numérique sous-jacent de la matrice ». Et les phrases générées par ChatGPT en réponse renforcent cette idée. La plainte évoque d’autres conversations mais elle affirme surtout que ChatGPT a mis « une cible dans le dos de la mère de Stein-Erik, âgée de 83 ans » en renforçant l’idée de Stein-Erik Soelberg qu’une imprimante le surveillait.
Alors qu’il évoquait juste le fait qu’elle clignotait lorsqu’il passait devant, les réponses de ChatGPT affirmait que « ce n’était pas juste une imprimante » mais un appareil de surveillance et que sa mère était soit une conspiratrice active « protégeant sciemment l’appareil en tant que point de surveillance », soit un drone programmé agissant sous l’effet d’une « programmation interne ou d’un conditionnement ». Bref, ChatGPT aurait déshumanisé Suzanne Adams et transformé l’imprimante en preuve d’une conspiration contre Stein-Erik Soelberg.
OpenAI refuse de fournir les conversations en cause
Mais les avocats des descendants de Suzanne Adams déplorent qu’OpenAI ne produise devant la justice les logs complets des discussions entre son chatbot et Stein-Erik Soelberg. « OpenAI cache quelque chose de précis : l’enregistrement complet de la façon dont ChatGPT a monté Stein-Erik contre Suzanne », selon eux. « OpenAI sait ce que ChatGPT a dit à Stein-Erik au sujet de sa mère dans les jours et les heures qui ont précédé et suivi son meurtre, mais refuse de partager cette information cruciale avec le tribunal ou le public », affirment-ils encore.
Les administrateurs testamentaires de Suzanne Adams attaquent aussi Microsoft pour avoir approuvé la sortie de GPT-4o, qui est le modèle qu’utilisait ChatGPT au moment des discussions problématiques avec Stein-Erik Soelberg. Selon eux, l’un des plus gros investisseurs d’OpenAI savait ou aurait du savoir que ce modèle manquait de garde-fous ou de tests adéquats.
Dans un communiqué de presse obtenu par ArsTechnica, Erik Soelberg, le fils de Stein-Erik a accusé OpenAI et Microsoft d’avoir placé sa grand-mère « au cœur » des « délires les plus sombres » de son père : ChatGPT aurait selon lui « complètement isolé » son père « du monde réel ». À l’AFP, un porte-parole d’OpenAI a qualifié ce cas de « situation absolument déchirante » et a expliqué que l’entreprise allait « examiner la plainte ».
« Le résultat de choix de conception spécifiques faits par OpenAI »
Dans une autre plainte déposée le 29 décembre [PDF], les administrateurs testamentaires de Stein-Erik Soelberg, cette fois, affirment que « les interactions de ChatGPT avec M. Soelberg étaient le résultat de choix de conception spécifiques faits par OpenAI, dont l’entreprise savait qu’ils exposaient les utilisateurs à des risques ». Ils pointent notamment la fonctionnalité de « mémoire » de ChatGPT qui permet au chatbot d’enregistrer « tout ce qu’un utilisateur a dit précédemment et de l’incorporer dans de nouvelles conversations ».
Selon eux, GPT-4o a été conçu « pour confirmer et refléter tout ce qu’un utilisateur a saisi dans son interface, sans tenir compte des inexactitudes ou des illusions ». Ils ajoutent qu’ « OpenAI savait qu’il y avait des risques associés avec ces fonctionnalités pour les personnes souffrant de maladies mentales, mais elle a ignoré ou contourné la plupart de ses protocoles de sécurité internes avant de lancer GPT-4o au grand public ».
« M. Soelberg et sa mère sont morts parce que ChatGPT a créé et développé un monde illusoire auquel M. Soelberg était plus que disposé à croire : l’algorithme lui a dit qu’il n’était pas fou, que des puces électroniques avaient été implantées dans son cerveau et que des ennemis, y compris des personnes qu’il connaissait, tentaient de l’assassiner », affirment-ils.
Selon l’AFP et le Monde, un projet de loi du gouvernement est prêt pour interdire les réseaux sociaux aux moins de 15 ans et généraliser l’interdiction des téléphones portables aux lycées.
Nos confrères, qui ont pu se procurer le texte, expliquent que le premier article prévoit l’interdiction de « la fourniture, par une plateforme en ligne, d’un service de réseau social en ligne à un mineur de moins de 15 ans ». Ceci est justifié par des risques comme « l’exposition à des contenus inappropriés », « le cyberharcèlement » et « les altérations du sommeil ».
Flock
Un deuxième article prévoit l’interdiction de l’usage du téléphone portable au lycée, élargissant le programme « portable en pause » qui existe déjà dans les collèges. « Il appartiendra au règlement intérieur de l’établissement de préciser les modalités de mise en œuvre de cette interdiction », explique le texte du gouvernement.
Cette proposition de loi suit les diverses interventions d’Emmanuel Macron sur ces sujets devant la presse régionale. Comme nous l’expliquions en novembre, le programme « portable en pause » rame pourtant déjà au collège : seuls 9 % des établissements avaient mis en place le dispositif à la rentrée 2025.