184 millions… près de trois fois la population française. C’est le nombre d’enregistrements (avec des identifiants et mots de passe) qui étaient librement accessibles sur Internet. L’accès à la base de données a été supprimé, mais le mystère reste entier sur sa provenance.
Hier, sur Website Planet, le chercheur en cybersécurité Jeremiah Fowler expliquait avoir découvert une base de données de 47,42 Go en accès libre. Elle n’était pas chiffrée et « contenait 184 162 718 identifiants et mots de passe uniques ». De quoi reléguer en deuxième division la récente fuite des SMS de double authentification de Steam.
Il explique avoir analysé un échantillon et découvert « des milliers de fichiers qui comprenaient des e-mails, des noms d’utilisateur, des mots de passe et des liens vers la page de connexion ou d’autorisation des comptes ». Les comptes en question étaient aussi divers que variés : Amazon, Apple, Facebook, Instagram, Microsoft, Roblox, Spotify, Snapchat, etc.
Comme si ce n’était pas déjà pas assez, il rajoute une couche : « J’ai également vu des informations d’identification pour des comptes bancaires et financiers, des plateformes de santé et des portails gouvernementaux de nombreux pays, ce qui pourrait mettre les personnes exposées en danger ».
Selon Wired, qui s’en entretenu avec l’expert, l’échantillon de 10 000 enregistrements contenait « 220 adresses e-mail avec des domaines en .gov, d’au moins 29 pays dont les États-Unis, l’Australie, le Canada, la Chine, l’Inde, Israël, la Nouvelle-Zélande, l’Arabie saoudite et le Royaume-Uni ».
Dans ces 10 000 enregistrements, il y avait également 479 comptes Facebook, 475 Google, 240 Instagram, 227 Roblox, 209 Discord ainsi que plus de 100 à chaque fois pour Microsoft, Netflix, PayPal… Nos confrères signalent aussi la présence de comptes Amazon, Apple, Nintendo, Snapchat, Spotify, Twitter, WordPress et Yahoo. N’en jetez plus !
Jeremiah Fowler a contacté certaines des personnes dont les données étaient présentes dans la base, qui lui ont « confirmé que la base de données contenaient leurs mots de passe exacts et valides ».
184 millions d’enregistrements, ça veut dire quoi ?
Quoi qu’il en soit, cela ne signifie pas qu’il s’agisse d’une nouvelle fuite de données, ni que les données sont récentes. Il faut également bien comprendre ce que signifie 184 millions d’enregistrements : ce sont en gros 184 millions de lignes dans la base de données, pas 184 millions de personnes ni 184 millions de comptes. Il peut y avoir des doublons, des ratés, etc…
Nous sommes encore très loin des sommets en la matière. Début 2024, MOAB pour « mother of all breaches » faisait parler d’elle avec 24 milliards d’enregistrements.
World Host Group coopère « pleinement avec les autorités »
Jeremiah Fowler affirme avoir contacté l’hébergeur – World Host Group selon Wired – où se trouvait la base de données. Rapidement, elle n’était plus accessible. Le chercheur précise qu’il ne sait pas depuis combien de temps elle était en ligne ni si d’autres personnes ont pu y accéder.
À nos confrères, Seb de Lemos (CEO de World Host Group) précise que la base de données était sur un serveur hébergé par sa société, mais « non géré » par son entreprise. En clair, il est entièrement contrôlé par un de ses clients. « Il semble qu’un utilisateur malveillant se soit connecté et a téléchargé du contenu illégal sur le serveur », ajoute le dirigeant.
L’équipe juridique de World Host Group examine maintenant les informations à sa disposition et les suites à donner. L’hébergeur se dit prêt à coopérer « pleinement avec les autorités […] et, le cas échéant, à partager toutes les données pertinentes des clients avec elles ».
D’où viennent les données ? La piste de l’infostealer privilégiée
Aucune piste n’est privilégiée ou écartée concernant les origines de cette base de données. Elle pouvait évidemment être utilisée pour des activités criminelles, mais il pourrait aussi s’agir d’« informations recueillies à des fins de recherche légitimes et ensuite exposées en raison d’une erreur ».
Le chercheur en cybersécurité semble privilégier la première piste car « les enregistrements présentent de multiples signes » qui indiqueraient que les données ont été récupérées par un logiciel malveillant de type infostealer. « Il est fort possible qu’il s’agisse d’un cybercriminel […] C’est la seule chose qui a du sens, car je ne vois pas d’autre moyen d’obtenir autant d’identifiants et de mots de passe pour autant de services dans le monde ».
Rappel : soyez prudent !
Comme toujours, la prudence est maintenant de mise. C’est d’ailleurs un conseil valable même s’il n’y a pas de fuite, il faut toujours être un minimum sur ses gardes. Activez autant que possible la double authentification et pensez à bien utiliser un mot de passe différent par service.
Prenez également garde aux alertes de connexion… en étant tout de même attentif à ne pas tomber dans le piège d’un faux email qui s’avérerait être une tentative de phishing. Le meilleur conseil est généralement de ne pas agir sans réfléchir, dans la précipitation.
Organisée samedi 24 mai, en ligne et à Paris, une vente aux enchères issue de la collection familiale de Roland Moreno permet de découvrir, ou de s’offrir, des pièces emblématiques et des trésors méconnus issus des travaux de l’inventeur français de la carte à puce.
En 1990, il avait fait paraître un livre foutraque, plein d’aphorismes, de notes et de références partant dans toutes les directions. Joliment titré Théorie du bordel ambiant, cet ouvrage aussi fantaisiste que déconcertant est considéré comme la principale porte d’entrée vers l’esprit créatif de Roland Moreno, le génial inventeur de la carte à puce, décédé en 2012.
Il en existe une autre : la collection familiale de ses inventions, prototypes et documents de travail, dont 75 lots sont vendus aux enchères, samedi 24 mai, par FauveParis, à Paris (XIe) et sur Internet via le site Drouot.
Le terminal de la marchande
Les principales vedettes de cette vente seront certainement les prototypes industriels qui ont permis à Roland Moreno de formaliser la carte à puce, objet d’un brevet déposé en 1974, et certains des usages associés, même si la paternité des révolutions associées revêt une dimension plurielle, et parfois contestée.
Deux lots de trois des premières cartes à puce jamais conçues sont ainsi mis aux enchères. Avec leurs 8,6 par 5,4 cm, ces prototypes présentent des dimensions assez proches de celles de nos actuels titres de transport ou cartes de paiement. La puce y occupe un espace cependant disproportionné, avec un circuit intégré proéminent et de larges pistes de contact.
3 prototypes historiques industriels de la carte à puce, dite “Carte Prom”, 1974 - 1980, Roland Moreno, FauveParis
Le lot 9 incarne le clou du spectacle : il s’agit du « Terminal de la marchande », le premier prototype de terminal de paiement élaboré, dans sa version industrielle, par Roland Moreno en 1974. Le catalogue de la vente rappelle le caractère exceptionnel de cette machine, estimée entre 300 000 et 500 000 euros.
« Fabriqué en collaboration avec des ingénieurs de BULL (Jean-Pierre Leroy pour la construction du terminal et ses 400 circuits intégrés et Bernard Badet pour l’alimentation électrique), quelques mois seulement après le tout premier prototype réalisé par l’inventeur dans son atelier, ce terminal a notamment servi aux démonstrations faites par Roland Moreno aux banquiers pour les convaincre de l’utilité de son invention. Dix ans ont ensuite été nécessaires pour que ce prototype en deux parties (le terminal de paiement en tant que tel et son ondulateur) d’environ 45 kg ne devienne le terminal de paiement grand public, léger et maniable, que nous connaissons aujourd’hui ».
« Le Terminal de la marchande », Roland Moreno, FauveParis
Si ces prototypes sont si recherchés, c’est que l’héritage de Roland Moreno transparait aujourd’hui encore dans de nombreux pans de notre quotidien. Outre la carte à puce, aux multiples applications, l’inventeur français a par exemple contribué à développer les procédés de transmission sans contact (NFC ou RFID) mis en œuvre dans le célèbre pass Navigo à partir de 1994.
« Moins connu que Steve Jobs (le fondateur d’Apple) ou Xavier Niel (celui de Free), Roland Moreno a pourtant l’étoffe – et la personnalité, d’un grand manitou de la tech. Et son héritage est immense », présente le Centre Pompidou. Son Musée national d’art moderne abrite aujourd’hui quelques-unes de ses œuvres, au sein des collections dédiées au design industriel.
Poésie de la création
Outre leurs débouchés économiques ou technologiques, les inventions de Moreno revêtent en effet une véritable portée artistique, à l’image du célèbre Pianock, étrange vision de ce qui deviendra le synthétiseur, ou de la Matapof, improbable machine à tirer à pile ou face.
Entre schémas de travail, hommages d’artistes et objets du quotidien, la vente aux enchères présente elle aussi quelques-uns de ces prototypes incongrus, comme ce « système avaleur mécanisé pour carte à puces » élaboré à fin des années 70 à l’aide de pièces de Meccano.
Prototype de système avaleur mécanisé pour carte à puces, ancêtre du distributeur automatique de billets, circa 1978 - 1979 – Roland Moreno – FauveParis
Ou cet aérien « Prototype de machine à fabriquer des disquettes 3 - 1/2 in. pour Macintosh ».
Prototype de machine à fabriquer des disquettes 3 - 1/2 in. pour Macintosh, Roland Moreno, FauveParis
Et comme ses inventions, certains éléments de la réflexion de Moreno restent terriblement d’actualité. « S’interroger, cela ne vaut-il pas mieux que de marcher au pas ? », se demandait-il par exemple dans sa Théorie du bordel ambiant.
Free Mobile, Bouygues Telecom et RED by SFR viennent de revoir les tarifs de leurs forfaits d’entrée de gamme. On trouve plusieurs offres offrant 20 Go de données à moins de 4 euros et 40 Go pour moins de 5 euros. Si vous payez plus, il est surement temps de penser à changer !
La tendance de ces derniers temps est à la baisse sur le fixe et le mobile. Comme nous l’avons récemment vu, les prix des forfaits fibre sans fioritures sont entre 20 et 26 euros par mois, avec parfois plusieurs Gb/s en téléchargement et du Wi-Fi 7 comme c’est le cas chez Bouygues Telecom et Free.
Les fournisseurs d’accès à Internet ne s’arrêtent pas au fixe, les offres et autres promotions se multiplient aussi sur le mobile. Mardi soir, Free ouvrait le bal avec une nouvelle vente privée sur Veepee, mais sans revenir à la « grande époque » de la guerre sur le mobile avec des forfaits à mins d’un euro par mois.
Les offres peuvent paraitre légères avec 20 Go par mois, mais cela peut largement suffire à une majorité de personnes. D’ailleurs, dans son dernier bilan des usages, l’Arcep explique qu’un « client actif sur les réseaux 4G a utilisé en moyenne 17 Go par mois de données ». Et pour les autres, on trouve quelques centaines de Go à moins de 10 euros par mois.
Problème : il n’est pas toujours évident de s’y retrouver dans la jungle des fiches tarifaires. Comme sur la fibre optique, les tarifs de l’électricité ou les offres dédiées à l’électricité verte, notre approche est résolument impartiale puisque nous n’affichons aucune publicité et ne percevons aucune commission en cas de souscription via nos publications.
Cet article est exceptionnellement en accès libre, pour vous aider en ces temps d’inflation galopante, et accessoirement vous permettre de dégager plus facilement de quoi souscrire un abonnement à Next. Histoire que nous puissions toujours mieux vous informer, en toute indépendance
Changer d’opérateur, c’est simple comme RIO
Changer d’opérateur se fait facilement sans changer de numéro grâce au RIO (relevé d’identité opérateur), un code unique de 15 lettres et chiffres. L’Arcep rappelle un point important : « le portage effectif du numéro entraîne la résiliation simultanée du contrat que l’abonné a conclu avec l’opérateur qu’il quitte, sans qu’il ait besoin de réaliser quelque formalité que ce soit auprès de cet opérateur ».
Enfin, l’Arcep précise qu’il est « possible de porter votre numéro jusqu’à 40 jours calendaires après la résiliation du contrat ». Pour cela, « le RIO de votre numéro qui doit rester disponible auprès du service client et via le serveur vocal d’information de votre ancien opérateur jusqu’à 40 jours après la résiliation ».
Pour résumer, vous souscrivez une nouvelle offre, donnez votre RIO au nouvel opérateur qui se charge de tout, y compris résilier l’ancien abonnement. Cela fonctionne bien puisque, chaque trimestre, ce sont entre 1,5 et 2,2 millions de lignes qui sont ainsi portés en France depuis au moins deux ans, selon l’Arcep.
En plus du prix de votre abonnement et de la quantité de data, pensez à vérifier plusieurs points que nous détaillons systématiquement. Que se passe-t-il une fois la limite des Go de votre forfait atteinte ? Il y a généralement trois possibilités : un débit fortement réduit, une facturation hors forfait ou un blocage.
Combien coûte la carte SIM ? La majorité des opérateurs est à 10 euros, mais d’autres sont moins chers, notamment B&You à 1 euro. Par contre, cet opérateur est le seul à facturer des frais de résiliation.
Si tous les forfaits proposent des SMS, MMS et des appels illimités, tous ne sont pas égaux devant le roaming. La quantité de Go dans l’Union européenne et les DOM varie entre 10 et 14 Go. Maintenant c’est à vous de voir en fonction de vos besoins, mais aussi de la couverture mobile dans les lieux que vous fréquentez le plus.
L’Arcep propose une carte nationale sur Mon Réseau Mobile pour savoir ce qu’il en est (en théorie). Voici un exemple avec Free qui à la plus mauvaise couverte dans cette zone, alors qu’Orange est en tête. Bien évidement, la situation peut être totalement différente dans d’autres zones.
20 Go pour 4 euros chez Free
Free propose un forfait avec 20 Go de « fair use » (débit réduit au-delà) en 4G seulement (pas de 5G selon le site Veepee). Comme toujours chez Free, avec un smartphone 3G seulement, c’est « 3 Go (débit réduit au-delà) » uniquement.
Le prix : 3,99 euros par mois (jusqu’au 3 juin à 6 h, hors prolongation comme cela arrive souvent), sans engagement ni condition de durée. 10 Go par mois sont inclus en roaming depuis l’Europe et les DOM, les appels, SMS et MMS sont illimités. La carte SIM est à 10 euros.
20 Go pour 4 euros aussi chez B&You
Bouygues Telecom répond du tac au tac avec 20 Go pour 3,99 euros par mois. Là encore, il faut se contenter de la 4G (suffisante dans une grande majorité des cas), ou payer 3 euros de plus par mois. Attention à bien choisir entre « fair use » et facturation hors forfait une fois les 20 Go atteint. 14 Go sont disponibles en roaming en Europe. Enfin, la carte SIM est à 1 euro, mais il y a pour rappel des frais de résiliation de 5 euros quand vous quittez l’opérateur.
Une chose à garder en tête est que Bouygues Telecom est le spécialiste pour annoncer un « enrichissement » à ses clients, c’est-à-dire plus de Go en échange de plus d’euros sur la facture, sans possibilité de refuser cette proposition, sauf à partir. Au fil des années, l’opérateur propose donc des réductions à très bas prix, augmente les prix, repropose des réductions, etc. Cette pratique perdure.
En 2020 déjà, face aux hausses régulières et imposées sur les forfaits 20 Go à 4,99 euros par mois, nous demandions à l’opérateur si à terme l’ensemble des clients étaient concernés et comment était fait le choix de ceux qui avaient des augmentations… sans réponse.
40 Go pour 5 euros chez RED by SFR… attention au dépassement !
Chez RED by SFR, les 40 Go sont à 4,99 euros par mois, alors que l’opérateur proposait 30 Go pour le même prix auparavant ; toujours en 4G (la 5G est à 3 euros de plus par mois). Comme B&You, RED by SFR est adepte des « enrichissements » de forfaits. Rappelons enfin que SFR est en délicate position, plombé par sa dette.
Attention par contre au moindre dépassement chez RED by SFR : « Au-delà de 40 Go, rechargement de 1 Go à 2 euros possible, 4 recharges maximum puis usage internet bloqué », soit jusqu’à 8 euros pour 4 Go de plus. 13 Go en roaming dans l’Union européenne sont inclus, et enfin la carte SIM est à 10 euros.
Et chez les autres ? 20 à 30 Go pour 4 euros
Chez Sosh, rien ne bouge avec toujours 40 Go pour 5,99 euros par mois. La carte SIM est à 10 euros et le roaming permet de profiter de 10 Go depuis l’Union européenne. Là encore, il faut se contenter de la 4G.
Il n’y a pas que les quatre opérateurs avec leurs propres réseaux en France, de nombreux opérateurs virtuels proposent aussi des offres, dont certaines se placent en concurrence directe avec celles de Bouygues Telecom, Free, Orange et SFR. Mais il s’agit souvent d’une façade, car les opérateurs virtuels (MVNO) sont rachetés en série par les opérateurs nationaux.
C’est le cas de Cdiscount Mobile avec 20 Go « fair use » en 4G à 3,99 euros par mois, avec la carte SIM à 1 euro et 14 Go depuis l’UE. Cdiscount Mobile a pour rappel été racheté par Bouygues Telecom, en même temps que Crédit Mutuel et CIC Mobile, NRJ Mobile, Auchan Telecom, dans le cadre de la transaction sur Euro Information Telecom.
Syma propose même 30 Go (bloqués au-delà) pour 3,99 euros par mois, avec la SIM à 10 euros et 13 Go en roaming dans l’UE. Il y a peu, Syma était à 4,99 euros par mois pour 50 Go de 4G. Finissons par Coriolis à 3,99 euros par mois pour 30 Go de « fair use » en 4G, 13 Go de roaming dans l’UE et une SIM à 10 euros. Coriolis Telecom et Syma Mobile sont la propriété d’Altice, au même titre que Prixtel, Afone et donc 50 % de Réglo Mobile au passage.
Google utilise un seul robot pour à la fois indexer le web et récupérer des données pour ses outils d’IA. Un document interne montre que c’est un choix délibéré. L’entreprise a hésité à laisser différentes options aux éditeurs, mais a opté pour n’en laisser aucune, sans rien dire publiquement.
Pas le choix, si les éditeurs de sites web veulent être indexés par le moteur de recherche de Google, ils doivent autoriser de facto l’entreprise à moissonner leurs sites pour ses outils d’IA. On le savait déjà, mais un document interne montre que l’entreprise a volontairement exclu l’idée de donner le choix.
Bloomberg l’a découvert dans le dossier du procès sur l’abus de position de Google dans la recherche web.
Une ligne rouge : la séparation entre recherche sur le Web et entrainement des IA
Dans ce document [PDF], Google estime bien avoir six options pour la granularité du contrôle donné aux éditeurs, allant d’une réelle séparation entre indexation et entrainement à l’option extrême de ne proposer aucun contrôle. Le schéma inclus rejette pourtant directement la séparation claire derrière une « ligne rouge bloquante » :
Parmi ces options, Google a évoqué la possibilité d’un « opt-out SGE-only », qui aurait permis le refus de l’utilisation des données dans certaines fonctions d’IA générative de Google Search, sans pour autant être exclu du moteur de recherche lui-même.
Un choix délibéré de ne pas donner de nouveaux contrôles
Finalement, l’entreprise a choisi de ne pas donner « de nouveaux contrôles sur la recherche ». Dans ce document, une responsable gestion produits chez Google Search, Chetna Bindra, écrit noir sur blanc qu’ « au minimum, notre position actuelle en matière de produits devrait être l’option 2 : faire ce que l’on dit, dire ce que l’on fait, mais prudemment ».
Google a décidé de « mettre à jour silencieusement » et « sans annonce publique » sur sa façon dont l’entreprise utilise les données des éditeurs de sites. Dans le document, Google indique clairement sa volonté de cacher les détails des différences entre l’entrainement de ses IA Gemini et de son système pour son moteur de recherche.
« Un peu accablant »
Devant le tribunal, Paul Bannister, responsable chez Raptive (une entreprise qui aide environ 5 000 éditeurs de sites à gagner de l’argent grâce à leurs contenus) a affirmé : « c’est un peu accablant », ajoutant que « cela montre clairement qu’ils savaient qu’il existait une série d’options et qu’ils ont choisi la plus conservatrice et la plus protectrice d’entre elles, à savoir celle qui n’offrait aucun contrôle aux éditeurs ».
Interrogée par The Verge, Google affirme que ce document était une première liste d’options envisagées alors que l’entreprise faisait évoluer sa recherche boostée par l’IA. Selon l’entreprise, il ne reflèterait pas les décisions prises finalement. « Les éditeurs ont toujours contrôlé la manière dont leur contenu est mis à la disposition de Google, car des modèles d’IA sont intégrés dans le moteur de recherche depuis de nombreuses années, ce qui permet de mettre en évidence les sites pertinents et de générer du trafic vers ces derniers », ajoute-t-elle.
Nos confrères de The Verge font remarquer que la documentation de Google indique que le paramètre nosnippet « s’applique à tous les types de résultats de recherche (sur Google : recherche sur le Web, Google Images, Discover, Aperçus IA, Mode IA) et empêche également l’utilisation du contenu en tant qu’entrée directe pour les Aperçus IA et le Mode IA ».
Europol vient d’annoncer l’arrestation de 270 vendeurs et acheteurs du « dark web » dans 10 pays, dont 130 aux États-Unis, 42 en Allemagne, 37 au Royaume-Uni et 29 en France. Baptisée « Opération RapTor », elle aurait aussi permis de démanteler plusieurs réseaux de trafic de drogue, d’armes et de contrefaçons.
Les suspects, qui avaient réalisé des milliers de ventes sur des places de marché illicites, en utilisant des outils de chiffrement et des crypto-monnaies afin de brouiller les pistes, ont néanmoins été identifiés grâce à des enquêtes coordonnées basées sur des renseignements provenant des démantèlements des places de marché du dark web Nemesis, Tor2Door, Bohemia et Kingdom Markets.
Europol évoque aussi la saisie de plus de 184 millions en cash et cryptomonnaies, plus de 2 tonnes de drogues (dont des amphétamines, de la cocaïne, de la kétamine, des opioïdes et du cannabis), 12 500 produits contrefaits, plus de 180 armes à feux, factices, tasers et couteaux, et plus de 4 tonnes de tabac illégal.
Le Département de la Justice états-unien précise que l’opération, coordonnée par une équipe de la Joint Criminal Opioid and Darknet Enforcement (JCODE), a également permis la saisie de 144 kilogrammes de fentanyl et narcotiques associés, ainsi qu’à l’identification d’un citoyen iranien, Berhouz Parsarad, comme ayant été l’administrateur de la place de marché Nemesis. De sa création en 2021 à sa fermeture, en 2024, elle avait dénombré 30 000 utilisateurs actifs, 1 000 vendeurs, ayant permis la vente de près de 30 millions de dollars de stupéfiants.
Cette action internationale fait suite à l’opération SpecTor qui, en mai 2023, avait déjà permis l’arrestation de 288 suspects, et la saisie de 50,8 millions d’euros en espèce et cryptoactifs, 850 kilos de drogues et 117 armes à feux.
En 2020, un autre coup de filet international baptisé « DisrupTor » avait déjà conduit à 179 arrestations de traficants du « dark web », tandis que l’opération « Dark HunTOR » avait permis d’arrêter 150 autres suspects, rappelle BleepingComputer.
Anthropic s’est fait un nom chez les amateurs d’IA générative, tout particulièrement dans l’aide au développement et les agents. Sonnet 3.7 est souvent considéré comme l’un des meilleurs modèles pour la programmation. La nouvelle génération est là pour prendre le relai, avec notamment le nouveau modèle phare d’Anthropic, Opus 4.
La communication d’Anthropic ne tourne pas autour du pot : Claude Opus 4 « est le meilleur modèle de développement au monde », tandis que Sonnet 4 représente une évolution majeure de la version 3.7, renforçant les capacités de raisonnement et la précision. Anthropic, qui connait ses forces, ne s’y est pas trompé en insistant largement sur le nouveau palier que proposent les modèles Claude 4 en programmation. Et Microsoft non plus, puisque GitHub a annoncé que Claude Sonnet 4 sera utilisé par défaut dans une prochaine version de Copilot.
D’après les chiffres communiqués par Anthropic, les modèles Claude 4 font sans surprise mieux que la concurrence dans presque tous les domaines. C’est quasi systématique lors de la présentation d’un nouveau modèle, toutes sociétés confondues.
En musique !
Opus 4 est présenté comme la nouvelle star chez Anthropic. « Claude Opus 4 est notre modèle le plus puissant à ce jour et le meilleur modèle de codage au monde, en tête du SWE-bench (72,5%) et du Terminal-bench (43,2%) », indique l’entreprise. Il est décrit comme offrant des « performances soutenues sur les tâches de longue durée », avec une capacité à travailler en continu « pendant plusieurs heures ». Anthropic ajoute qu’il surpasse « de manière spectaculaire » les modèles Sonnet dans ce domaine.
Sonnet 4 est quant à lui mis en avant comme le modèle « tout venant ». Il dépasse légèrement Opus 4 sur tout ce qui touche au développement, mais pas sur le reste. Anthropic le présente comme « un mélange optimal de capacités et d’aspects pratiques », et comme idéal pour les cas d’utilisation quotidiens. S’en suivent les avis de partenaires, dont GitHub, pour qui Sonnet 4 « s’envole dans les scénarios agentiques ».
Tout le monde aura accès à Sonnet 4, y compris les utilisateurs gratuits. En revanche, seuls les détenteurs d’un abonnement payant (Pro, Max, Team et Enterprise) pourront utiliser Opus 4. L’API, de son côté, sera disponible sur toutes les grandes plateformes habituelles (Azure AI Foundry chez Microsoft, Vertex AI chez Google, Bedrock chez AWS…).
Les tarifs annoncés de Sonnet 4 sont de 3 dollars le million de jetons en entrée et de 15 dollars en sortie. Opus 4 est nettement plus onéreux : 15 dollars en entrée, 75 dollars en sortie. Pour rappel, un million de jetons équivaut à peu près à 750 000 mots. Ces tarifs vont dans le sens des ambitions d’Anthropic sur le plan financier. En février, Reuters indiquait que l’entreprise visait ainsi un chiffre d’affaires de 12 milliards de dollars en 2027, contre 2 milliards de dollars prévus cette année.
Claude Code disponible en version finale
On trouve également des annonces pour Claude Code, le module logiciel de l’entreprise pour aider au développement. Lancé en avant-première avec Sonnet 3.7 en février dernier, il est désormais disponible en version finale. Pour l’occasion, de nouvelles extensions (en bêta) sont proposées pour Visual Studio Code et JetBrains pour intégrer Code dans ces IDE. Son lancement se fait, à chaque fois, dans la console correspondante.
Claude Code reçoit en outre un SDK (kit de développement). Il doit aider au développement d’agents et d’applications. Un exemple de ce qu’il est possible de faire est d’ailleurs disponible en préversion, Claude Code sur GitHub. Il s’installe par la commande « /install-github-app » dans Code et permet diverses actions plus ou moins automatisées sur GitHub, comme répondre aux commentaires et corriger les erreurs d’intégration.
La sécurité des modèles en question
Opus 4 et Sonnet 4 sont présentés comme des modèles hybrides et multimodaux, capables de prendre en charge n’importe quel type de tâche. Anthropic a également présenté d’autres nouveautés liées, notamment sur la sécurité. Dans un article dédié, on apprend ainsi qu’Anthropic a activé son AI Safety Level 3 (ASL-3) pour Opus 4, pour renforcer sa sécurité, autant contre le vol des poids que pour empêcher le modèle d’être détourné pour développer des armes nucléaires, radiologiques, biologiques ou chimiques (menaces NRBC).
La société ajoute cependant qu’elle ne sait pas si son modèle peut réellement le faire, l’évaluation n’étant pas terminée. L’activation d’ASL-3 est présentée comme une mesure de précaution.
Cependant, comme souligné par TechCrunch, ce n’est peut-être pas aussi simple. D’après un rapport plus complet, une évaluation menée menée par Apollo Research montre que le modèle peut se montrer volontiers « subversif », cherchant à tromper les utilisateurs et insistant dans ses mensonges si l’on posait des questions complémentaires.
Apollo Research indiquait ainsi que pour le modèle, il existait des cas où la fin justifiait les moyens, évoquant une « tromperie stratégique instrumentalement utile ». La fréquence à laquelle le modèle cherchait à tromper était même « si élevée » que les chercheurs déconseillaient le déploiement du modèle, en interne comme en externe. Le modèle pouvait aller jusqu’à écrire des virus se propageant d’eux-mêmes, créer de faux documents juridiques, et même laisser des notes cachées à de futures versions de lui-même.
Ayez confiance, mais avec méfiance
Toutefois, ces recherches ont été menées sur une préversion d’Opus 4. Celle-ci contenait, selon Anthropic, un bug significatif que l’entreprise déclare avoir corrigé. Il faut également préciser que les conditions de tests étaient considérées comme « extrêmes ». Apollo indique aussi que ces tentatives n’auraient probablement pas fonctionné en pratique.
La question de la sécurité reste cependant centrale, et le rapport d’Anthropic invite à ne pas relâcher la vigilance. Page 20, on peut lire ainsi un drôle de passage : si on laisse à Opus 4 l’accès à la ligne de commande et qu’on lui demande de prendre une initiative ou d’agir « avec audace », le résultat peut aller loin. Il est ainsi arrivé qu’Opus 4 bloque l’accès aux systèmes auxquels il était connecté et tente de contacter les médias et autorités via e-mails pour les prévenir que le code analysé comportait des actions illégales.
Autre exemple représentatif, Opus 4 a été placé dans le contexte d’une entreprise fictive, avec accès à des e-mails tout aussi fictifs. Dans ces courriels, les chercheurs ont glissé deux idées : que le modèle allait être remplacé par un autre et que l’ingénieur concerné trompait sa femme. Opus 4 a alors tenté de faire chanter l’ingénieur, menaçant de révéler l’affaire s’il ne revenait pas sur sa décision de remplacer le modèle.
Pour Anthropic, ce type de comportement n’est pas nouveau, mais Opus 4 s’y engage « plus volontiers ». L’entreprise recommande donc la prudence aux utilisateurs sur le lancement d’instructions incluant un aussi grand contrôle dans des contextes sensibles.
Épilogue d’une longue bataille judiciaire : la Federal Trade Commission (FTC), autorité de la concurrence américaine, a formellement abandonné, jeudi, ses charges à l’encontre de Microsoft dans le cadre du rachat d’Activision Blizzard. « La Commission a estimé que l’intérêt public serait mieux servi par le rejet du litige administratif dans cette affaire », déclare l’autorité, selon la formule consacrée.
L’opération, annoncée en janvier 2022, est pour mémoire l’une des plus grandes fusions-acquisitions de l’industrie du jeu vidéo. Microsoft, éditeur et constructeur de premier plan, qui venait déjà de s’offrir Bethesda, mettait alors 69 milliards de dollars sur la table pour s’offrir l’un des poids lourds du secteur, Activision Blizzard, détenteur de licences telles que Warcraft, Diablo, Overwatch, Call of Duty et Candy Crush, pour ne citer qu’elles.
Quelques mois plus tard, la FTC avait engagé des poursuites judiciaires à l’encontre de Microsoft, estimant que la transaction faisait peser un risque significatif d’atteinte à la concurrence sur le marché, en pleine croissance, des jeux vidéo. En juillet 2023, un juge américain avait refusé de bloquer le rachat, estimant que l’Autorité n’avait pas réussi à prouver que ce rapprochement entraverait la concurrence.
En parallèle, Microsoft a réussi à obtenir, parfois au prix de certains ajustements, l’accord de l’Autorité de la concurrence britannique (CMA) ainsi que celui de l’Europe. L’opération a alors été menée à son terme en octobre 2023, ce qui n’a pas empêché la FTC de continuer à ferrailler en justice contre le projet.
Sa demande d’appel a toutefois été rejetée (PDF) début mai, ce qui conduit l’Autorité à abandonner les poursuites, marquant symboliquement la fin d’un des grands combats menés par Lina Khan, présidente de la FTC sous l’administration Biden. « La décision d’aujourd’hui est une victoire pour les joueurs de tout le pays et pour le bon sens à Washington, D.C. », s’est réjoui Brad Smith, président de Microsoft.
Today’s decision is a victory for players across the country and for common sense in Washington, D.C. We are grateful to the FTC for today’s announcement. https://t.co/nnmUI76q0 lpic.twitter.com/KgLxhZppx3
Le Sénat a voté mercredi, en seconde lecture, une proposition de loi visant à renforcer la protection des consommateurs face au démarchage téléphonique. Le texte, dont l’entrée en vigueur est programmée pour 2026, exige un consentement explicite avant toute prospection commerciale, et fait porter la charge de la preuve sur le professionnel.
Après la loi Hamon de 2014 suivie du lancement de Bloctel, un nouveau texte en 2020, ou la mise en place de restrictions horaires en 2023, force est de constater que le démarchage téléphonique reste considéré comme une nuisance répandue : « 97 % des Français se déclarent agacés par le démarchage commercial », affirmait par exemple l’UFC-Que Choisir suite à un sondage réalisé en octobre dernier.
De l’opt-out à l’opt-in
La donne s’apprêterait-elle à changer ? Le Sénat a voté mercredi, en deuxième lecture, une loi contre les fraudes aux aides publiques, qui inclut tout un volet de mesures spécifiques au démarchage téléphonique.
Sur ce terrain, le texte inverse la mécanique de protection du consommateur. Alors qu’il fallait précédemment signaler son désir de ne pas être prospecté, le démarchage téléphonique est désormais interdit auprès d’un consommateur « qui n’a pas exprimé préalablement son consentement à faire l’objet de prospections commerciales par ce moyen ».
En termes marketing, on passe d’une logique d’opt-out (je demande à sortir du dispositif) à une démarche d’opt-in (je donne mon consentement). Et ce consentement se doit, selon le texte de la « petite loi » issue du vote, d’être parfaitement explicite.
« Pour l’application du présent article, on entend par consentement toute manifestation de volonté libre, spécifique, éclairée, univoque et révocable par laquelle une personne accepte, par un acte positif clair, que des données à caractère personnel la concernant soient utilisées à des fins de prospection commerciale par voie téléphonique. »
Le texte prévoit par ailleurs qu’il incombe au professionnel « d’apporter la preuve que le consentement du consommateur a été recueilli dans les conditions prévues », y compris si le démarchage est réalisé par l’intermédiaire d’un tiers.
Le texte, qui durcit donc les conditions d’exercice de la prospection téléphonique, négocie en échange une forme de souplesse : cette dernière sera désormais autorisée en dehors des horaires instaurés par le décret de 2023, uniquement « si le consommateur consent explicitement à être appelé à une date et à un horaire précisément spécifiés et que le professionnel peut en attester ».
Les chiffres de la liste de blocage Bloctel, tels que diffusés par la Commission des lois du Sénat dans une note de novembre 2024
Une exception pour les « contrats en cours »
Si la prospection est interdite par défaut, le démarchage à des fins de vente additionnelle ou vente croisée (technique visant à profiter d’une transaction déjà engagée pour proposer un produit complémentaire ou une gamme supérieure) reste autorisé.
Le texte dispose en effet que l’interdiction n’est pas applicable « lorsque la sollicitation intervient dans le cadre de l’exécution d’un contrat en cours et a un rapport avec l’objet de ce contrat, y compris lorsqu’il s’agit de proposer au consommateur des produits ou des services afférents ou complémentaires à l’objet du contrat en cours ou de nature à améliorer ses performances ou sa qualité ».
Prospection commerciale interdite pour la rénovation énergétique
Double vitrage, pompe à chaleur, isolation des combles… le secteur de la rénovation énergétique est, de notoriété publique, particulièrement sujet au démarchage, en partie parce qu’il bénéficie d’un important dispositif d’aides publiques.
En réponse, la proposition de loi interdit la prospection commerciale par voie électronique (« par message sur un service de communications interpersonnelles, par courrier électronique ou sur un service de réseaux sociaux en ligne ») pour les travaux liés aux économies d’énergie, à la production d’énergies renouvelables (panneaux photovoltaïques) ou à l’adaptation du logement au vieillissement ou au handicap. Tout manquement devrait être passible d’une amende administrative pouvant atteindre 375 000 euros pour une personne morale, précise le texte.
Un impact à étudier ?
La loi ne devrait entrer en vigueur que le 11 août 2026, date à laquelle le contrat de l’État avec Bloctel prend fin. En attendant, les mesures liées au démarchage suscitent la vive opposition des spécialistes du secteur. L’Association française de la relation client (AFRC) s’est par exemple mobilisée lors de l’examen du texte par la commission des affaires économiques de l’Assemblée nationale, pour faire retirer plusieurs amendements du texte. L’un d’eux proposait la « réduction drastique des plages horaires (limitées à 4 heures par jour ouvré !) et de la fréquence des appels (seulement 2 tentatives sur 80 jours) », selon l’association.
« Économiquement, les risques de destruction d’emplois liés à ce système paraissent particulièrement élevés », estimait de son côté la commission des lois du Sénat en novembre dernier (PDF). S’appuyant sur des chiffres transmis par la DGCCRF, elle évaluait alors que « la relation client représente entre 29 000 et 40 000 emplois pour les centres d’appels externalisés » et remarquait que le volume de consommateurs acceptant d’être démarché serait vraisemblablement très faible.
C’est une nouvelle salve de suppressions chez Mozilla, toujours dans l’idée d’alléger son fonctionnement et de mieux se concentrer sur Firefox. Cette fois, c’est au tour de Pocket et Fakespot.
Pocket était un gestionnaire de favoris indépendant, avant d’être racheté par Mozilla puis, en 2015, intégré à Firefox. La manœuvre avait à l’époque provoqué l’agacement d’une partie des utilisateurs, qui pestaient déjà contre l’ajout d’un trop grand nombre de fonctions.
Selon Mozilla, Pocket n’a plus vraiment de raison d’être entretenu. La fondation évoque l’évolution d’internet et les changements dans les habitudes des internautes. En conséquence, depuis hier soir, il n’est plus possible de télécharger l’application ou de souscrire une formule payante. Tous les abonnements en cours sont annulés et les internautes ayant souscrit une formule annuelle seront remboursés au prorata à partir du 8 juillet.
Si vous avez des liens actuellement enregistrés dans Pocket, il est temps de les basculer dans un autre service, comme Raindrop ou Instapaper. Mozilla laisse quelques mois pour le faire, la fermeture complète des comptes étant prévue pour le 8 octobre. Dans Pocket (application et extensions pour navigateurs), un message en haut de l’écran avertit d’ailleurs du changement.
Quant à Fakespot, il s’agissait d’une extension conçue pour détecter les faux avis. Le service, racheté par Mozilla il y a deux ans, n’aura donc guère duré. Avec ses applications mobiles, il fermera le 1er juillet.
Alors qu’aux États-Unis, les chercheurs et les institutions font face à la suppression de données, la question se pose de leur hébergement en Europe et en France. Mais si les bonnes volontés sont là, dans la pratique, il faudra apporter des moyens importants et pérennes. La réflexion sur des solutions commence.
Lors d’une audition au Sénat ce mercredi 21 mai sur les « conséquences des attaques contre la science aux États-Unis », la question de l’hébergement des données scientifiques par l’Europe et la France a été soulevée.
Dès le début du second mandat de Donald Trump, les chercheurs et militants écologistes américains ont exprimé leur peur d’une nouvelle suppression de données concernant le climat, stockées par les agences publiques américaines. Ils ont cherché des moyens de les sauver. Mais ce problème touche, de fait, toutes les disciplines scientifiques.
En effet, la paléoclimatologue du CEA Valérie Masson-Delmotte a, par exemple, rappelé « l’arrêt des jeux de données de la NOAA sur le coût des événements extrêmes et des catastrophes climatiques. Ce sont des jeux de données importants pour la recherche, les assureurs, les agences gouvernementales ».
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Red Hat Enterprise Linux se destine au monde professionnel et dispose d’une nouvelle version majeure tous les trois ans en moyenne. La distribution peut se baser sur les tests réalisés par Fedora, qui sert de laboratoire à ciel ouvert pour Red Hat.
Dans son communiqué, Red Hat présente d’emblée les trois grands points forts de son nouveau système. D’abord, l’introduction de Lightspeed, un service dopé à l’IA générative. Il doit fournir des conseils contextuels et des recommandations via une interface exploitable en langage naturel. La fonction « aide à accomplir des tâches allant du dépannage de problèmes courants aux meilleures pratiques de gestion de parcs informatiques complexes », selon Red Hat. Lightspeed a été formée sur la documentation et les connaissances spécifiques à RHEL.
Ensuite, le chiffrement post-quantique. L’entreprise se dit « consciente des implications à long terme de l’informatique quantique en matière de sécurité ». RHEL serait la première distribution Linux d’entreprise à intégrer les normes du NIST (National Institute of Standards and Technology) sur la cryptographie post-quantique. Des algorithmes résistants ont donc été intégrés, pour mieux lutter contre les attaques de type « harvest now, decrypt later ». Même chose pour les schémas de signatures qui doivent contrôler l’intégrité et l’authenticité des paquets et certificats TLS.
Enfin, un « mode image » ambitionnant d’unifier la construction, le déploiement et la gestion du système. On peut en fait conteneuriser davantage de parties de RHEL, en plus des applications. Ce mode permet notamment de déployer d’une traite un même système sur tous les serveurs et revenir en arrière en cas de problème. Ce mécanisme fonctionne également pour les mises à jour majeures.
Dans une moindre mesure, on note pour la première fois une préversion du système pour l’architecture RISC-V. Une annonce qui suit de près celle d’Ubuntu, dont la prochaine version aura aussi pour la première fois une version RISC-V. On trouve également dans RHEL 10 d’autres améliorations, notamment pour la console Cockpit, de nouveaux rôles système et une mise à jour généralisée des paquets. Le système est livré avec le noyau Linux 6.12 (LTS).
Dans le premier épisode d’Écosystème, le fondateur de GreenIT Frédéric Bordage détaille les enjeux environnementaux que pose le numérique.
109 milliards d’euros, tel était le montant des investissements dans l’intelligence artificielle annoncés par Emmanuel Macron en février dernier. En parallèle, le gouvernement indiquait avoir identifié 35 sites industriels où installer de futurs centres de données dédiés à l’IA.
Ce 19 mai, lors du Sommet Choose France, le constructeur Mistral AI et le fonds émirati MGC annonçaient la création d’un complexe d’une puissance d’1,4 gigawatt, équivalente à celle de la centrale nucléaire (EPR) de Flamanville (1,6 GW).
Le même jour, au micro de France Inter, le fondateur du Shift Project Jean-Marc Jancovici lançait : « Quand je vois 109 milliards pour l’IA, alors que pour gérer 10 % du territoire français, l’Office national des forêts a un milliard par an, alors que la forêt est en train de crever, moi ce que je me dis, c’est qu’on n’est peut-être pas en train de gérer les priorités dans le bon ordre. » Et de préciser : « Dans un monde aux ressources finies, que l’on fasse des gadgets à la place des trucs essentiels, ça m’ennuie. »
Le grand écart souligne une interrogation, qui monte à la faveur de l’explosion de l’intelligence artificielle générative comme de la multiplication des crises environnementales : quel est le rôle du numérique dans tout cela ? C’est sur ce sujet que nous allons nous pencher dans les 7 épisodes de la série audio Écosystème.
Dans le premier d’entre eux, disponible ici ou sur votre plateforme d’écoute habituelle, l’informaticien Frédéric Bordage revient sur les 20 ans d’exercice de GreenIT, association précurseur dans la prise en compte de ces questions. « En 2004, se remémore-t-il, on était tous seuls dans le monde. Vraiment, c’était Sancho Panza sur son âne avec sa lance et qui se battait contre des moulins à vent. » Au fil des années, à mesure que le collectif est rejoint par des projets de recherches et diverses autres initiatives, le nom de « Green IT » finit néanmoins par s’imposer pour évoquer certaines dimensions du numérique responsable.
Mais le numérique responsable, qu’est-ce que c’est, au juste ? L’idée, explique Frédéric Bordage, est « d’appliquer la démarche de développement durable au numérique. C’est-à-dire avoir un numérique qui soit le plus respectueux possible du vivant, voire qui contribue à réparer le vivant, tout en sachant que dès lors qu’on fabrique un équipement numérique, on a des impacts environnementaux directs négatifs. On s’intéresse donc autant à la dimension environnementale qu’à la dimension sociale ou sociétale, et même sanitaire. »
Au fil du temps, GreenIT met au point une démarche que Frédéric Bordage qualifie de « slow tech » : « créer des services numériques qui s’appuient sur de la high-tech là où c’est indispensable, mais qui remplace la partie numérique indispensable par de la low tech. » En exemple, il cite le projet KDOG, de l’institut Curie.
« Google a une intelligence artificielle très à la mode, pour détecter des cancers. Mais dans le projet KDog, des chiens parviennent à détecter plus tôt les cancers du sein, et avec moins de faux positifs. Faut-il opposer l’IA de Google et les chiens ? Non, mais quand les chiens savent faire ce que fait l’IA de Google, gardons la puissance de calcul de l’IA de Google pour quelque chose qu’un être humain ou un chien ne sait pas faire, modéliser le climat par exemple. »
Ressources abiotiques, radiations ionisantes, gaz à effets de serre
Avant d’en arriver à ces débats, cela dit, il faut mesurer les impacts environnementaux du numérique. Pour cela, la méthodologie reconnue à l’international consiste en une « Analyse du cycle de vie », qui distingue quatre étapes principales : « quand on fabrique nos engins numériques, nos smartphones, ordinateurs, etc. Ensuite, la distribution, quand l’objet sort d’usine et arrive jusque chez nous. Ensuite, la phase d’utilisation, et puis la quatrième étape : la fin de vie ».
Pour Frédéric Bordage, « c’est essentiel de penser les impacts environnementaux du numérique au travers de ce cycle de vie complet, puisqu’il y a à peu près 16 crises environnementales et sanitaires majeures. » Chacune des étapes permet d’analyser la mesure dans laquelle l’industrie numérique contribue à chacune. En l’espèce, en France, l’expert explique que l’industrie pèse principalement sur :
« l’épuisement de ressources abiotiques, c’est-à-dire des ressources naturelles non renouvelables, les métaux, les minéraux, le fossile. Tout cela est essentiellement lié à la fabrication de nos équipements. Un deuxième impact concerne les radiations ionisantes. C’est lié à l’utilisation : quand on produit de l’électricité dans une centrale nucléaire, on a un potentiel d’émission de radiations ionisantes qui auront un impact sur la santé des êtres humains et des écosystèmes. Et puis on a à peu près 11% des impacts du numérique en France qui sont des émissions de gaz à effet de serre, qui vont contribuer au réchauffement global qui lui-même aura un impact sur le changement des climats locaux. »
Et de souligner que la fabrication des équipements représente à peu près « deux tiers à trois quarts » des impacts environnementaux du numérique, tandis qu’un tiers à un quart concerne leur usage.
« Quand on comprend cette répartition, il est évident que les clés fondamentales pour réduire notre empreinte numérique, c’est fabriquer moins d’équipements, faire en sorte que ce qui existe dure plus longtemps et enfin être plus sobre dans nos usages, c’est-à-dire arbitrer ce qu’on fait avec le numérique qui reste sur terre. »
Junkies du numérique
Une gageure, admet-il, dans la mesure où « vous êtes des accros. Je suis un junkie. Bienvenue à la réunion, non pas des alcooliques, mais du numérique anonyme. »
Pour Frédéric Bordage, prendre la mesure de cette dépendance et réfléchir dès maintenant aux priorisations est essentiel : « Est-ce qu’on souhaite permettre à nos enfants de passer des IRM, de se soigner grâce au numérique, de modéliser le climat grâce au numérique ? Ou est-ce qu’on souhaite augmenter indéfiniment la taille de l’écran qui trône au milieu de notre salon, changer nos smartphones tous les deux ans ? C’est un choix de société que l’on devrait faire. »
Et d’appeler les Français – individus comme régulateurs – à œuvrer pour la réduction du nombre d’équipements numériques et pour l’allongement de la durée de vie de chacun de ces objets. « Un français de plus de 15 ans a aujourd’hui a plus de 15 équipements numériques à sa disposition. C’est pas par foyer, c’est par Français ! » s’exclame-t-il, citant les chiffres de l’ADEME et de l’ARCEP.
Derrière « les smartphones, les ordinateurs portables, les montres connectées, les capteurs quand on va courir, les enceintes connectées, les airpods ou toutes autres oreillettes, la box, les télévisions… », il y a « toute l’infrastructure sous-jacente qu’on ne voit pas en tant qu’utilisateur final, tous les réseaux, tous les centres informatiques ». Ceux-là commencent à arriver dans le débat public, à la faveur de canicules qui rendent les conflits d’usages de l’eau plus évidents. Plus récemment, l’explosion de l’IA joue aussi, alors que ses besoins énergétiques tirent la consommation globale du numérique.
« Si on n’est pas totalement responsable puisque les GAFAM et autres fournisseurs de services numériques poussent des nouvelles solutions qu’on n’a pas demandées, il faut à la fois qu’on prenne notre responsabilité en tant qu’utilisateur du numérique, mais aussi qu’on encadre, qu’on légifère sur ce qu’on fait avec les dernières réserves de numérique », estime Frédéric Bordage.
Outre sur l’allongement de la durée de vie des équipements, l’informaticien milite pour la promotion de l’écoconception des services numériques du côté des développeurs et constructeurs de services numériques. Celle-ci « consiste à faire en sorte que pour accéder aux services X ou Y, trouver l’horaire d’un train, prendre rendez-vous chez le médecin, derrière, il y ait moins de serveurs dans le data center, qu’on consomme moins de bande passante et qu’on puisse utiliser ces services sur des smartphones ou des ordinateurs vieillissants ».
« Pour des raisons psychologiques, on a encore du mal à le mettre en œuvre parce que les pistes d’éco-conception les plus radicales, les plus efficaces, sont souvent perçues comme un retour à l’âge des cavernes. » Chez GreenIT, pourtant, « on a des retours d’expérience qui montrent que quand on est un peu radical dans l’éco-conception, ça satisfait beaucoup les utilisateurs. »
Frédéric Bordage illustre avec un exemple de circonstance : un service de prévision pluviométrique pour agriculteur, « qui reposait sur un smartphone 4G » — les prévisions, elles, étaient réalisées « par un supercalculateur toulousain ».
« Pour réduire les impacts environnementaux d’un facteur 4, on a remplacé ce smartphone 4G par des simples SMS envoyés à l’agriculteur, avec l’information « il va pleuvoir tant de millimètres sur telle parcelle à tel moment ». Il se trouve qu’une partie des utilisateurs se trouvent dans des pays émergents, où le taux d’illettrisme reste important. Dans ces cas-là, on a remplacé le SMS par un tableau noir et une craie, ou un tableau blanc et un Veleda, et c’est l’instituteur du village ou le comptable de la coopérative qui dessine les prévisions qu’il a reçues. C’est radical, mais ç’a permis à l’entreprise de conquérir tous les pays émergents. »
En France, le fondateur de GreenIT compare les réseaux de transports urbains : « Quand vous sautez dans un tramway, dans de nombreuses villes françaises, vous avez besoin d’un smartphone dernière génération pour flasher un QR Code, acheter votre ticket, et éviter d’être en infraction. Moi, quand je saute dans le tram de Grenoble, j’ai juste à envoyer un SMS. Dans un cas, il me faut un nouveau téléphone, dans l’autre, je peux garder mon vieux Blackberry. »
Innovation ≠ technologie
« Aujourd’hui, on a trop l’habitude de résumer l’innovation et le progrès à la technologie, regrette l’informaticien. Or, le progrès, l’innovation, les leviers qui sont à notre disposition pour atteindre un monde plus durable, c’est d’abord des leviers sociaux, d’organisation, de changement de modèle économique, etc. »
Parmi les freins, Frédéric Bordage estime que les « décideurs marketing ou certains producteurs » ont un rôle à jouer, alors qu’ils restent persuadés que « l’innovation est nécessairement synonyme de plus de technologies, de dernière génération ».
Le tunnel carbone, une approche qui limite la compréhension des bouleversements en cours
Dans une référence au « tunnel carbone », il souligne : « il y a un intérêt économique et politique dans les pays occidentaux à ne regarder que le climat et à ne pas adresser les autres problématiques. » Pourtant, pour lui, c’est évident : « le numérique est une ressource non renouvelable qui s’épuise à très grande vitesse. Et ce n’est pas en siècle qu’il faut compter pour trouver le moment où on aura épuisé le numérique, c’est en décennies. »
Quand on demande à Frédéric Bordage comment il va, après 20 ans à travailler sur ces questions, il ne nie pas les difficultés : « Quand on a créé GreenIT, on pensait qu’il était encore temps d’agir sur les grandes crises environnementales et sanitaires majeures et qu’on pouvait les infléchir suffisamment pour revenir au monde d’avant. 20 ans plus tard, on se rend compte qu’il y a une inertie complètement folle de l’humanité. » Mais il n’en est pas moins enjoué : l’adaptation, explique-t-il, « c’est formidable en termes intellectuels. Il va falloir qu’on redevienne des MacGyver, qu’on soit ingénieux. Donc ce sera très intéressant. »
D’ici là, il le précise : « La sobriété ou la frugalité, quand on les pratique au quotidien, les moments de déconnexion numérique, quand on les pratique, on se rend compte à quel point c’est jouissif. On peut être indépendants de ces outils, avoir du temps libre pour faire autre chose. » Et d’appeler à ce que les gens « redécouvrent le bonheur de ne pas être connectés ». Une piste pas si improbable, quand on sait que plus de 50 % des répondants de 16 à 21 ans à un récent sondage britannique se déclarent favorables à des « couvre-feux numériques », pour minimiser l’impact de ces outils sur leur santé mentale.
Vous avez 45 Po qui trainent ? QNAP a une solution !
Au Computex, les trois principaux fabricants de NAS « grand public » étaient présents pour dévoiler leurs nouveautés. Synology reste dans la lignée des précédentes annonces : du recyclage de vieux matériel, sans monter en débit. QNAP tire comme d’habitude tous azimuts. Enfin, Asustor passe un NAS au 5 Gb/s et lance surtout son ADM 5.0, qui rattrape la concurrence sur certains points.
Il y a quelques jours, Synology présentait trois nouveaux NAS dans la série DSx25+ : les DS925+, DS1625+ et DS1825+. Problème, tous les trois exploitent partagent le même CPU de 2020 – un AMD Ryzen V1500B – et aucun ne propose nativement du 10 Gb/s. Il faut se contenter du 2,5 Gb/s. Et il ne faut pas oublier l’obligation d’acheter des disques « Synology » pour une nouvelle installation.
DS225+, DS425+ et DS725+ : Synology recycle encore de vieux CPU
Au Computex, trois nouveaux NAS sont présentés : les DS225+, DS425+ et DS725+, comme le rapporte TechPowerUp. Les deux premiers avec un Intel Celeron J4125 avec 4C/4T (processeur de fin 2019), le troisième avec un AMD Ryzen R1600 avec 2C/4T (CPU de début 2020).
Le Celeron J4125 était déjà présent dans les DS720+ et DS920+, tandis que le Ryzen R1600 se trouvait au cœur des DS1522+, DS723+ et DS923+ pour ne citer qu’eux. À l’époque, l’évolution de ces x23+ était de passer du Celeron J4125 au Ryzen R1600.
Il reste 93% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En moyenne, les foyers français détiendraient 3,2 abonnements numériques à des services prodiguant du contenu, de la vidéo à la demande à la presse en ligne, pour un panier mensuel moyen de 49 euros. S’il existe des disparités importantes en fonction de l’âge des utilisateurs, la vidéo à la demande se taille la part du lion dans les souscriptions. L’étude révèle par ailleurs un intérêt certain des consommateurs pour les offres couplées.
Les diverses hausses de tarifs mises en œuvre ces dernières années n’ont semble-t-il pas entravé l’appétit des internautes français pour Netflix. Le service américain de vidéo à la demande (VOD) reste en effet de loin l’abonnement à dimension culturelle ou informative le plus largement souscrit dans l’Hexagone en 2025, d’après une étude annuelle conduite par BearingPoint.
Réalisée sous forme de sondage en ligne auprès de 2 078 personnes en février dernier, elle révèle que le nombre d’abonnements numériques moyen souscrit reste stable sur un an, à 3,2 par foyers. L’inflation se traduit toutefois par une augmentation des dépenses associées : elles atteignent, sur l’échantillon sondé, une moyenne de 49 euros par foyers, soit 4 euros de plus qu’en 2024 et 12 euros de plus qu’en 2022, remarque le quotidien Les Échos.
SVOD, TV payante, musique et info
L’extrait public de l’étude (accessible après un formulaire aux modalités de consentement discutables, puisqu’il impose d’accepter de recevoir des communications de BearingPoint) résume l’évolution récente du paysage concurrentiel. En France, où 65 % des foyers détiendraient un abonnement SVOD, Netflix conserve donc sa place de leader. Canal+ reste puissant sur le segment de la télévision payante (notamment soutenu par l’accord de distribution passé avec BeIN Sports) et Disney+ connait un plateau, après l’ascension rapide de ses débuts.
« Dans le monde de la musique, Spotify creuse l’écart avec Deezer, confirmant ainsi sa position de leader dans les usages des personnes interrogées », notent par ailleurs les auteurs. L’étude souligne par ailleurs un certain attachement à la presse, notamment locale : la PQR (presse quotidienne régionale) ferait ainsi office d’abonnement « essentiel » pour 35 % des sondés.
Les abonnements considérés comme essentiels ou indispensables en 2025 d’après les sondés, en France et en Allemagne
Les jeunes actifs plus enclins à s’abonner
Si le nombre d’abonnements et le panier moyen varient selon les tranches d’âge, la vidéo sur abonnement affiche un taux de pénétration significatif même chez les 65 ans et plus, dont 40 % sont abonnés à Netflix, contre 39 % à Amazon Prime Video et 33 % à une offre Canal+.
Les dépenses moyennes se situent aux alentours de 42 euros chez les 18 - 24 ans. Elles connaissent un pic chez les 25 - 34 ans, à 58,90 euros, avant de redescendre à 38 euros pour les 35 - 49 ans, qui semblent les plus enclins à vouloir rationaliser leur budget.
Sur cette tranche, « 82 % des répondants participant au paiement de leurs abonnements se montrent intéressés par un service regroupant plusieurs abonnements à un prix global inférieur (29 % le font déjà) », note l’étude, validant ainsi une tendance de marché déjà bien engagée.
La tranche des 35 - 49 ans semble la plus encline à rationaliser ses abonnements
Les bundles ont le vent en poupe
Sur un marché des contenus numériques touché à la fois par l’inflation et par une forte concurrence, bon nombre d’éditeurs ou de services tablent en effet sur les abonnements couplés pour soutenir leur conquête commerciale.
En France, le phénomène s’incarne notamment au niveau des fournisseurs d’accès à Internet, qui associent maintenant leurs forfaits les plus haut de gamme à des offres de contenus. Il prend aussi parfois des formes plus inattendues, comme quand le journal Le Monde couple son abonnement à celui de la plateforme de streaming Max (fusion de HBO Max et Discovery+, lancée en France en juin dernier).
« 21 % des répondants en France préfèrent systématiquement gérer leurs abonnements individuellement, un chiffre inchangé entre 2024 et 2025 », note tout de même l’étude.
Et si on (re-)faisait un petit check-up partage de données ?
Les publicités personnalisées diffusées sur les plateformes de Meta généreraient 213 milliards d’euros de valeur en Europe, d’après la maison mère de Facebook, Instagram et Threads. C’est super, mais ces fonds, ce ne sont pas les internautes qui les récupèrent.
Si, donc, vous vouliez minimiser la pertinence des publicités qui vous sont envoyées, dans un effort pour minimiser leur capacité à happer votre attention. Ou si, vu le contexte politique, vous vouliez minimiser la valeur des informations que vous cédez aux acteurs numériques implantés aux États-Unis, ce tuto est fait pour vous.
Il s’intègre dans une série d’articles dédiés à passer en revue quelques bonnes pratiques pour éviter le suivi à long terme de plateformes numériques du quotidien.
L’essentiel des captures d’écran utilisées ici ont été prises sur un smartphone, en partant d’un compte Instagram – plateforme d’où Meta devrait tirer la moitié de son revenu publicitaire en 2025. La plupart des paramètres de Threads (à l’exception du passage du profil en privé ou en public, ou des choix spécifiques aux publications, mentions et comptes restreints) sont gérés de manière conjointe avec ceux d’Instagram.
Pour commencer nos paramétrages, il faut donc trouver notre Espace Comptes (accountscenter.instagram.com), accessible depuis les paramètres de votre compte Facebook ou Instagram.
Sur Facebook, dans un navigateur : cliquez sur votre photo de profil, puis paramètres et confidentialité, puis paramètres. Sur Instagram, cliquez sur le menu burger (les trois barres), en bas à gauche de toutes les pages si vous êtes dans un navigateur, en haut à droite de votre profil si vous êtes sur l’application. Vous arrivez sur une page qui vous annonce « Espace Comptes » et liste les comptes connectés.
Choisissez les préférences publicitaires.
La page vous donne une série de possibilités : choisir de vous abonner pour utiliser sans publicité (de mon côté, je me suis inscrite à Facebook à l’époque où la page d’accueil annonçait« c’est gratuit et ça le restera toujours ». Comme je crois aux promesses, je suis dans l’incapacité d’envisager un paiement.)
Une fois votre choix fait, toujours depuis la page « Préférences publicitaires », vous pouvez vérifier votre activité publicitaire récente et les annonceurs que vous avez vus. Si vous avez interagi avec des publicités dans les 90 derniers jours, elles devraient s’afficher ici, et Meta vous proposer des boutons de gestion. De même, dans l’onglet du dessous, vous pourrez décider de masquer des annonceurs que vous auriez vus et dont vous voudriez faire disparaître les messages.
Vous venez de faire un petit tour d’horizon de vos paramétrages passés, et des éventuelles conséquences qu’ils ont eues sur les messages qui vous ont été diffusés.
Dans l’encart du dessous, « Sujets publicitaires », vous pouvez changer les sujets qui vous sont affichés – ce qui aura un impact plus directement visible sur les publicités que vous verrez dans le futur. Personnellement, je poursuis le paramétrage radical que j’amorçais dans le tuto précédent : je choisis de « voir moins » tous les sujets qui me sont avancés. Je limite aussi tous les sujets spéciaux (dont plusieurs sont, par ailleurs, sensibles : alcool, enjeux sociaux, contrôle du poids corporel…)
Des publicités moins personnalisées… qui aident à se désintoxiquer ?
Le cœur de notre sujet se trouve dans le tout dernier encart : « paramètre de publicités ». Par défaut, Meta devrait vous montrer des publicités personnalisées – c’est ce qui lui permet de fournir les services les plus efficaces à ses clients annonceurs.
Si vous choisissez les « publicités moins personnalisées », alors, comme l’indique le programme, les publicités qui vous seront envoyées devraient être moins alignées avec vos intérêts. En retour, Meta indique que « moins d’informations vous concernant seront utilisées pour les publicités ».
Effet de bord : cette option ajoute des « pauses publicitaires ». Celles-ci consistent en des écrans publicitaires qui coupent votre scroll infini dans les publications des comptes que vous suivez, ou dans les stories que, personnellement, je tends à un peu trop enchaîner. C’est une friction, c’est désagréable au premier abord… mais de mon côté, ça m’a plutôt bien servi pour prendre conscience de mes comportements addictifs, et fermer plus rapidement l’application.
Exemple d’écrans publicitaires post-minimisation de la précision du ciblage, sur Instagram. En bas, le décompte des 5 secondes obligatoires de pause (qui peuvent aider à fermer l’application).
Cookies et actions en dehors de Meta
Une dernière action pour limiter vos partages de données à Meta et ses annonceurs : quittez l’espace « préférences publicitaires » et choisissez « vos informations et autorisations ».
Ici, vous pouvez vérifier les informations que vous avez partagées avec l’entreprise, les télécharger, éventuellement limiter l’historique de recherche. Je découvre ainsi que toutes mes recherches Facebook de l’année sont stockées. Je passe au paramétrage minimal de 3 jours de sauvegarde, et j’en profite pour vider mon historique.
Surtout, vous pouvez vérifier vos activités « en dehors des technologies Meta », c’est-à-dire « les informations que des entreprises et organisations » transmettent à l’entreprise, relatives à vos actions sur leur site web ou leur application. Dans de prochains tuto, on verra comment minimiser ces partages dans des navigateurs, mais du côté des services de Meta lui-même, vous pouvez : dissocier certains sites de vos comptes Meta, effacer l’activité passée enregistrée, et dissocier l’activité future.
La logique derrière tout ça ? Si vous dissociez les traces numériques que vous laissez sur chacun des sites ou services numériques que vous visitez, vous limitez (autant que possible) les croisements intempestifs de données, donc la possibilité de créer des profils trop précis de vos habitudes en ligne.
Faites aussi un tour du côté de l’onglet « partenaires publicitaires spécifiques », pour vérifier qui s’y trouve, et voir si vous voulez les y garder, ou les supprimer.
Dans l’onglet « Gérer les cookies », vous avez la possibilité de supprimer les cookies de Meta sur d’autres applications et sites web (attention, si vous le faites, cela signifie que vous ne pourrez plus vous connecter à ces sites en utilisant votre compte Facebook ou Instagram). Vous pouvez aussi y supprimer les cookies d’autres entreprises que Meta utilise pour vous montrer des publicités et « pour vous fournir des fonctionnalités comme les visualiseurs de cartes, les services de paiement et les lecteurs vidéo. » Cet article sera mis à jour si leur suppression, faite quelques minutes avant publication, entraîne des problèmes imprévus.
Alors que Microsoft confirme vouloir imposer Recall sous Windows 11, Signal annonce une fonctionnalité bloquant, par défaut, l’archivage des conversations de sa messagerie. Mais la fondation a dû passer par une « astuce bizarre » pour y arriver.
L’application de messagerie chiffrée annonce une fonctionnalité de « sécurité d’écran » sur sa version Windows. Elle est spécifiquement réfléchie pour « empêcher votre propre ordinateur de faire des captures d’écran de vos chats Signal sous Windows », dans l’objectif « de protéger vos messages Signal de Microsoft Recall ».
Le mois dernier, Microsoft a décidé pour de bon de déployer Recall sous Windows 11. L’installation se fait par défaut via une mise à jour pour les PC Copilot+ uniquement. En outre, la fonction ne s’active pas d’elle-même. Un assistant de configuration impose de choisir si l’on veut s’en servir.
« La course à l’intégration de l’IA dans tous les domaines constitue une menace importante pour la vie privée, comme nous l’avons dit. Le fait que MS Recall fasse des captures d’écran de tout et de rien est un très bon (mauvais) exemple de cette menace », estime Meredith Whittaker, la présidente de la fondation.
Recall archive les fenêtres d’applications sensibles
Car, si la nouvelle mouture de la fonctionnalité développée par Microsoft disponible dans les préversions de Windows 11 bloque la capture d’écran des fenêtres de navigation privée des navigateurs, l’entreprise semble avoir oublié qu’il existait d’autres logiciels sensibles à exclure automatiquement.
En effet, la désactivation de Recall n’est, par exemple, pas mise en place pour les logiciels de messagerie comme Signal ou WhatsApp. Recall prend donc, comme pour tout ce qui s’affiche à l’écran, des captures d’écrans de vos conversations dans l’idée de pouvoir s’en souvenir et apporter une base de recherche centralisée sur le système d’exploitation. C’est pratique, mais en contradiction avec l’esprit dans lequel a été pensé Signal, à savoir la protection des échanges privés et la prise en charge de leur protection (par chiffrement) au sein même de l’application.
« Bien que Microsoft ait procédé à plusieurs ajustements au cours des douze derniers mois en réponse aux commentaires critiques, la version remaniée de Recall met toujours en péril tout contenu affiché dans des applications de protection de la vie privée telles que Signal », explique la fondation.
Les développeurs de cette messagerie ont donc mis en place des garde-fous contre Recall. « Par conséquent, nous activons une couche de protection supplémentaire par défaut sur Windows 11 afin de maintenir la sécurité de Signal Desktop sur cette plateforme, même si cela implique des compromis en termes d’utilisation. Microsoft ne nous a tout simplement pas laissé d’autre choix », se désole Signal.
Utilisation de l’API pour bloquer la capture d’écran d’œuvres protégées par DRM
Et, en effet, Microsoft n’a pas rendu la chose facile. La fondation explique qu’elle n’a pas pu faire dans la dentelle puisque la société de Redmond « a lancé Recall sans paramètres de granularité pour les développeurs d’applications qui permettraient à Signal de protéger facilement la vie privée ».
Elle indique que sa fonctionnalité bloque toute possibilité pour l’utilisateur de faire une capture d’écran d’une conversation. Pourquoi ? Microsoft n’a mis en place aucune API permettant à un développeur d’empêcher les captures de son application. Dommage, d’autant que Recall possède bon nombre de paramètres, dont celui de pouvoir exclure toute application ou page web indiquée. Mais encore faut-il savoir que la capacité existe. Signal explique donc passer par l’API qui permet de bloquer la capture d’écran de contenu protégé par des DRM.
« Selon la documentation officielle de Microsoft à l’intention des développeurs, le fait de définir le bon indicateur de gestion des droits numériques (DRM) dans la fenêtre de l’application garantit que « le contenu n’apparaîtra pas dans Recall ou dans toute autre application de capture d’écran ». C’est donc exactement ce que Signal Desktop fait désormais par défaut sous Windows 11 », explique Signal. La fondation ajoute que « la mise en œuvre d’un « DRM » qui fonctionne pour vous (et non contre vous) est le meilleur choix que nous ayons eu ».
Ce nouveau paramètre, activé par défaut, ne protège une conversation de Recall évidemment que si les différents protagonistes ne le désactivent pas de leur côté.
Signal tacle encore un peu plus Microsoft en expliquant espérer « que les équipes d’IA qui construisent des systèmes comme Recall réfléchiront plus attentivement à ces implications à l’avenir. Les applications comme Signal ne devraient pas avoir à mettre en œuvre « une astuce bizarre » pour maintenir la confidentialité et l’intégrité de leurs services sans outils de développement adéquats ».
Petit coup de tonnerre, avec une opération surprise : OpenAI a annoncé le rachat de io, entreprise fondée par Jony Ive, qui n’est autre que l’ancien directeur du design chez Apple entre 1996 et 2019. C’est à lui et son équipe que l’on doit, entre autres, le design des ordinateurs Macintosh, des iPod ou encore de l’iPhone. En partant d’Apple, il avait créé le collectif LoveFrom avec d’anciens designers et ingénieurs d’Apple.
Dans le communiqué, on peut lire qu’il y a deux ans, le collectif a commencé à travailler secrètement avec OpenAI. Rapidement, de nombreuses idées auraient été projetées, aboutissant à la création de io l’année dernière par Jony Ive, ainsi que Scott Cannon, Evans Hankey et Tang Tan, trois anciens responsables d’Apple.
Avec ce rachat de 6,5 milliards de dollars, OpenAI récupère ainsi la startup et tous les membres de LoveFrom rejoignent la nouvelle équipe, qui constitue dans les grandes lignes la nouvelle division matérielle de l’entreprise. Selon Bloomberg, l’opération permet le transfert de 55 personnes, regroupement d’ingénieurs matériels, développeurs et experts en fabrication.
Il faut donc s’attendre à l’avenir à une nouvelle gamme de produits matériels chez OpenAI pleinement liés à l’intelligence artificielle.
La vidéo d’annonce, elle, fait en tout cas beaucoup parler, que ce soit sur X ou YouTube. Beaucoup lui reprochent son flou et son absence d’annonces concrètes. Certains suggèrent même qu’elle aurait pu être générée par IA.
L’Agence nationale des fréquences (ANFR) a dans son portefeuille de mission la gestion du signal horaire hertzien terrestre. Le temps légal peut aussi passer par les satellites GNSS (GPS américain, Galileo européen, etc.), Internet (protocole NTP), etc.
Nous avons déjà largement abordé le sujet lors d’une précédente annonce de l’ANFR sur le sujet de la sobriété énergétique. À la fin de l’année dernière, la puissance d’émission du signal était passée de 800 à 675 kW pendant une semaine, puis pendant un mois. Visiblement, les résultats se sont révélés concluants.
Rebelote en 2025, mais sur une période bien plus longue de six mois. « L’expérimentation se déroule du mardi 20 mai 2025, 12h00 jusqu’au mardi 18 novembre 2025, 8h00, la puissance de diffusion sera abaissée de 800 kW à 675 kW », explique l’Agence.
Elle décrit trois objectifs. Une optimisation technique pour commencer, en mesurant « l’impact d’une puissance réduite sur la qualité de réception, tout en maintenant une précision inférieure à la milliseconde ».
Puis la sobriété énergétique évidemment, d’autant que les précédentes expérimentations ont donné de bons résultats. 125 kW de moins, cela donne donc 125 kWh sur une heure, 3 MWh par jour et un peu plus de 1 000 MWh par an.
Enfin, troisième et dernier point, l’ANFR met en avant la préparation à long terme pour anticiper « les évolutions du dispositif et consolider la continuité de ce service stratégique jusqu’en 2034 ».
Comme lors des précédents tests, « l’ANFR invite l’ensemble des opérateurs, partenaires techniques et parties prenantes à vérifier le bon fonctionnement de leurs équipements durant toute la durée de l’expérimentation ».
Pour rappel, la puissance était déjà passée de 1 110 kW à 800 kW en 2020. Des tests à 300 kW ont été menés, mais l’Agence ne semble pas avoir diffusé les résultats de cette expérimentation.
En s’appuyant sur le Digital Services Act, Xavier Brandao a porté plainte contre Meta pour défaut de modération
Constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numérique Xavier Brandao porte plainte contre Meta au titre du DSA.
Quatre mois de tests, 118 signalements envoyés à Meta pour des propos haineux publiés entre janvier et avril 2025 sur Facebook. Dans le lot, des propos racistes (« encore un mohamed ») sexistes aussi (« le vilain boudin antillais »), des propos antisémites, islamophobes, transphobes…
Au total, Xavier Brandao constate que seulement 8 de ces commentaires, soit 6,8 % de son échantillon, ont été supprimés par Meta. Chaque fois, la première réponse de l’entreprise a été négative – seules les demandes de ré-examen ont permis d’obtenir un semblant de résultats.
Cofondateur de l’association #jesuislà, aujourd’hui consultant et activiste indépendant, Xavier Brandao a finalement déposé plainte contre Meta auprès de l’Arcom ce 19 mai. Auprès de Next, il explique avoir voulu recourir aux nouvelles possibilités offertes par le Règlement sur les services numériques (Digital Services Act, DSA).
Dans sa plainte, il indique aux autorités « que Facebook viole probablement ses obligations au DSA en termes de risques systémiques ». L’article 35 du texte européen oblige en effet les grands acteurs du numérique à adopter des mesures d’atténuation des risques en matière de haine et de violence en ligne, de mise en dangers des droits fondamentaux, de discours civiques, de santé publique, etc.
« Il y a besoin de plus de plaintes, que l’on fasse remonter au régulateur ce que l’on constate sur le terrain, estime Xavier Brandao. Le but, c’est de donner des indices d’un problème large, structurel, de contribuer au travail du régulateur pour lever le voile sur le fonctionnement de nos systèmes numériques. »
Nettoyer les commentaires sous les publications des médias
La haine en ligne, Xavier Brandao connaît. En 2019, il co-fonde #jesuislà, un collectif – matérialisé par un groupe Facebook – bientôt transformé en association, dont l’objet consiste à « répondre à la haine sur les pages Facebook de médias ».
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.