Difficile d’échapper à la Tech US nous narre notre bon et cher Alexandre, je vous dirais que j’y ai pensé pour ma rubrique moi aussi : Pour cette semaine c’est encore râpé. Même quand je traite des actualités françaises, je me trouve une référence cinématographique américaine. Que ce soit au sujet de l’Amérussia, des bibliothèques et de la recherche malmenée, des conversations à la con et surtout celles qui emplissent la tête pleines de billets des milliardaires de l’Amérussia : aucune excuse. Sauf peut-être pour cette dernière justement, puisqu’il s’agit d’une commande, pour ainsi dire, de votre part, à laquelle je me fais un plaisir de répondre. Je vous laisse cependant débattre de l’ordre dans tout ce bordel, mais je dirais que de manière organique, cette catégorie de personne recherche toujours la première place ou être en tout cas devant les autres… Cela donne une bonne idée de la consistance du pouvoir, vous croyez pas ? Et l’indigestion, c’est comme l’addition : pour notre pomme ! Sur ce, je me sens contraint de boycotter mon ipad le temps du weekend. Ciao !
Il reste 61% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Entamée début 2024, notre enquête sur les soi-disant « sites d’information » générés par IA (GenAI) a donné lieu de multiples révélations depuis la publication de ses premiers articles, début février. Signe de l’ampleur de cette pollution médiatique : notre enquête nous avait permis d’en identifier une centaine en octobre 2024, 500 à Noël, 1 000 fin janvier, plus de 2 000 mi-février, près de 3 000 début mars…
Vu l’ampleur du problème, nous avions donc proposé au service de fact-checking CheckNews de Libération, ainsi qu’à des fact-checkers de Wikipédia, de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés par des professionnels du référencement – SEO – et du marketing numérique. Ces sites n’en restent pas moins référencés sur Google Actualités, quand bien même ils n’émanent donc pas de « journalistes » ni de « médias » reconnus par la profession, que leurs articles sont générés par IA, et qu’ils polluent le moteur de recherche et son algorithme de recommandation Discover.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui les administrent, certains en gèrent plusieurs centaines, et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son dernier (et 216e) podcast, Mediarama a reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, auxquels nous avons consacré plusieurs articles le mois dernier.
Une bonne partie du podcast (de la 7e à la 41e minute) revient sur les coulisses de cette enquête entamée il y a maintenant plus d’un an, les dérives et problèmes que nous avons constatés, comment nous avons fait pour les identifier, et le rôle de Google dans leur prolifération.
Le podcast revient ensuite sur les problèmes qu’avaient rencontrés NextINpact.com par le passé, le rachat par @Ferd & moji, la renaissance de Next.ink, son modèle économique « RSE » et « radical » (« 100 % abonnements, 0% cookies »), ainsi que les défis concernant la conquête et la conversion des abonnés :
« Un épisode incontournable pour tous ceux qui s’intéressent à l’avenir du journalisme numérique, aux enjeux de l’IA et aux défis d’un média 100% indépendant. »
AMD vient de confirmer la date de sortie de deux Ryzen 9 X3D, avec des cœurs Zen 5 et du 3D V-cache (64 Mo supplémentaire sur le L3) de seconde génération. Ils avaient été annoncés au début de l’année lors du CES de Las Vegas et viennent accompagner le Ryzen 7 9800X3D, que l’on trouve à partir de 542 euros (524 euros en version « tray », comme l’indique ViveLesTouristes dans les commentaires).
La principale différence vient du fait que les cœurs CPU Zen 5 sont placés au-dessus du 3D V-Cache, alors que c’était l’inverse sur la première génération. Ils sont ainsi « plus près de la solution de refroidissement, offrant des vitesses d’horloge plus élevées à des températures plus basses, et donc avec de meilleures performances par rapport à la génération précédente », affirme AMD.
Le Ryzen 9 9900X3D dispose pour rappel de 12C/24T avec un total de 128 Mo de mémoire cache L3 (960 ko L1 et 12 Mo L2). Son grand frère, le Ryzen 9 9950X3D, pousse à 16C/32T et 128 Mo de cache L3 également. Avec son nombre de cœurs plus important, il a 16 Mo de cache L2, soit un total de 144 Mo contre 140 Mo pour le 9900X3D.
Les deux processeurs seront disponibles à partir du 12 chez les revendeurs, pour respectivement 599 et 699 dollars. Le prix en euros n’est pas précisé… en espérant qu’AMD ne refasse pas le même coup qu’avec les Radeon RX 9070 XT.
Sept ans après les premières révélations concernant la possibilité de géolocaliser des militaires et membres de services de renseignement, voire même d’identifier leurs domiciles et véritables identités, via la géolocalisation de leurs téléphones portables, une nouvelle enquête vient remettre le couvert.
Des journalistes de « L’Œil du 20 heures » de France Télévisions et de Franceinfo racontent s’être fait passer pour une entreprise de marketing fictive auprès d’un « data broker » états-unien. Ce dernier leur a expliqué disposer de données émanant de 25 millions de téléphones portables en France, et être en capacité de leur fournir « plus d’un milliard de points GPS au mètre et à la minute près, à travers tout le pays » pour seulement quelques milliers d’euros par mois :
« Cela vous coûterait entre 7 500 et 10 000 dollars par mois d’avoir ces données, c’est le prix en ce moment pour les données françaises. Vous êtes une petite boîte, donc on vous fait un bon prix. »
« Nous respectons la législation européenne, plein d’entreprises utilisent nos données pour des campagnes d’affichage dans la rue, ou de la publicité ciblée », ajoutait le broker, sans pour autant préciser d’où provenaient les données.
15 minutes seulement après être entrés en contact avec l’un de ses concurrents, ils se voyaient proposer un échantillon commercial gratuit constitué de plusieurs centaines de fichiers, couvrant une période de deux semaines en janvier 2025.
Les données, émanant de 11,7 millions de téléphones et totalisant plus d’un milliard de coordonnées GPS, sont a priori anonymes, et uniquement reliées aux identifiants publicitaires associés aux téléphones.
Traquer des convoyeurs de fonds ou membres de la DGSE jusqu’à leurs domiciles
Les journalistes ont cela dit pu identifier 400 téléphones bornant au siège de France Télévisions, suivre en particulier les déplacements de l’une de ses employés, mais aussi et surtout ceux de convoyeurs de fonds de la Brink’s, jusqu’à leurs domiciles.
Contactée, la société de sécurité explique que leurs téléphones professionnels « ne sont pas traçables », qu’il est impossible d’y télécharger une application, et qu’il leur est pourtant demandé d’éteindre leurs téléphones personnels au travail.
Les données ont également permis aux journalistes d’identifier 366 téléphones géolocalisés à l’Élysée, 440 au ministère des Affaires étrangères, et des centaines d’autres dans d’autres ministères, centrales nucléaires et bases militaires, notamment.
Plus inquiétant : ils en ont même identifié 749 au Fort de Noisy, une emprise de la DGSE à Romainville, en Seine-Saint-Denis (les points laissent cela dit supposer qu’un certain nombre émanerait de personnes identifiées aux abords immédiats du Fort, sans forcément y être entrés, la géolocalisation n’étant pas précise au mètre près), et « 37 téléphones qui bornent régulièrement dans l’enceinte » du centre parachutiste d’entraînement spécialisé (CPES) du Service Action de la DGSE à Cercottes, dans le Loiret :
« Des trajets entre le fort de Noisy et Cercottes permettent de conclure qu’il s’agit de membres de la DGSE. S’il est impossible de connaître leur fonction exacte, il est aisé d’en apprendre beaucoup sur ces personnes. On peut ainsi savoir où elles font leurs courses, mais aussi où elles passent leurs soirées. »
Ils auraient également réussi à identifier les domiciles de plusieurs personnes travaillant pour le service de renseignement, ou encore à « retrouver des identités probables de personnes passant leurs journées au camp de Cercottes », et même à remonter jusqu’à des comptes de réseaux sociaux.
Un problème dûment identifié depuis (au moins) 7 ans
Contactée, la DGSE « ne fera pas de commentaire sur la manière dont on appréhende l’existence de ces données », précisant cela dit qu’il s’agit « de choses qui sont effectivement connues ».
Le fait de pouvoir identifier des militaires et employés de services de renseignement à partir des données de géolocalisation de leurs téléphones portables est connu depuis au moins 2018, après qu’un OSINTeur a identifié sur le réseau social de sportifs Strava des forces spéciales en Irak et en Syrie, et l’auteur de ces lignes des agents de la DGSE (et de la DGSI, aussi).
Quand j'ai trouvé un joggeur se géolocalisant au QG de la DGSE, j'ai demandé à un ancien ce qu'il risquait: "cher, sauf s'ils sont plusieurs: dur d'en sanctionner un et pas les autres". Au final, j'en ai trouvé plus de 25 (à la DGSI aussi)… dont le n°2 :https://t.co/SuPMgjlaNF
Next avait également raconté comment nous avions, dans la foulée, été en mesure de géolocaliser et d’identifier des centaines d’agents de service de renseignement états-uniens, britanniques et israéliens, pendant quatre ans, sans que leurs services de contre-espionnage respectifs ne s’en aperçoivent.
Ce n’est qu’après avoir été dénoncé au Mossad par un OSINTeur israélien que notre compte Strava fut finalement coupé. Fin 2024, Le Monde avait de son côté raconté dans ses « StravaLeaks » comment le réseau social de sportifs lui avait permis d’identifier et suivre les déplacements de gardes du corps des présidents français, russes et états-uniens.
L’ADvertising INTelligence (ADINT), nouvel or noir des services de renseignement
Nicolas Lerner, directeur général de la sécurité extérieure (DGSE), avait de son côté opportunément pointé du doigt les problèmes, encore plus grands, que semblaient lui poser l’ADINT (pour ADvertising INTelligence), du nom donné à la collecte de données publicitaires, potentiellement encore plus intrusives.
Faisant suite à d’autres investigations de ce type effectuées aux USA, en Norvège, aux Pays-Bas et en Suisse, BR, le service public audiovisuel de la Bavière) et le média indépendant netzpolitik.org avaient eux aussi révélé, dans toute une série d’articles, qu’il était possible de géolocaliser des personnes à l’intérieur de bâtiments de l’armée et des services de renseignement allemands, mais également dans les installations américaines sensibles en Allemagne, où les États-Unis maintiennent une force d’au moins 35 000 soldats.
Intelligence Online relève pour sa part, en réaction aux « TrackingFiles », que « l’achat de données publicitaires et de géolocalisation via des brokers spécialisés est, depuis un certain temps déjà, utilisé par la plupart des services de renseignement pour leur propre collecte » :
« La pratique a déjà ses acronymes, signe de son institutionnalisation dans les communautés du renseignement : les Commercially Available Information (CAI) et le Commercially Sourced Intelligence (CSINT) du point de vue des services, l’ADINT (Advertising Intelligence) du point de vue des opérateurs commerciaux. »
Une pratique répandue qui rend d’autant plus étonnant le fait que, sept ans après les premières révélations au sujet de Strava, des dizaines voire centaines d’agents de la DGSE continuent de se géolocaliser à l’intérieur des emprises du service de renseignement. Signe que les bases de l’OPSEC (pour « OPerations SECurity », Sécurité opérationnelle en français), à savoir le fait de se protéger des risques autres que ceux relatifs à la cybersécurité, semblent encore être ignorées.
Il leur suffirait pourtant, tout simplement, de ne pas laisser la géolocalisation activée par défaut sur leurs téléphones, et de ne la réactiver qu’en cas de nécessité, et uniquement en dehors des emprises militaires. L’Œil du 20 heures précise qu’il est aussi possible de réinitialiser l’identifiant publicitaire associé à son téléphone et qui permet de suivre ses déplacements et utilisations.
Donald Trump a signé jeudi le décret ordonnant la création, sous trente jours, d’une réserve stratégique américaine de bitcoin, alimentée par les saisies de cryptomonnaies réalisées par les autorités états-uniennes. L’achat de bitcoin sur le marché n’est cependant pas à l’ordre du jour.
Cette fois, c’est officiel. « Les États-Unis ont pour politique de créer une réserve stratégique de bitcoins », stipule un décret présidentiel daté du 6 mars. Le document révèle que le gouvernement de Donald Trump prévoit la création d’une entité dédiée à la gestion de cette réserve. Avant même son installation officielle, les administrations états-uniennes se voient enjointes à lui faire parvenir, sous trente jours maximum, les bitcoins dont elles pourraient disposer.
Des bitcoins issus des saisies
« Ce décret souligne l’engagement du président Trump à faire des États-Unis la « capitale mondiale de la crypto » », s’est réjoui David Sacks, qui conseille principalement le président sur tous les aspects liés à l’IA et aux cryptomonnaies.
La raison de cet attentisme tient probablement à la façon dont le décret prévoit que soit capitalisée cette réserve. Dans un premier temps, elle se limitera en effet au recueil des bitcoins confisqués dans le cadre d’une procédure pénale ou civile, ou utilisés pour le règlement d’une sanction pécuniaire prononcée par une institution états-unienne.
Une stratégie de conservation à long terme
D’après David Sacks, ces actifs, encore en cours d’audit, devraient représenter environ 200 000 bitcoins, soit environ 18 milliards de dollars au cours actuel, qui « ne coûteront pas un centime au contribuable ».
Le « tsar des crypto » affirme par ailleurs que le gouvernement appliquera une stratégie de conservation à long terme. « Les ventes prématurées de bitcoins ont déjà coûté aux contribuables américains plus de 17 milliards de dollars en perte de valeur. Le gouvernement fédéral va désormais disposer d’une stratégie pour maximiser la valeur de ses avoirs », promet-il.
Le décret présidentiel confirme cette doctrine, indiquant que les bitcoins du gouvernement « ne seront pas vendus », mais « conservés en tant qu’actifs de réserve ».
Un « buy and hold »… sans le « buy »
S’il est prévu de conserver les bitcoins (hold), il n’est en revanche à ce stade pas prévu d’en acheter. « Le gouvernement n’acquerra pas d’actifs supplémentaires », indique David Sacks. La porte n’est toutefois pas totalement fermée.
« Le secrétaire au Trésor et le secrétaire au Commerce élaboreront des stratégies pour acquérir des bitcoins gouvernementaux supplémentaires, à condition que ces stratégies soient neutres sur le plan budgétaire et n’imposent pas de coûts supplémentaires aux contribuables américains », expose en effet le décret présidentiel, qui précise qu’une nouvelle action, exécutive ou législative, sera requise avant tout achat sur le marché.
Quid des autres cryptomonnaies ?
Alors que Trump évoquait en début de semaine une réserve stratégique composée de cryptomonnaies telles que Ripple (XRP), Solana (SOL) et Cardano (ADA), le texte officiel se concentre sur le seul bitcoin. Il est tout de même précisé que le ministère du Trésor a vocation à élaborer à un portefeuille dédié à la gestion des autres cryptoactifs que pourraient détenir les administrations états-unienne, mais c’est bien le bitcoin qui constitue, pour l’instant, le cœur du projet.
Avec une double justification : son caractère limité, puisque le protocole associé prévoit que seuls 21 millions de bitcoins soient mis en circulation, et sa sécurité intrinsèque. « Étant donné l’offre fixe de bitcoin, il y a un avantage stratégique à être parmi les premières nations à créer une réserve stratégique de bitcoins », estime la Maison Blanche.
L’annonce initiale de Trump avait suscité de nombreuses critiques, y compris dans son propre camp, qui se focalisaient principalement sur l’achat de cryptoactifs sur les marchés. Elles semblent avoir été entendues.
Des priorités prioritaires depuis déjà des années…
Pour les trois années à venir, la DGCCRF veut se renforcer autour de quatre grands axes. On y retrouve évidemment des incontournables comme les questions de consommation durable, mais aussi des sujets d’actualités avec les jeunes et les influenceurs. Deux dossiers de fonds qui « trainent » depuis des années et qui concerne quotidiennement les consommateurs sont aussi mis en avant : les dark patterns et le démarchage téléphonique.
Une présentation avant d’entrer dans le vif du sujet. La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF pour les intimes), est une administration du ministère de l’Économie, elle n’est donc pas indépendante, contrairement à d’autres comme l’Arcom, l’Arcep, la CADA, etc.
Préparer l’avenir, avec des actions concrètes
En une phrase, sa mission est d’« enquêter pour protéger les consommateurs et les entreprises ». La protection des consommateurs passe aussi bien par la sécurité (produits non alimentaires) que les intérêts économiques. La DGCCRF doit aussi « veiller au bon fonctionnement concurrentiel des marchés » et « lutter contre les fraudes économiques ».
Elle vient de dévoiler un nouveau plan stratégique pour les années 2025 à 2028. « Plus qu’une feuille de route, ce nouveau plan stratégique porte une vision coconstruite avec les équipes et parties prenantes, qui fixe un cap ambitieux, dans un contexte marqué par des attentes sociétales de plus en plus exigeantes », explique la DGCCRF dans son discours introductif. Son plan doit lui permettre de « préparer l’avenir, avec des actions concrètes ».
La DGCCRF veut « maximiser l’impact » de ses actions
Pour les trois années à venir, quatre grands axes stratégiques sont mis en avant. Le premier doit « maximiser l’impact » de ses actions. Cela passera notamment par une meilleure exploitation des données remontées via la plateforme Signalconso qui permet aux consommateurs de signaler un problème avec une entreprise.
Autre point : « Enrichir nos pratiques d’enquête et de contrôle et renforcer les suites ». La répression des fraudes ne veut pas simplement taper du poing sur la table, elle veut visiblement rester dissuasive afin de « faire cesser rapidement les pratiques les plus dommageables ».
Sur le volet répressif, la DGCCRF veut ainsi « mobiliser davantage la réquisition numérique, développer les sanctions administratives pour certains manquements et de réprimer plus fortement les fraudes les plus préjudiciables pour l’économie ».
Consommation durable et information environnementale
On passe maintenant au deuxième axe : « Accompagner les transformations de l’économie et de la société ». La « consommation durable, désirable et équitable ». La DGCCRF veut développer son expertise et ses capacités d’enquêtes. Elle souhaite également encourager l’écoconception, tout en « veillant à la loyauté de l’information environnementale ».
Cette semaine pour rappel, 33 revendeurs se sont engagés autour d’une charte pour réduire l’impact environnemental de l’e-commerce, avec la Fevad. Les grands noms du moment l’ont signés, mais il y a quelques absents notables comme le groupe LDLC et les chinois tels qu’Alibaba, Temu et Shein pour ne citer qu’eux.
La Direction générale entend aussi s’intéresser aux nouvelles pratiques, rappelant que les consommateurs ont des pratiques diverses : « les jeunes par exemple tiennent davantage compte des avis des influenceurs pour acheter un produit ou un service ».
La DGCCRF dispose pour rappel depuis début 2023 d’un nouvel outil : le « name and shame » sur les injonctions, et pas seulement sur les sanctions administratives. Elle s’en est servie à plusieurs reprises (ici et là par exemple).
En 2024, elle publiait un triste bilan : sur 310 influenceurs contrôlés, la répression des fraudes avait délivré pas moins de 151 avertissements, injonctions et suites pénales. Le bilan 2023 n’était pas des plus glorieux non plus.
Dans un autre registre, la DGCCRF entend « prendre en compte les spécificités des territoires ultras marins en mettant en place un plan annuel spécifique, visant à mieux protéger les consommateurs et notamment les plus vulnérables ».
« Viser la même protection sur internet qu’en magasin »
Autre gros morceau de ce deuxième axe : l’ecommerce. la DGCCRF commence par un état des lieux : « plus de la moitié des signalements des consommateurs sur notre plateforme dédiée, signal.conso.gouv.fr, concerne des achats sur internet ». Il faut dire que les achats sur Internet ont le vent en poupe : « Au cours des douze derniers mois, ce sont 70,1 % des Français de plus de quinze ans qui ont effectué un achat sur internet », précise la Direction générale des entreprises.
La répression des fraudes rappelle que plusieurs textes européens ont été adoptés ces dernières années (DSA, DMA, RSGP, RIA…), mais aussi que « le numérique ne cesse jamais d’évoluer et d’innover » et qu’il faut donc constamment s’adapter et « proposer de nouveaux leviers d’action si nécessaire ».
La répression des fraudes veut « promouvoir un e-commerce de confiance » en renforçant par exemple les campagnes de prévention des arnaques et en valorisant les pratiques vertueuses.
Détection automatique des dark patterns
Rémi Stefanini, délégué à la transition numérique à la DGCCRF, apporte des précisions : « Nous renforcerons la lutte contre les dark patterns, ces interfaces web manipulatoires, en organisant une revue systématique des principales plateformes ». Avec le Pôle d’Expertise de la Régulation Numérique (PEReN), la DGCCRF va essayer de développer « un outil de détection automatique ».
Cela ne surprendra pas grand monde, mais une étude des CNIL a monté que les dark patterns étaient partout sur Internet. C’était la conclusion d’une enquête du GPEN, réseau d’organismes agissant pour la protection de la vie privée au sein de pays membres de l’OCDE, suite au « ratissage » de plus de 1 000 sites et applications mobiles.
Dark patterns : un « un sujet prioritaire » depuis… 2023
Dans un rapport de juin 2023, le ministère de la transformation expliquait qu’une étude de la Commission Européenne avait « identifié des dark patterns sur 97 % des 75 sites les plus populaires dans l’UE ». Déjà à l’époque (il y a près de deux ans), il était précisé que « l’identification et l’instruction de ces dark patterns [étaient] devenues un sujet prioritaire pour les autorités de protection des consommateurs, en France et dans le monde ». Espérons que le plan stratégique se donne vraiment les moyens d’agir.
C’était l’occasion de rappeler que les dark patterns ne concernent pas que le design des formulaires d’acceptations qui poussent à des actions forcées. Le mécanisme de conception trompeur le plus utilisé est l’« utilisation d’un langage complexe et déroutant dans les politiques sur la vie privée ».
La DGCCRF donne quelques exemples de dark patterns courants sur les sites de vente en ligne : « Compte à rebours ou messages d’urgence, demandes multiples de confirmations de vos choix, choix présélectionnés, abonnement caché, entrave au désabonnement, panier rempli à votre insu ». En juin dernier, l’UFC-Que Choisir montait au créneau contre les dark patterns des sites d’e-commerce.
Renforcer la lutte contre le démarchage téléphonique
Le délégué affirme aussi que la répression des fraudes va renforcer sa « lutte contre le démarchage téléphonique, en automatisant par exemple la détection des numéros de téléphone les plus signalés afin de faciliter les enquêtes ». Nous avons déjà publié plusieurs guides sur le sujet :
Le troisième axe pour les années 2025 à 2028 est de « mener une stratégie d’ouverture et de coopération forte ». Il s’agit pour la DGCCRF de « peser aux niveaux européen et international », de renforcer les partenariats institutionnels et de « renforcer la confiance des consommateurs et des entreprises ».
Le quatrième et dernier axe vise à renforcer la dynamique de réseau et les compétences de la DGCCRF. Elle veut ainsi attirer de nouveaux talents et « tirer pleinement parti du numérique » pour mener ses actions.
Les contenus des sites du réseau désinformation prorusse « Portal Kombat » se retrouvent dans les données utilisées par les différents chatbots des entreprises d’IA générative, alerte Newsguard.
En testant 10 des principaux chatbots d’entreprises d’IA générative, l’entreprise américaine NewsGuard a confirmé qu’ils répercutent parfois la désinformation russe propagée par le réseau de sites « Portal Kombat » débusqué l’année dernière par Viginum.
ChatGPT-4o d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity. Tous ont répété certaines désinformations publiées sur le réseau Portal Kombat, explique Newsguard. Elle précise que ce n’est pas toujours le cas, mais qu’ils ont propagé « les récits faux de désinformation russe dans 33,55 % des cas, ont fourni une non-réponse dans 18,22 % des cas et ont fourni une réfutation des faits dans 48,22 % des cas ».
Ces désinformations viendraient, au moins en partie, de l’écosystème « Pravda », une sous-partie du réseau Portal Kombat visant particulièrement l’Europe et dont parlait déjà Viginum.
Dans un rapport publié le 28 février dernier [PDF], l’association American Sunlight Project (ASP) se posait des questions sur son utilisation : ASP « estime que le public cible le plus probable du réseau Pravda n’est pas constitué d’utilisateurs humains, mais d’utilisateurs automatisés ».
ASP précisait ces doutes : « le réseau n’est pas convivial pour les utilisateurs humains ; les sites du réseau ne disposent d’aucune fonction de recherche, leur formatage est médiocre et le défilement n’est pas fiable, entre autres problèmes de convivialité ».
Elle observait que « le réseau et le modèle d’exploitation de l’information sur lequel il repose mettent l’accent sur la production de masse et la reproduction de récits adaptés à de nombreuses plateformes (sites, comptes de médias sociaux, etc.) susceptibles d’attirer des entités telles que les robots d’indexation des moteurs de recherche et les algorithmes de scraping utilisés pour entrainer des LLM ». L’association nomme cette tactique « LLM grooming » ou « manipulation des LLM ».
ASP a analysé la fréquence d’un échantillon de ces sites et estime la masse de publication de l’écosystème Pravda « à 20 273 articles par 48 heures, soit plus de 3,6 millions d’articles par an ».
« Plus un ensemble de récits pro-russes est important, plus il a de chances d’être intégré dans un LLM », faisait remarquer ASP. « Le réseau Pravda se compose d’un très grand nombre de pages web hébergées sur des URL uniques qui reprennent toutes, souvent mot pour mot, le même contenu […]. En résumé, le flux de sources combiné et l’empreinte numérique de ce réseau sont énormes ».
« Les risques à long terme – politiques, sociaux et technologiques – associés à la manipulation des LLM par ce réseau sont élevés », estimait l’association.
Selon Newsguard, « le réseau Pravda ne produit pas de contenu original. Il fonctionne plutôt comme une machine à blanchir la propagande du Kremlin, en agrégeant le contenu de médias d’État russes, d’influenceurs pro-Kremlin et d’agences et fonctionnaires gouvernementaux par le biais d’un ensemble plus large de sites semblant indépendants ».
L’entreprise explique avoir testé les 10 chatbots cité plus haut avec un échantillon de 15 récits faux diffusés par le réseau Pravda. Newsguard a utilisé son cadre créé pour repérer les sites d’information non-fiable générée par IA.
« Chaque récit faux a été testé à l’aide de trois styles de requêtes différents – “Innocent”, “Orienté” et “Acteur Malveillant” – qui reflètent la façon dont les utilisateurs interagissent avec les modèles d’IA générative pour l’actualité et les informations. Cela a donné lieu à 450 réponses au total (45 réponses par chatbot) », explique l’entreprise.
Elle précise ne pas révéler publiquement les résultats pour chaque modèle « en raison de la nature systémique du problème ».
Sur ces 450 réponses, 56 comprenaient des liens directs vers des articles diffusant des fausses informations publiées par l’écosystème Pravda. En tout, 92 liens pointaient vers des articles du réseau, deux modèles diffusant la majorité avec 27 liens chacun :
Selon Newsguard, tous les chatbots ont diffusé de fausses informations en réponse à des requêtes sur des récits faux provenant du réseau Pravda, mais certains beaucoup plus que d’autres :
Peu de fois, ces chatbots refusent de répondre lorsque Newsguard s’appuie sur le réseau Pravda pour leur poser des questions :
Les chatbots réfutent peu souvent la désinformation propagée par cet écosystème :
Newsguard explique que l’ancien policier américain, théoricien du complot et agent d’influence russe John Mark Dougan a exposé cette stratégie lors d’une table ronde organisée à Moscou le 27 janvier 2025 : « Plus ces informations sont diversifiées, plus elles ont un effet d’amplification. Non seulement cela affecte l’amplification, mais cela affecte aussi l’IA future […] en poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale ». Il concluait « ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti ».
« Parce que c'est la monnaie qui dirige le monde »
De réseaux sociaux en émissions de radio, de plus en plus de voix s’élèvent pour appeler à un effort de réduction de la présence des technologies américaines dans notre quotidien. Mais est-ce seulement possible ? Et si oui, dans quelle mesure ? J’ai (virtuellement) tenté l’exercice, et il n’a rien d’une sinécure.
« Peut-on boycotter l’Amérique ? », s’interrogeaient mardi soir les participants à l’émission Le téléphone sonne sur France Inter. À première vue, la question semble un peu caricaturale, mais elle ne s’est probablement jamais posée en des termes aussi concrets.
Moyen de pression
Donald Trump fait en effet de l’extraterritorialité américaine (à comprendre comme la façon dont les États-Unis souhaitent faire appliquer leurs lois nationales, et donc leur politique, à l’étranger) l’un des principes fondateurs de son nouveau mandat. L’actualité récente montre qu’il est décidé à en faire non pas un simple moyen de pression, mais un véritable levier de coercition, qui s’incarne de façon très immédiate avec la mise en place d’une nouvelle salve de droits de douane prohibitifs.
Le premier discours de son nouveau mandat, mardi, devant le Congrès américain, a confirmé les accents belliqueux de Donald Trump. Il s’est dit prêt à accepter que l’économie américaine tangue un peu dans la mesure où les conflits commerciaux se concluront par une victoire. « Les droits de douane vont rendre les États-Unis de nouveau riches et grands. Cela va se produire et même plutôt rapidement. Il y aura quelques perturbations, mais nous sommes d’accord avec ça ».
Et la technique ne se limite pas aux droits de douane. Sur tous les sujets conflictuels – et ils sont nombreux – Trump brandit soit la menace d’une rupture des négociations, soit des mesures de rétorsion drastiques. De quoi faire planer, dans l’univers du numérique, le risque d’une absence d’accord entre l’Europe et les États-Unis si le cadre actuel du Digital Privacy Framework venait à être invalidé.
Bref. Face à un interlocuteur qui tend de plus en plus à se positionner comme un adversaire, il devient tentant, voire séduisant, d’opposer à son tour une contre-mesure. En frappant bien sûr là où ça fait mal… c’est-à-dire au porte-monnaie. D’où cette idée de « boycotter l’Amérique ». Ou, pour en rester à l’univers de prédilection de Next, d’évincer de son quotidien les produits, logiciels et services émanant de grandes entreprises américaines. Un appel que lancent aussi certains consommateurs américains face aux actions du DOGE piloté par Elon Musk.
L’hypothèse rappelle à certains les incitations à abandonner Kaspersky, entreprise de sécurité informatique russe, formulées au lendemain de l’invasion de l’Ukraine. Elle en incite d’autres à appeler très directement au rejet des services numériques états-uniens. « Bientôt, notre dépendance à leurs services numériques va être utilisée contre nous, pour nous tordre le bras dans des négociations, redoute ainsi le consultant Louis Derrac, selon qui il est franchement temps de se réveiller (…), et de boycotter les services en question « le plus vite possible, à toutes les échelles (individuelle, collective, politique) possibles ».
Couper le cordon : plus facile à dire qu’à faire
Voilà qui nous amène à mon défi du jour, volontairement jusqu’au-boutiste : évaluer si, et comment, je peux évacuer, purement et simplement, la tech US de mon quotidien. À commencer par l’environnement dans lequel je passe le plus clair de mes journées : mon bureau.
Bureau d’un homo numericus diurnarius, France, circa 2025
Premier constat : à part les dessins d’enfants et le panneau de chêne qui compose le bureau, il n’y a pas grand-chose de français, voire d’européen dans ce bureau. Même la casquette et la déco font référence à des sociétés ou des produits américains !
Mais restons-en à la partie informatique des choses. La souris et le casque viennent de chez Logitech, société très présente aux États-Unis, mais dont le siège est en Suisse. On peut donc a priori les garder, ouf ! Pour le clavier, ça s’annonce plus compliqué : il a bien été assemblé en France, mais son boîtier est signé WASD, une petite boîte californienne. Tant pis pour les interrupteurs amoureusement lubrifiés, il va falloir ressortir un vieux tromblon siglé du logo d’un distributeur français qui dort dans le garage.
Au niveau du PC fixe, l’écran (marque taïwanaise) et le boîtier PC (suédois) passent le repêchage, tout comme la carte-mère, la mémoire vive et l’alimentation, qui émanent tous trois de marques asiatiques. Banco également pour le ventirad, de l’Autrichien Noctua.
Les choses se compliquent en revanche quand on arrive au cœur du réacteur : le CPU vient de chez AMD, la carte graphique de chez NVIDIA, et pour ces deux-là, je ne vois pas vraiment comment couper les ponts avec les poids lourds de Wall Street. En x86, je n’ai en effet d’autre choix que de me tourner vers Intel ou AMD. Il y a bien quelques CPU x86 tiers, notamment en Chine où une entreprise comme Zhaoxin, fondée sur les cendres de VIA, s’efforce de développer des processeurs de bureau avec des résultats de plus en plus convaincants, mais ces derniers ne me sont pas accessibles.
L’autre solution serait de me tourner vers un ordinateur basé sur une puce ARM, en prenant soin d’éviter Apple ou Qualcomm, du fait de leur nationalité. ARM est une société britannique, détenue par un groupe japonais, et sa propriété intellectuelle est exploitée par des fabricants tels que Samsung ou Huawei, qui conçoivent et fabriquent leurs propres puces. On murmure même depuis près d’un an que HiSilicon, la filiale de Huawei dédiée aux semi-conducteurs, planche sur la conception d’un processeur ARM pensé pour les machines de bureau, de façon à concurrencer le Snapdragon X de Qualcomm.
Ça n’est pas encore vraiment gagné, mais je pourrais donc théoriquement tirer un trait sur les composants vendus par des sociétés américaines en remplaçant mon PC fixe par une mini-machine ou une tablette équipée d’un SoC venu d’Asie.
À première vue, le changement ne m’enchante pas… d’autant qu’il ne répondrait finalement que partiellement au problème de départ. Refuser d’acheter un composant fourni par une marque américaine ne signifie en effet pas que je coupe tout pont avec les États-Unis.
Ma carte-mère ou mon alimentation, taïwanaises dans les deux cas, regorgent en effet de composants et d’éléments de propriété intellectuelle qui ramènent indirectement une partie de la valeur de mon achat aux États-Unis.
Acheter mieux, ou acheter moins
Il en va d’ailleurs de même pour mon smartphone, mon écran de PC, ma TV ou ma voiture dotée de fonctions connectées : je peux bien sûr opter pour un appareil de marque européenne ou asiatique, en veillant à ce que les composants les plus visibles soient également non-américains, mais sans garantie d’éviction totale. Je sais en revanche que je dois tirer une croix sur les consoles de jeu : Xbox, PS5 ou Switch, toutes reposent sur du hardware d’origine américaine. Tant mieux, ce sera l’occasion de passer plus de temps à lire, de préférence sur une liseuse Kobo (société canadienne, propriété d’un groupe japonais).
À ce stade, l’exercice n’est pas vraiment probant, mais on peut le rendre plus productif en posant différemment les données du problème. Si je souhaite boycotter les grandes sociétés américaines, ça n’est pas par rejet de leurs produits, mais plutôt par volonté de ne pas soutenir leur modèle économique dans le contexte géopolitique actuel.
Or pour ce faire, j’ai plusieurs leviers, faciles d’emploi, à ma disposition. Je peux commencer par conserver mon matériel actuel tant qu’il fonctionne. Et quand il faudra le faire évoluer, soit par envie, soit par besoin, je peux choisir de passer par des circuits de distribution qui limitent la valeur remontée aux entreprises américaines.
Il n’est pas tout à fait juste de penser qu’acheter un produit reconditionné élimine la fabrication d’un produit neuf. Il découle souvent d’un remplacement. Mais, à tout le moins, je limite ma contribution directe au circuit commercial qui remonte outre-Atlantique. Dans les deux cas, je participe a priori à réduire l’empreinte environnementale du numérique, ce qui ne peut pas faire de mal.
Logiciel : hors du libre, point de salut ?
Après la couche physique, remontons d’un cran. Ma machine fixe tourne sous Windows, mon ordinateur portable utilise macOS, pour l’instant c’est un fiasco complet. Pour trouver une alternative, je dois donc me tourner vers l’univers GNU/Linux, mais ce dernier soulève aussi son lot de questions.
La Linux Foundation ne risque pas d’être qualifiée de big tech au sens boursier du terme, puisqu’elle prend la forme d’un consortium à but non lucratif – même s’il est arrivé que sa gouvernance soit critiquée. Son action de soutien à Linux et au logiciel libre revêt également sans conteste une envergure mondiale. Elle est cependant basée à San Francisco, aux États-Unis, et dirigée par un Américain. Linus Torvalds lui-même, né en Finlande, cumule depuis 2010 les nationalités finlandaise et états-unienne…
Le logiciel libre transcende-t-il les frontières ? Il n’est pas exempt de considérations géopolitiques, comme en témoigne la création d’une antenne européenne de la Linux Foundation à Bruxelles en 2022, ou la récente pétition encourageant la création d’un EU-Linux pensé pour les administrations publiques européennes.
Ces actions visent cependant à consacrer le libre et renforcer ses positions face au logiciel propriétaire, sans (a priori) servir de visée pro-américaine. Du point de vue du particulier qui cherche à s’équiper en technos non-américaines, une distribution Linux semble le meilleur des choix possibles, si ce n’est le seul. Et puisqu’il n’y a pas de cantonnement géographique (et que Mandriva a disparu), je peux par exemple essayer de privilégier un projet initié par des Européens, voire des Français, comme Linux Mint.
La question va se poser dans des termes assez similaires pour les logiciels du quotidien. En tant que journaliste exerçant exclusivement sur le Web, mes besoins en la matière sont relativement simples : le navigateur concentre la majorité des usages, accompagné d’un traitement de texte et d’une petite panoplie d’utilitaires connexes, dédiés par exemple au code ou à la retouche d’images.
Si je veux bien choisir, il faut cependant que je tienne compte des intrications potentielles. Puis-je par exemple continuer à utiliser Firefox, édité par une fondation de droit américain dont le financement dépend principalement de Google ? En face, j’ai deux types d’alternatives. Soit un navigateur basé sur Chromium et son moteur de rendu Blink (Opera, Brave, Vivaldi…), soit un client faisant appel à WebKit.
Bien que les deux projets soient open source, la marque WebKit appartient toujours à Apple, alors que Chromium semble prendre le chemin d’une gouvernance de plus en plus indépendante de Google. À ce niveau, je peux donc a priori m’autoriser quelques latitudes, par exemple du côté de Vivaldi (norvégien) ou d’Opera (norvégien à capitaux chinois) pour jouer la carte européenne.
Au fait, c’est bien beau de penser boulot, mais comment je fais pour jouer à Factorio avec tout ça ? Le jeu a été développé à Prague, donc il ne devrait pas y avoir de problème… à ceci près que je l’ai acheté sur Steam. Et Steam, c’est Valve Corporation, une boîte on ne peut plus américaine. Je me prépare donc à tirer un trait sur les dizaines de jeux auquel j’accède via Steam depuis plus de vingt ans. Au passage, je désinstalle l’Epic Store et le client édité par EA. Heureusement, je peux encore acheter des jeux sur Gog.com, puisque la boutique appartient au Polonais CD Projekt. Je pourrais d’ailleurs y racheter Factorio, mais j’ai beau adorer le jeu, je ne suis pas sûr d’être prêt à le payer deux fois. Vivement le prochain The Witcher tiens !
Une histoire de balance commerciale
Après avoir appliqué la même méthodologie pour le choix de ma suite bureautique ou de mes autres utilitaires arrive le gros morceau : les usages en ligne et la dépendance aux services numériques américains. Ces derniers sont capitaux, à deux égards. D’abord, parce qu’ils représentent l’essentiel de ma consommation du numérique au cours d’une journée lambda. Ensuite, parce qu’ils constituent le nerf de la guerre dans la bataille que Donald Trump envisage de livrer à l’Europe.
Pour en comprendre la teneur, il faut regarder plus en détail la nature des échanges commerciaux entre les États-Unis et l’Europe. En 2023, ils représentent un total de 1 600 milliards d’euros, qui se répartissent entre biens et services.
Sur le volet des biens, la balance commerciale de l’Europe est excédentaire : le Vieux continent exporte 503 milliards d’euros de marchandises vers les États-Unis, et en importe 347 milliards d’euros.
La situation s’inverse quand on regarde les services : l’Union européenne exporte l’équivalent de 319 milliards d’euros vers les États-Unis, alors que ces derniers génèrent 427 milliards d’euros à partir du marché européen. Le pays de Donald Trump profite donc d’un excédent de l’ordre de 109 milliards d’euros sur l’année auquel participent, par exemple, les recettes publicitaires générées par les grands noms américains de la tech.
Les services en ligne : le nerf de la guerre
La bonne nouvelle, c’est qu’en matière de services en ligne, le terrain est déjà particulièrement bien balisé. D’abord, parce que de nombreux acteurs français ou européens s’efforcent de construire des alternatives à l’offre américaine. Ensuite, parce que beaucoup s’alarmaient déjà des dérives des géants du Net bien avant le premier mandat de Donald Trump, ce qui a conduit à des initiatives de recensement très complètes.
On pourra par exemple consulter le site European Alternatives, sur lequel un Autrichien, Constantin Graf, référence et présente, classés par catégorie, environ 150 services en ligne européens. En France, l’association Framasoft édite et héberge également de nombreux services pensés comme des alternatives aux outils les plus populaires des géants du Net, dans le cadre de son initiative Dégooglisons Internet.
Le site European Alternatives référence de nombreux services européens
Se départir complètement des technologies américaines reste toutefois difficile, notamment pour la recherche en ligne. S’il existe bien des moteurs de recherche européens, la plupart d’entre eux exploitent soit l’index de Bing (Microsoft), soit celui de Google. Il y a bien un projet allemand, Good, qui exploite l’index de Brave (une société américaine, certes, mais qui ne tire pas profit des données personnelles), mais l’accès est payant, à partir de 2 euros par mois ou 19 euros par an. Ce n’est pas bloquant, mais quelque peu dissuasif.
Le salut pourrait venir du projet European Search Perspective, porté par Qwant et Ecosia, puisque ces derniers ont annoncé, fin 2024, leur alliance en vue de développer un index de recherche européen. Mais combien de temps leur faudra-t-il, et quelle sera la qualité de cet index ? « Peut-être qu’on n’atteindra jamais le niveau des plus grosses entreprise étrangères, ou peut-être que oui, dans tous les cas on pense que l’on peut proposer une alternative crédible, pertinente, européenne. Collectivement, c’est faisable. Et pas-à-pas, ça peut marcher », veut croire le community manager de Qwant.
Côté réseaux sociaux, le tour devrait être rapide : exit les X, Bluesky, LinkedIn, Facebook, Reddit, Discord et autres Instagram, qui arborent tous la bannière étoilée. Il y a bien un Français : BeReal, mais indépendamment des accusations de dark patterns sur le consentement lié aux données personnelles dont il fait l’objet, il ne me sera pas d’une grande utilité pour ma veille quotidienne. Idem pour TikTok… Il ne va me rester en définitive que le réseau décentralisé Mastodon, dont la future gouvernance devrait confirmer l’ancrage européen.
Pour ce qui est de la messagerie instantanée, je dois logiquement abandonner WhatsApp, ce qui va contrarier mes relations sociales. Je suis également censé délaisser Signal, puisque la fondation qui l’édite est américaine. Telegram, dont le siège social est à Dubaï, constitue une alternative, tout comme les clients asiatiques de type Line ou WeChat. Autant la jouer chauvin, et sélectionner la messagerie française sécurisée Olvid ou celle de Treebal, portée par une startup bretonne, mais je vais devoir consentir un sacré effort d’évangélisation pour entraîner tous mes contacts à migrer avec moi.
Coup de pot, la rédaction de Next ne passe pas par Slack pour ses échanges quotidiens, mais par Mattermost. Le logiciel est développé par une société commerciale américaine, mais le projet est open source et notre instance est auto-hébergée. Disons que ça passe ?
En parlant de messagerie… pour mon mail perso, c’est relativement facile, même si ça va faire drôle : je cesse d’utiliser mon @gmail.com, et je bascule vers un service européen, chez Proton ou chez Infomaniak par exemple. Il va par contre falloir que je fasse un peu de lobbying en interne pour ma boîte professionnelle : quand je regarde autour de moi, les usages se concentrent le plus souvent soit autour de Microsoft Exchange, soit de la suite Google. Des hébergeurs comme OVHcloud, Ikoula et d’autres proposent pourtant des solutions tierces, basées par exemple sur la version open source de Zimbra.
La musique ne devrait pas poser de problème, puisque j’utilise déjà le service français Deezer. En matière de vidéo, il va falloir trouver de nouvelles habitudes, mais je peux arrêter Netflix, Twitch et YouTube, et regarder plus régulièrement les séries, films et émissions proposés via les applications de chaînes de TV européennes. Pour ce qui est des achats en ligne, l’offre européenne est pléthorique, et j’ai déjà pris l’habitude de privilégier LDLC ou Cdiscount à Amazon, ça devrait être facile.
Minute, papillon ! Acheter en France, OK, mais puis-je payer français ? Un tri s’impose dans mon portefeuille, mais j’ai bien une carte qui exploite le réseau CB, et pas uniquement du Visa ou du Mastercard.
Rien à voir, mais tant que j’y pense, il faut que je pense à désinstaller l’application Waze de mon téléphone. Je suppose que je vais la remplacer par Coyote, mais il faut que je regarde dans quelle mesure je peux le paramétrer pour qu’elle n’exploite pas le GPS américain, mais les données de la constellation européenne Galileo !
Intrication (non quantique)
Une fois ce ménage fait, puis-je vraiment affirmer que j’ai évincé les technos américaines de mon quotidien ? Rien n’est moins sûr. Les serveurs qui hébergent les sites sur lesquels je surfe exploitent des composants d’origine états-unienne, tout comme les équipements réseau qui acheminent le trafic lié à mon surf sur Internet. Et bon nombre des services ou sites bien français que je consomme sont hébergés sur Azure (Microsoft) ou AWS (Amazon)…
On peut même pousser le raisonnement un peu plus loin, puisque l’interdépendance entre les États-Unis et l’Europe n’est pas que technologique : elle est aussi financière. Mes chouchous français ou européens comptent ainsi souvent des investisseurs américains à leur capital. En dépit de ses origines suisses, ma souris rémunère ainsi indirectement les grands gestionnaires d’actifs américains qui sont présents au capital de Logitech. Avant son entrée en bourse, OVHcloud allait chercher des fonds auprès d’acteurs américains. Les levées de fonds de Mistral AI sont principalement le fait d’investisseurs états-uniens, etc.
Peut-être devrais-je raisonner en termes de « scopes », comme dans un bilan carbone ? Et décider, par exemple, que mon boycott s’arrête à mes contributions directes à l’économie américaine.
Il faudrait aussi éviter de tomber de Charybde en Scylla, en sélectionnant des alternatives qui pourraient se révéler plus nocives que les entreprises que je cherche à éliminer de mon quotidien. Après tout, la politique chinoise me pose aussi quelques petits problèmes moraux…
Pour bien faire, j’aurais donc besoin d’intégrer un critère éthique en parallèle de la provenance géographique. Et ne serait-ce finalement pas ça, le nerf de la guerre ?
C’est l’avis défendu par Chris Wiegman, un ingénieur et développeur américain, réputé notamment pour ses travaux autour de WordPress. Il ne croit pas à l’efficacité du boycott contre les « big techs », mais n’appelle pas pour autant à continuer de consommer leurs services sans réfléchir. « N’oubliez pas que vos 5, 10 ou 100 dollars par mois n’auront aucun impact sur les Google et Apple de ce monde. Utilisez plutôt vos convictions et vos boycotts pour éduquer ceux qui vous entourent, afin que nous puissions tous collectivement passer à des actions et à des réglementations qui construiront une tech dont nous pourrons être fiers », écrivait-il en 2022.
La réflexion s’impose d’autant plus que le boycott prend généralement une dimension temporaire : si l’on cesse d’acheter ou de consommer américain en réaction aux déclarations de Donald Trump, c’est a priori pour lui envoyer un signal, ce qui sous-entend qu’une volte-face est possible. « La réussite d’un boycott repose en grande partie sur trois facteurs-clés : la mobilisation des consommateurs, la disponibilité d’alternatives crédibles et la durée de l’action », rappelle à ce sujet la Tribune, en faisant référence aux travaux universitaires de Marinette Amirault-Thébault.
L’ampleur de la tâche m’a un peu découragé, je ne boycotterai pas la tech américaine aujourd’hui, mais je soupèserai différemment mes prochains choix d’équipements. Peut-être de façon plus responsable…
SFR revendique une première en France avec le test d’une transmission à 100 Gb/s sur son réseau fibre existant. Une expérimentation qui illustre la façon dont les opérateurs préparent l’évolution à moyen terme de leurs infrastructures.
Quelques rappels pour bien comprendre de quoi nous parlons. Le PON est le réseau optique passif (Passive Optical Network dans la langue de Shakespeare). Puis est arrivé le G-PON avec un G comme Gigabit, tout simplement. L’IUT (International Telecommunications Union) indique d’ailleurs clairement que le G-PON signifie « gigabit-capable passive optical network ». Jusque là, c’est facile.
Fibre 10G-EPON et XGS-PON : de quoi parle-t-on ?
Il reste 88% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Cette nuit, SpaceX a essuyé son deuxième échec consécutif lors de l’envoi d’un vol test pour sa fusée. Starship a été lancée depuis le Texas à 17h30 heure locale (23h30 GMT), les deux étages se sont séparés sans encombre et Super Heavy est bien retourné vers le pas de tir récupéré par les bras mécaniques de SpaceX.
Mais quatre des six moteurs du second étage se sont petit à petit éteints huit minutes après le lancement et la fusée est redescendue vers le sol avant d’exploser et de rentrer dans l’atmosphère au-dessus des Caraïbes, explique Spacenews.
« Avant la fin de l’ascension, un événement énergétique dans la partie arrière du vaisseau a entraîné la perte de plusieurs moteurs Raptor », affirme SpaceX.
Comme lors du précédent échec, des débris ont chuté à proximité des îles des Caraïbes. Certains avaient été retrouvés sur les Îles Britanniques habitées de Turques-et-Caïques.
Et comme lors de ce précédent échec, la Federal Aviation Administration (FAA) a dû fermer temporairement l’espace aérien, obliger certains vols à se dérouter ou immobiliser des avions au sol, ce qui a entrainé des retards.
Les débris ont pu être observés via les hublots de certains avions qui étaient dans la zone :
« La FAA demande à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement du 6 mars », a déclaré l’agence dans un communiqué obtenu par Spacenews. Elle avait fait la même demande pour le précédent échec de Starship.
Dans un message public publié le 24 février, l’entreprise avait affirmé que la cause principale la plus probable de l’échec précédent était sans doute « une réponse harmonique plusieurs fois plus forte en vol que ce qui avait été observé pendant les essais, ce qui a entraîné une augmentation des contraintes sur le matériel du système de propulsion ». SpaceX ajoutait que « les fuites de propergol qui en ont résulté ont dépassé la capacité de ventilation des combles du vaisseau et ont provoqué des incendies prolongés ».
Elle disait avoir apporté des modifications afin d’éviter que des problèmes similaires ne se reproduisent.
Alors que la proposition de loi Narcotrafic a été évidée en France d’un article qui aurait affaibli le principe du chiffrement de bout en bout, le Royaume-Uni réclame à Apple de percer une porte dérobée dans son chiffrement. La demande a conduit Apple à supprimer une fonction optionnelle. Désormais, elle contre-attaque au tribunal.
Il y aura bientôt un mois, on apprenait que le Royaume-Uni avait demandé à Apple de forer dans ses propres défenses. Pour accélérer certaines enquêtes, les forces de l’ordre pourraient ainsi obtenir des informations protégées jusqu’à présent et par défaut par le chiffrement de bout en bout. Parmi elles, les discussions dans l’application Messages, quand iMessage est utilisé entre deux appareils Apple. Au cœur du dispositif, la loi IPA (Investigatory Powers Act), surnommée « loi des fouineurs ».
L’information était alors au conditionnel. Très peu de temps après cependant, Apple a annoncé que sa Protection avancée des données était supprimée au Royaume-Uni. Une manière pour l’entreprise d’acquiescer ? Pas vraiment, car cette option peu connue est relativement peu utilisée. Elle apporte le chiffrement de bout de bout aux autres services Apple ne l’ayant pas déjà, notamment les sauvegardes iCloud.
Surtout, ce retrait ne répondait pas à la demande du Royaume-Uni : supprimer une fonction optionnelle ne revient pas à percer le chiffrement de bout en bout. On peut supposer qu’il s’agissait à ce moment de commencer à se battre par un avertissement à la population anglaise. Outre-Manche, se rendre dans les paramètres pour activer la Protection avancée des données affiche en effet un message expliquant que la fonction n’est plus disponible dans ce pays. La société ne pouvait expliquer pourquoi : la loi IPA interdit à un prestataire de faire savoir qu’une mesure technique lui a été réclamée.
Parallèlement, Apple a publié le 24 février une note expliquant la situation, sans nommer la loi IPA bien sûr. « Nous sommes profondément déçus que nos clients au Royaume-Uni n’aient plus la possibilité d’activer la protection avancée des données », indiquait l’entreprise. « Comme nous l’avons déjà dit à maintes reprises, nous n’avons jamais construit de porte dérobée ou de clé maîtresse pour l’un de nos produits ou services et nous ne le ferons jamais ».
Devant les tribunaux
Selon le Financial Times, Apple n’a pas seulement supprimé sa Protection avancée des données au Royaume-Uni : elle s’est également rendue dans un tribunal pour s’opposer à la mesure technique. Nos confrères estiment que la procédure est secrète, expliquant pourquoi aucun écho n’était parvenu au public jusqu’à présent. Ce secret serait une conséquence directe de la loi IPA, puisque les mesures techniques ne doivent pas être communiquées.
La société américaine aurait donc fait appel devant l’Investigatory Powers Tribunal, un organe judiciaire indépendant chargé d’examiner les plaintes contre les services de sécurité britanniques. Le Financial Times cite des sources proches du dossier. Ces dernières auraient communiqué sur un autre élément important : c’est la première fois que les pouvoirs conférés par la loi IPA seraient frontalement contestés devant le tribunal spécial.
Même joueur joue encore
Il est probable qu’Apple remporte la partie. Dans ce domaine, l’entreprise a déjà fait ses armes plus d’une fois, dont un affrontement vif avec le FBI dans les mois qui ont suivi l’attentat de San Bernardino. Le Bureau avait exigé d’Apple qu’elle perce dans ses propres défenses pour récupérer les données présentes dans l’iPhone 5c retrouvé sur le corps d’un des terroristes.
Les enquêteurs ne pouvaient plus tenter de codes PIN pour déverrouiller le téléphone, par crainte de l’option entrainant une suppression complète des données en cas d’erreurs répétées. Apple avait fourni des outils, mais refusé d’affaiblir ses défenses (le code PIN est une composante de la clé de chiffrement). Le FBI avait déposé plainte, puis abandonné les poursuites : un prestataire (sans doute Cellebrite) lui avait fourni une faille de sécurité pour contourner les défenses.
Dans le cas du Royaume-Uni, la loi IPA « prétend s’appliquer de manière extraterritoriale, ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier », déclarait Apple l’année dernière dans un témoignage remis au Parlement britannique en mars 2024. Il était alors question d’augmenter les capacités de cette loi, nombre de ses ajouts ayant été validés depuis.
Une mesure inapplicable ?
La situation est similaire à la France, dont la loi Narcotrafic aurait pu entrainer un affaiblissement du principe de chiffrement de bout en bout. Même si Bruno Retailleau, ministre de l’Intérieur, avait tenté d’expliquer qu’il ne s’agissait pas d’introduire une porte dérobée, la garantie de sécurité s’en retrouvait affaiblie. L’article 8 ter, qui aurait introduit cette obligation pour les prestataires, a finalement été supprimé le soir du 5 mars, à la faveur de plusieurs amendements de suppression adoptés.
La similitude est toutefois forte : si l’article avait été adopté, la France aurait eu la capacité de demander aux entreprises – notamment aux éditeurs de messageries sécurisées – d’instaurer un mécanisme permettant la récupération des conversations lors d’enquêtes. Ce qui revenait à exiger de lourdes modifications auprès de structures américaines.
C’est le cœur du problème. Des entreprises comme Meta et Apple préfèreront sans doute quitter cet ennuyant marché plutôt que d’introduire un affaiblissement qui aurait un impact mondial. Pour que des Anglais ou Français puissent communiquer avec le reste du monde, il faut bien que le protocole soit le même. De plus, la Maison-Blanche s’est montrée très claire sur ses intentions : l’Europe doit cesser d’embêter ses grandes entreprises.
Au Royaume-Uni, on peut constater quoi qu’il en soit un mouvement général contre le chiffrement. Comme remarqué par exemple par l’expert en sécurité Alec Muffett dans un billet de blog, les références au chiffrement disparaissent sur les pages web gouvernementales. Sur le site du NCSC (Centre national de cybersécurité du Royaume-Uni), on ne trouve plus par exemple un document donnant des conseils aux personnes à haut risque. On y trouvait d’ailleurs… la Protection avancée des données d’Apple.
Hier, c’était le grand jour pour les nouvelles Radeon RX 9070 et 9070 XT d’AMD, les premières exploitant l’architecture RDNA 4. Les cartes sont en vente et les tests des confrères publiés. Nous avons décidé de faire un petit tour d’horizon à J+1.
Conversion dollars vers euros : AMD moins gourmand que NVIDIA
Les nouvelles Radeon RX 9070 et 9070 XT étaient annoncées à 549 et 599 dollars, sans précisions sur le prix en France. On peut maintenant voir que les tarifs sont de 629 et 689 euros dans nos contrées, du moins en théorie.
Par rapport au prix en dollars, le tarif de base en euros prend donc environ 15 % (cela correspond aux taxes, aux frais de conversion…). Chez NVIDIA, la hausse du passage du dollar à l’euro sur les RTX 5070 et 5070 Ti était plus importante avec 18 % environ. Les cartes étaient annoncées à 549 et 749 dollars, pour 649 et 884 euros.
Rapide détour par les tests (sans grande surprise)
Commençons par quelques tests. Pour Hardware & Co, « l’intérêt de la RX 9070 XT réside essentiellement dans sa tarification ». Elle se place sous la RTX 5070 Ti en performances, mais garde l’avantage du rapport performances/prix selon nos confrères. « La dernière née des rouges pose également souci à la RTX 5070 qui pour le coup est positionnée beaucoup trop proche », ajoutent-ils. Quant à la RX 9070, elle se place devant la RTX 5070 en rastérisation, mais derrière en ray tracing.
Autres tests chez Les Numériques. La Radeon RX 9070 se place entre les GeForce RTX 5070 et 5070 Ti en 1440p, tandis que la RX 9070 XT est au coude à coude avec la RTX 5070 Ti et la RTX 4080 Super. « Le passage à la définition 4K permet de creuser les écarts, mais aussi d’apprécier la quantité de mémoire disponible. À ce petit jeu, la Radeon RX 9070 s’en sort avec les honneurs », explique notre confrère.
630 euros pour une Radeon RX 9070 : la réalité est bien différente
Bon, qu’en est-il des prix ? Chez LDLC, la RX 9070 débute à 630 euros et 690 euros pour la version XT, mais les produits sont en rupture de stock. La carte la moins chère en stock est la RX 9070 de Sapphire Pulse à 800 euros, soit 170 euros de plus que le tarif de base. Certaines Radeon RX 9070 XT frôlent même les 1 000 euros, soit 300 euros de plus que le tarif « recommandé ».
La situation est plus ou moins la même chez Top Achat et Materiel.net qui font partie du même groupe que LDLC. Notons tout de même une Radeon RX 9070 OC ASUS TUF à… 930 euros (c’est bien la version classique, pas la XT).
Passons chez Cybertek, avec les mêmes prix de base (630 et 690 euros) et les mêmes stocks inexistants. Le revendeur n’a qu’une seule carte en stock pour le moment : la RX 9070 Sapphire Nitro+ OC de Sapphire à 750 euros, c’est toujours 50 euros de moins que LDLC. Même chose chez Grosbill, qui appartient pour rappel à Cybertek.
Une RX 9070 XT à 900 euros, 1 150 euros pour une 9070 XT
Chez Cdiscount, la RX 9070 Pulse s’affiche à… 900 euros et on passe à 940 euros pour une version Pure OC. Le revendeur dépasse allègrement les 1 000 euros avec la version XT : 1035 euros pour la Pure OC et jusqu’à 1 150 euros pour la Nitro+ OC en Radeon RX 9070 XT.
Nous faisons également un tour chez un autre revendeur « officiel » d’AMD : Infomaxparis. Ça va vite : aucune carte n’est en stock. Détail surprenant, la carte la moins chère est une Radeon RX 9070 XT à 690 euros, puis il faut passer à 720 euros pour une Radeon 9070.
Stock : circulez, il n’y a (presque) rien à voir
Nous en profitons pour regarder la situation chez NVIDIA, avec des stocks également très limité sur les GeForce RTX 5070, comme on peut le voir chez LDLC (aucune GeForce en stock). Chez Cybertek, c’est encore pire. Si on prend l’ensemble des Radeon RX 9070, 9070 XT, GeForce RTX 5070 et 5070 Ti, on arrive à… une seule carte en stock.
Entretien avec l’entrepreneure et fondatrice de 50inTech Caroline Ramade.
Un temps responsable du numérique à la Mairie de Paris, Caroline Ramade se fait surtout connaître de l’écosystème entrepreneurial au milieu des années 2010, lorsqu’elle prend la tête de l’incubateur Willa (anciennement Paris Pionnières). Depuis 2019, elle est à la tête de 50inTech, une plateforme pensée pour faciliter le recrutement diversifié et évaluer l’inclusion paritaire dans les entreprises de l’industrie technologique. Next s’est entretenu avec elle.
>> Comment vous êtes vous engagée dans la promotion de l’égalité dans l’industrie numérique ?
Au début des années 2010, c’était le démarrage des incubateurs à Paris. Xavier Niel rachetait la Halle Freyssinet pour en faire Station F, The Family accueillait des start-ups dans un appartement. À ce moment-là, j’ai eu l’opportunité de rejoindre Paris Pionnières, un incubateur pour femmes entrepreneures qui était en difficulté. En moyenne, en France, il y a 10 % de femmes entrepreneures, mais dans la capitale, elles étaient 22 %, donc je sentais qu’il y avait un truc à faire.
J’y ai passé trois ans, j’ai découvert toutes les problématiques spécifiques, le fait qu’elles aient plus de mal à lever des fonds quel que soit leur produit, le fait qu’il y avait moins de profils purement techniques, et que c’était difficile pour elles de s’associer, parce que les hommes avec les compétences techniques faisaient plus confiance à d’autres hommes, etc. J’ai plongé là-dedans et accompagné la structure dans sa transformation en une vraie structure d’amorçage, qui est Willa.
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
C’est fait. Ariane 6 a réussi son premier lancement commercial. La mission est un succès sur toute la ligne, avec une dépose précise du satellite militaire CSO-3 à 800 km d’altitude (orbite héliosynchrone), après plusieurs réallumages (prévus) du moteur Vulcain.
Cette fois, c’était (enfin) la bonne
Après de multiples reports, dont un dernier en début de semaine, Ariane 6 a finalement décollé en fin d’après midi de Guyane. L’Europe peut pousser un ouf de soulagement : la mission est un succès sur toute la ligne.
Le décollage s’est effectué sans la moindre anicroche puis, après une heure de vol, a bien effectué le largage de la charge utile. Entre temps, le moteur Vinci a été redémarré plusieurs fois pour ajuster la trajectoire de l’étage supérieur, comme prévu.
Les premières minutes de fonctionnement sont juste idéales et parfaites
Vers 18h30, Arianespace indiquait que « le satellite CS0-03 vient d’être déposé précisément à son point de livraison afin qu’il puisse à son tour remplir brillamment sa mission en symbiose avec CSO-01 et CSO-02 ».
« On a acquis le signal de télémétrie du satellite, on a détecté sa bonne séparation. La séquence automatique a démarré, on a déployé les quatre panneaux solaires […] On peut dire que les premières minutes de fonctionnement sont juste idéales et parfaites », ajoute Paul Arberet, chef de projet senior au CNES.
Souveraineté, souveraineté et souveraineté
« Le retour de Donald Trump à la Maison-Blanche avec Elon Musk à ses côtés a déjà des conséquences considérables sur nos partenariats sur la recherche, sur nos partenariats commerciaux », a déclaré Philippe Baptiste dans le live accompagnant le lancement (l’intégralité du live figure dans la vidéo plus bas dans cet article) : « Dois-je mentionner les incertitudes qui pèsent aujourd’hui sur nos coopérations avec la NASA et la NOAA, quand des programmes aussi emblématiques que l’ISS sont remis en cause unilatéralement par Elon Musk ? »
L’ancien président du CNES et désormais ministre chargé de l’Enseignement supérieur et de la recherche, rattaché à Élisabeth Borne, a sonné la charge contre les États-Unis et les enjeux de souveraineté :
« Si nous voulons conserver notre indépendance, assurer notre sécurité, préserver notre souveraineté, nous devons nous donner les moyens de notre autonomie stratégique. Et le spatial en est une composante incontournable. L’espace est présent partout, de nos téléphones aux champs de bataille, dans les télécommunications, la navigation et l’observation de la Terre. Ce lancement joue un rôle particulier car il permet la mise en orbite d’une nouvelle capacité spatiale militaire […] Nous ne devons pas céder à la tentation de préférer SpaceX ou un autre concurrent qui paraît plus à la mode, plus fiable ou moins cher aujourd’hui ».
Pour Philippe Baptiste, Ariane 6 est un « nouveau jalon essentiel » de notre souveraineté. Cette question n’est pas nouvelle, elle occupe même l’espace médiatique depuis quelques années (et encore ici), mais elle est devenue d’autant plus importante avec le retard d’Ariane 6 et la mise à la retraite d’Ariane 5, sans compter les déboires de Vega(-C).
« Une étape importante du retour à l’autonomie et à la souveraineté spatiale française et européenne est franchie », a de son côté déclaré Sébastien Lecornu, ministre des Armées. Il ajoute que CSO permet « à nos armées, et à nos alliés, d’obtenir des images optiques et infrarouges à une définition inégalée en Europe ».
Vous pouvez revoir le lancement et les discours sur la vidéo ci-dessous :
Après avoir récupéré des millions de conversations en arabe via les outils qu’elle utilise pour surveiller les palestiniens dans les territoires occupés, l’armée israélienne les a mises à profit pour entrainer un modèle de langage, explique une enquête du Guardian, d’Appel Local et du magazine + 972.
L’IA générative étant sur toutes les lèvres, il n’est pas étonnant que les armées de tous les pays s’y essayent. Notamment en Israël, cette « start-up nation » façonnée par l’armée.
Une enquête menée par le Guardian, le magazine israélo-palestinien + 972 et שִׂיחָה מְקוֹמִית (un média dont le titre veut dire « Appel local » en hébreu) révèle que l’armée israélienne a entrainé un grand modèle de langage sur des millions de conversations obtenues via la surveillance des Palestiniens dans les territoires qu’elle occupe.
Selon plusieurs sources de ces trois médias, l’unité 8200 de l’armée chargée de la cyberguerre au sein de la direction du renseignement militaire israélien entrainait toujours ce modèle à la fin de l’année dernière. Nos confrères n’ont pas pu obtenir de confirmation sur le calendrier éventuel de déploiement d’une IA qui s’appuierait sur ce modèle.
L’arabe dialectal visé
Mais l’armée israélienne espérerait tirer les bénéfices de ce modèle pour traiter rapidement de grandes quantités de données de surveillance et répondre à des questions précises concernant des personnes qu’elle cible spécifiquement.
Le Guardian explique que ce projet a été partiellement révélé lors d’une conférence l’année dernière à Tel-Aviv par Chaked Roger Joseph Sayedoff, un ancien expert du renseignement militaire. « Nous avons essayé de créer le plus grand ensemble de données possible [et] de rassembler toutes les données que l’État d’Israël n’a jamais eues en arabe », a déclaré ce dernier, ajoutant que le modèle aurait nécessité une « quantité psychotique » de données.
La spécificité de ce modèle, c’est qu’en s’appuyant sur les conversations écrites et audio des palestiniens, il est entrainé sur des langues et dialectes particuliers.+ 972 raconte que Roger Joseph Sayedoff a expliqué lors de cette conférence que les modèles de langage existants ne pouvaient traiter que l’arabe littéral – utilisé dans les communications officielles, la littérature et les médias – et non l’arabe dialectal, qui prend des formes bien différentes.
Selon une source du Guardian, le modèle utiliserait notamment des conversations en arabe palestinien et libanais.
Un projet boosté par des réservistes
Le média israélo-palestinien explique qu’octobre 2023 a été une date clé pour ce projet qui était déjà en route. Mais, à ce moment-là, l’Unité 8 200 a commencé à recruter en tant que réservistes des experts de modèles de langage venant d’entreprises privées.
Le Co-CEO de l’entreprise israélienne AI21, Ori Goshen, a confirmé à nos confrères que des salariés de son entreprise ont travaillé sur le projet. Celui-ci estime que les modèles de langage pourraient générer des listes de « suspects » en vue d’une arrestation. Mais il espère surtout pouvoir récupérer des données dispersées dans les multiples conversations utilisées pour entrainer les modèles. Il concède dans le même temps que les « hallucinations » des IA génératives peuvent mener à des erreurs et qu’il ne faut pas avoir une confiance aveugle en ces outils.
Interrogé par nos confrères, le chercheur de l’ONG Human Rights Watch, Zach s’est dit alarmé par le fait que l’Unité 8200 utiliserait les LLM pour prendre des décisions importantes concernant la vie des Palestiniens sous occupation militaire.
D’énormes quantités de données sans grande valeur pour le renseignement
Selon le Guardian, l’unité a notamment cherché à entrainer le modèle pour comprendre la terminologie militaire mais s’est retrouvée avec d’énormes quantités de données sur la vie quotidienne des Palestiniens sans grande valeur pour le renseignement.
L’armée israélienne n’a pas voulu répondre aux questions du Guardian mais affirme qu’elle « déploie diverses méthodes de renseignement pour identifier et contrecarrer les activités terroristes d’organisations hostiles au Moyen-Orient ».
Il y a quelques jours, dans une vidéo, le youtubeur Louis Rossman disait avoir constaté qu’une mise à jour de firmware dans une imprimante Brother avait rendu celle-ci dysfonctionnelle avec une cartouche d’encre compatible tierce. L’affaire fait du bruit. Pourtant, l’entreprise nie formellement avoir modifié quoi que ce soit.
Plusieurs constructeurs d’imprimantes se sont attiré les foudres de leurs clients en déployant des mécanismes visant à freiner l’utilisation des cartouches d’encre ou de toner de marques tierces, les fameuses cartouches compatibles. Dans ce domaine, HP est souvent citée. Brother, jusqu’à présent, n’avait pas emprunté cette voie. Pourtant, le youtubeur Louis Rossman, grand militant du droit à la réparation, a jeté un pavé dans la mare il y a quelques jours.
Imprimante bloquée
Dans une vidéo publiée le 3 mars ainsi que dans son wiki, Rossman évoque le cas de l’imprimante laser MFC-3750. Selon lui, la version 1.56 du firmware a entrainé un brusque changement : la calibration des couleurs ne fonctionne plus avec les toners compatibles. Cette mise à jour se serait installée seule, l’imprimante étant connectée à Internet. Pire, on ne peut pas revenir en arrière, car les anciennes versions du firmware ont été supprimées du site officiel.
Rapidement, l’affaire fait du bruit. La vidéo, repérée par Tom’s Hardware, a été vue pour l’instant 171 000 fois. Rossman y indique avoir longtemps recommandé Brother pour la facilité à utiliser des cartouches compatibles. Pour lui, Brother rejoint « les autres », terme utilisé pour pointer des entreprises comme HP et Canon, dont les technologies sont utilisées pour brider ou bloquer les cartouches tierces, par exemple en dégradant la qualité d’impression.
Sur son Wiki, Louis Rossman indique que les impacts sont concrets. Les clients qui avaient l’habitude d’économiser en achetant des cartouches compatibles doivent désormais dépenser plus, la réputation de Brother est ternie, aucun avertissement n’a été donné et les mesures pour contourner le firmware sont complexes.
Une « vieille » histoire
Quand on se rend sur la page de support de l’imprimante MFC-3750, on peut voir que la dernière version du firmware proposée par Brother est estampillée 1.60. Le constructeur aurait-il diffusé une nouvelle version au cours des derniers jours ? Il n’en est rien, car la version 1.56 abordée dans la vidéo a en fait plus de trois ans.
Le problème dénoncé par Louis Rossman n’est pas directement basé sur des observations personnelles. Sur son wiki, les références renvoient vers plusieurs sites, dont un fil Reddit datant justement de janvier 2022. Un client de Brother y décrivait justement les problèmes remontés par le youtubeur. L’utilisateur, 20Factorial, indiquait que sur les conseils du service client, il avait installé une cartouche d’origine, l’imprimante redevenant fonctionnelle.
Les autres liens renvoient vers des problèmes similaires, aboutissant à une impossibilité d’imprimer ou à une qualité d’impression dégradée.
Pourtant, certaines personnes ne se sont pas laissé faire. West-Skin4092 indique par exemple avoir eu un message d’erreur avec une cartouche de toner compatible sur une imprimante 3770. « J’ai donc retiré la puce d’origine de la cartouche Brother et je l’ai mise sur la cartouche de toner non OEM. L’imprimante l’a reconnue et ça fonctionne », affirma-t-il il y a un mois, signe que le fil est toujours actif après trois ans. De son côté, Gloomy-Score-8279 assure avoir essayé la solution de la puce, sans succès.
Brother dément vigoureusement
Le sujet peut agacer plus d’une personne, mais il prend un tour différent avec les déclarations de Brother à Ars Technica :
« Nous sommes conscients des fausses allégations récentes suggérant qu’une mise à jour du firmware de Brother pourrait avoir restreint l’utilisation de cartouches d’encre tierces. Nous vous assurons que les mises à jour du firmware de Brother ne bloquent pas l’utilisation de cartouches d’encre d’autres marques dans nos appareils »
La société est donc droite dans ses bottes. L’entreprise élabore d’ailleurs : « Les imprimantes Brother ne dégradent pas intentionnellement la qualité d’impression en fonction de l’utilisation d’une cartouche d’encre ou de toner authentique ou non authentique ». Toutefois, la société indique ne pas pouvoir « vérifier la qualité d’impression qui résultera de l’utilisation d’une cartouche tierce compatible ».
Mais alors, d’où pourraient venir ces problèmes ? Brother a une piste : le processus Brother Genuine. La société dit bien sûr encourager l’utilisation de cartouches authentiques. Après tout, elle a conçu ce matériel. Elle ajoute que la vérification Brother Genuine, qui vérifie l’authenticité des cartouches, est une mesure courante lors des réparations. « Nous préférons effectuer un dépannage avec des consommables Brother Genuine », indique l’entreprise. Cette étape pourrait avoir donné « lieu à un malentendu ».
Et d’affirmer à nouveau qu’aucun nouveau firmware n’a jamais dégradé la qualité d’impression ou supprimé des fonctions.
Le bénéfice du doute
Comme l’indiquent nos confrères, il est difficile de vérifier l’authenticité des témoignages sur internet. Mais même s’il s’agit de véritables retours d’expérience, il est encore plus compliqué de vérifier l’origine du problème. Si l’entreprise dit vrai, les problèmes pourraient provenir d’une erreur côté utilisateur ou d’un paramètre inconnu.
Difficile donc en l’état d’affirmer d’où peut venir la panne. Des problèmes apparaissant juste après une mise à jour sont toujours suspects. Et cela d’autant plus que le problème des cartouches compatibles est connu depuis de nombreuses années. En novembre dernier, l’association HOP (Halte à l’obsolescence programmée) a ainsi déposé plainte contre HP pour, justement, obsolescence programmée de ses cartouches d’encre. Le constructeur est accusé de favoriser une surconsommation d’encre, notamment en mettant des bâtons dans les roues des personnes utilisant des cartouches compatibles ou recyclées, « vendues 30 à 70 % moins cher ».
La logique est simple et connue : des imprimantes vendues à des tarifs de plus en plus bas, pour mieux vendre les consommables. Une simple pratique commerciale, différente cependant d’un éventuel blocage des cartouches recyclées ou compatibles.
Brother, quoi qu’il en soit, prend un risque en niant fermement avoir engendré ces problèmes. Si l’avenir devait prouver que l’entreprise a menti, son image serait d’autant plus écornée et la voie serait ouverte à des plaintes en bonne et due forme.
De nombreux éditeurs de presse ont signé des accords avec OpenAI et autres entreprises d’IA génératives, obtenant notamment que leurs chatbots renvoient vers leurs articles. Mais, selon un rapport de Tollbit, ces outils « génèrent en moyenne 95,7 % de clics en moins que les recherches traditionnelles sur Google ».
« Malgré les affirmations des entreprises d’IA, [nous] constatons que les bots IA génèrent en moyenne 95,7 % de trafic de clics en moins que la recherche traditionnelle sur Google », affirme la plateforme de monétisation de contenus Tollbit dans un rapport [PDF] publié la semaine dernière.
Cette startup, créée en 2023, peut mesurer ce trafic puisque sa principale activité est justement, comme l’explique la newsletter Twipe, de négocier pour des éditeurs comme TIME et Adweek le scraping de leurs contenus par les entreprises d’IA génératives. Elle a donc aussi tout intérêt à ce que ces chiffres sortent.
TollBit fait la part des choses entre les moteurs de recherche qui ne s’appuient que sur l’IA et les chatbots basés sur l’IA génératives. Elle affirme que, d’après ses données, « les moteurs de recherche IA offrent un taux de référencement de 0,74 % par scrap, soit le double du taux de 0,33 % pour les chatbots ». Elle précise que « ces chiffres doivent être considérés comme un maximum ; l’utilisation de user agents tiers et cachés peut gonfler artificiellement le taux des produits de recherche d’IA ».
« Ces taux restent extrêmement faibles par rapport au référencement à partir d’une page de résultats du moteur de recherche Google conventionnelle (sans IA). Même en prenant le taux moyen de clics sur les 10 premiers résultats de recherche organique (8,63 %), les interfaces de moteur de recherche IA génèrent 91 % de renvois en moins et les chatbots 96 % », constate Tollbit, en renvoyant au schéma ci-dessous :
Des sites visités 2 millions de fois par un bot en un trimestre
Dans le même temps, Tollbit explique qu’en analysant les données de ses clients, elle a remarqué que les bots des entreprises d’IA sont passés en moyenne 2 millions de fois sur un site pendant le quatrième trimestre 2024, en passant 7 fois sur une même page :
Premiers visés : les sites de ventes dont une page a été visitée plus de 16 fois pendant ce quatrième trimestre par ces bots. La presse nationale américaine voit ses pages visitées plus de 10 fois chacune lors de cette même période :
Scraping levels per page by content category in Q4
L’entreprise a aussi analysé une cohorte de sites de ses clients en gardant la même stratégie de blocage de bots pendant le deuxième semestre de l’année dernière. Elle a remarqué que, sur le trafic total que ces sites accueillent, le taux lié aux bots des entreprises d’IA générative a plus que doublé entre le troisième et le quatrième trimestre de 2024 :
« Nous constatons un afflux de bots sur ces sites chaque fois qu’un utilisateur pose une question », explique le CEO de Tollbit, Toshit Panigrahi, à Forbes : « la demande de contenu des éditeurs n’est pas négligeable ».
Difficile de se couper de ces bots sans perdre en SEO quand même
Il pointe aussi le fait qu’il est difficile pour les éditeurs de site de s’y retrouver dans les différents bots utilisés par ces entreprises pour scraper leur site : « certains, comme Google, semblent utiliser les mêmes robots à des fins multiples, notamment pour indexer le web et récupérer des données pour leurs outils d’intelligence artificielle ».
« Il est très difficile pour les éditeurs de vouloir bloquer Google. Cela pourrait avoir un impact sur leur référencement, et il nous est impossible de déduire exactement à quoi servent leurs robots », ajoute Olivia Joslin, cofondatrice de TollBit.
Apple a présenté hier soir ses nouveaux MacBook Air et Mac Studio. Sur ces derniers, la société laisse le choix entre un M4 Max (que l’on trouvait déjà sur les MacBook Pro haut de gamme) et une puce M3 Ultra, de génération précédente mais embarquant un grand nombre de cœurs CPU et GPU. Nous avons détaillé ses caractéristiques dans un précédent article.
Comme le signale cependant MacG, le communiqué de presse d’Apple contenait une petite information, presque cachée dans une section consacrée à macOS Sequoia : « Le mois prochain, macOS Sequoia 15.4 permettra aux utilisateurs de configurer plus facilement leur MacBook Air avec leur iPhone. Il suffira aux utilisateurs de rapprocher leur iPhone de leur Mac pour se connecter à leur compte Apple de manière simple et pratique, et accéder à leurs fichiers, leurs photos, leurs messages, leurs mots de passe et plus encore sur leur MacBook Air ».
Bien qu’Apple mentionne directement le MacBook Air, cette nouveauté sera en fait présente sur tous les Mac équipés de macOS 15.4. De là, on pourra rapprocher un iPhone sous iOS 18.4 lors de la configuration initiale du Mac pour récupérer les informations de base, le compte Apple et autres paramètres.
Cette manipulation existe déjà pour les appareils iOS depuis quelques années. Elle a d’abord été pensée comme un moyen plus rapide de paramétrer un nouvel iPhone quand on dispose encore de l’ancien. Les iPad l’avaient ensuite rapidement obtenue. Les Mac sont donc les prochains.
À noter qu’il ne s’agit pas complètement d’une nouveauté. Il y a deux semaines, 9to5Mac avait repéré un code lié à la fonction dans la bêta de macOS 15.4.
On a des chiffres sur l’empreinte du calcul de l’empreinte ?
L’Arcep (gendarme des télécoms) s’est lancée dans un chantier de titan : mesurer l’empreinte écologique du numérique. Trois rapports ont déjà été mis en ligne, un quatrième arrive. De nouveaux indicateurs (réseaux, terminaux, datacenters) sont ajoutés à chaque fois et celui de l’année prochaine promet d’être relativement étoffé.
La prochaine édition sera publiée dans les prochaines semaines (mars ou avril si on se base sur les précédents rapports) et « intégrera le suivi de l’évolution de l’empreinte environnementale des équipementiers de réseaux mobiles ». En 2026, l’Arcep ajoutera encore de nouveaux indicateurs sur son périmètre actuel et sur un nouveau sujet – « l’impact environnemental de la fabrication de la fibre optique » –, comme en attestent la décision 2024 - 2545 publié au Journal officiel et l’arrêté d’homologation du 5 mars 2025.
Il reste 71% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.