Vue normale

À partir d’avant-hierNext.ink

☕️ Google teste sa marque bleue de vérification dans les résultats de recherche

4 octobre 2024 à 13:34

Déjà déployée dans la messagerie Gmail et ses applications mobiles, la marque bleue de vérification de Google pourrait-elle un jour faire son apparition dans les pages de résultats de recherche de son moteur de recherche ? La fonctionnalité fait actuellement l’objet de tests, à petite échelle, auprès d’internautes américains, comme l’a relevé un journaliste de The Verge.

Cette marque de vérification a en effet été observée sur des pages de résultats. Elle y flanquait le nom de grandes sociétés comme Microsoft ou Apple : une façon de signaler à l’internaute les résultats émanant de leurs sites Web respectifs, par opposition à des contenus susceptibles de tenter de contrefaire leur marque.

Fin août, un consultant américain spécialisé en référencement avait déjà remarqué l’apparition de cette coche, associée selon lui principalement à des sites marchands.

« Nous testons régulièrement des fonctionnalités qui aident les acheteurs à identifier les entreprises dignes de confiance en ligne, et nous menons actuellement une petite expérience montrant des coches à côté de certaines entreprises sur Google », a sobrement confirmé une porte-parole du moteur de recherche à The Verge.

À ce stade, rien ne dit que Google décidera de déployer cette marque de vérification à plus grande échelle dans ses pages de résultats. Son fonctionnement, conditionné à l’obtention d’un certificat répondant à la la spécification BIMI (pour Brand Indicators for Message Identification) de Google, est aujourd’hui assez communément admis sur les réseaux sociaux ou dans le périmètre fermé d’une boîte de réception. Son intégration dans l’environnement ouvert des résultats d’un moteur de recherche soulève certainement des questions différentes, notamment de concurrence entre le site d’une marque et celui de ses distributeurs.

I would like to formally announce my blue tick verification services for Google Search… On a serious note, Google is actually testing this feature right now. A notice for the blue tick appears on hover – being based on "Google's signals". More details: https://t.co/QRCRJh1yA2 pic.twitter.com/XVLAY1HddJ

— Brodie Clark (@brodieseo) August 21, 2024

X aurait perdu plus de 75 % de sa valeur

1 octobre 2024 à 15:18
De X-Or à X-Plomb
X aurait perdu plus de 75 % de sa valeur

Fidelity, l’un des investisseurs ayant aidé Elon Musk à racheter Twitter pour 44 milliards de dollars, a revu ses estimations. Aujourd’hui, le réseau social X aurait perdu 78,7 % de sa valeur. Et les perspectives pour 2025 ne semblent guère plus brillantes.

En octobre 2022, après plusieurs mois de retournements dignes d’une série à suspens, Elon Musk finit par annoncer officiellement le rachat de Twitter. Prix de l’opération : 44 milliards de dollars. L’homme d’affaires, bien que l’un des plus riches de la planète, a dû s’endetter pour parvenir à poser cette somme stratosphérique sur la table. « L’oiseau est libéré », avait-il tweeté le 28 octobre.

Les attentes étaient nombreuses, tant du côté du public le soutenant dans son entreprise que de celui redoutant ses positions libertariennes, notamment sur la modération. Le ton avait été rapidement donné, avec le licenciement de quatre dirigeants dans les premières heures suivant le rachat : Parag Agrawal (directeur général), Ned Segal (directeur financier), Vijaya Gadde (responsable des affaires juridiques) et Sean Edgett (directeur juridique). Dans les semaines qui ont suivi, on avait appris que 75 % des salariés avaient été remerciés.

Depuis, on assiste à une lente descente aux enfers pour Twitter, devenu X l’année suivante. Un changement de nom ardemment souhaité par Elon Musk, mais qui faisait craindre déjà à l’époque un impact négatif sur les recettes publicitaires.

Alors que X s’apprête à fêter son deuxième anniversaire sous la houlette de son nouveau patron, l’investisseur Fidelity relance un pavé dans la mare : la société aurait perdu près de 79 % de sa valeur.

Chute vertigineuse de la valeur

On le savait à l’époque du rachat, Musk s’est lourdement endetté pour pouvoir racheter Twitter. De nombreux investisseurs ont participé à l’opération, dont Fidelity, via son fonds Blue Chip Growth.

Ce dernier avait injecté il y a deux ans 19,66 millions de dollars. Dans un rapport récemment publié (PDF), mais dont les éléments datent du 31 août, le fonds fait le point sur ses investissements et leur valeur actuelle. Aujourd’hui, cette participation est évaluée à 4,19 millions de dollars, soit une chute de 78,7 % de la valeur.

Si l’on table sur un investissement lorsque le rachat a été évalué à 44 milliards de dollars, la valeur de X ne serait alors plus que de 9,4 milliards de dollars. Ce n’est pas la première fois que Blue Chip Growth Funds réduit cette valeur. Sur le seul début d’année, il avait revu sa participation de 10,2 % en janvier et 5,7 % en février. Si la valeur d’une entreprise est un sujet quelque peu subjectif et qu’une entreprise américaine n’est pas tenue de publier ses comptes quand elle n’est pas cotée en bourse, tous les indicateurs pointent dans la même direction depuis bientôt deux ans.

Une érosion permanente depuis deux ans

Le 1ᵉʳ septembre, le Washington Post revenait sur l’effondrement de la valeur du réseau social. Le média américain indiquait alors que 24 milliards de dollars s’étaient volatilisés dans cette chute. « Une évaporation de la richesse qui n’a guère d’équivalent en dehors du domaine des krachs économiques ou sectoriels, ou des scandales d’entreprise dévastateurs », indiquait alors le Post.

Il y a un an, nous relations également comment la publicité sur X s’était déjà écroulée. Le coût pour mille impressions (CPM) des publicités diffusées sur X était en effet passé de 5,77 dollars en septembre 2022 à 0,65 dollar en août 2023. Les craintes étaient concentrées sur la modération par le réseau social et la recrudescence des fake news.

Et la situation ne semble pas sur le point de s’améliorer pour X. Début septembre, The Guardian relevait en effet que, selon une étude de Kantar, plus d’un quart des annonceurs prévoyaient de réduire la voilure en 2025. La confiance en la marque X était alors considérée par des spécialistes du marketing comme « historiquement faible », la cote ayant dégringolé de 22 % en 2023 à seulement 12 % cette année. Une chute si rapide qu’un retournement de situation est jugé « improbable » par Kantar.

L’or publicitaire

Or, les publicités constituent l’essentiel des recettes de X, à hauteur de 75 % environ. Dans ce domaine, les décisions erratiques d’Elon Musk sont pointées du doigt. On se souvient que le patron du réseau social s’en était par exemple pris à Apple. La firme de Cupertino avait ainsi dépensé 48 millions de dollars en publicités sur Twitter durant le premier trimestre 2022, avant de réduire son budget. « « Apple a pratiquement arrêté la publicité sur Twitter. Haïssent-ils la liberté d’expression en Amérique ? », s’était alors demandé Elon Musk.

Cette chute dans les revenus publicitaires s’était accompagnée l’année dernière de celle des revenus. En 2023, X devait ainsi engranger 2,5 milliards de dollars en recettes publicitaires, soit environ la moitié du chiffre d’affaires réalisé en 2022, selon des personnes proches du dossier citées par Fortune.

Rappelons qu’aux États-Unis, une société non cotée en bourse n’est pas tenue de publier ses comptes. On ne connait donc pas précisément la santé financière de l’entreprise.

☕️ IBM ouvre son « premier datacenter quantique » en Europe

1 octobre 2024 à 14:39

IBM annonce en grande pompe « le premier datacenter quantique d’IBM (IBM Quantum Data Center) situé en dehors des États-Unis ». Situé à Ehningen, en Allemagne, et accessible via la plateforme IBM Quantum, il a été inauguré mardi en présence du chancelier allemand Olaf Scholz.

Qu’est-ce qu’un « datacenter quantique » ? Selon IBM il semblerait que ce soit simplement un centre de données équipé d’un ordinateur quantique. Ce que propose déjà OVHcloud depuis plusieurs mois en France par exemple, avec son MosaiQ et ses deux qubits photoniques.

Revenons à l’annonce d’IBM. Le centre de données d’Ehningen « comprend deux nouveaux systèmes IBM Quantum à une échelle utile basés sur le processeur Eagle, et il sera bientôt doté d’un nouveau système IBM Quantum basé sur le processeur Heron ».

Eagle est un processeur quantique avec 127 qubits, annoncé en 2021. De son côté, Heron a été présenté fin 2023 et dispose de 133 qubits. En plus d’avoir plus de qubits, avec Heron « les taux d’erreur ont été considérablement améliorés, offrant une amélioration cinq fois supérieure par rapport aux précédents records établis par le processeur IBM Eagle », affirme l’entreprise.

IBM ne précise pas s’il s’agit de qubits physiques ou logiques, et dans le premier cas combien cela donne de qubits logiques utilisables dans les calculs. Ce manque de précision avait déjà été relevé par Éric Brier (vice-président et CTO Cyber Defence Solutions chez Thales) lors d’une conférence pendant les Assises de Monaco.

Cela peut grandement changer la donne. Par exemple, Microsoft annonce 12 qubits logiques pour 56 qubits physique sur sa machine H2, contre respectivement 4 qubits logiques et 30 qubits physiques sur la version précédente.

IBM affirme enfin que « lorsque le système basé sur IBM Heron sera disponible au datacenter quantique d’IBM en Europe, il s’agira du troisième IBM Heron installé dans la flotte de systèmes quantiques d’IBM […] Heron permet de multiplier par 16 les performances et par 25 la vitesse des précédents ordinateurs quantiques d’IBM, tels qu’ils ont été mesurés il y a deux ans ».

Plantages des Core de 13/14e génération : 3e round de mise à jour du microcode Intel (x12B)

26 septembre 2024 à 07:44
Plantages des Core de 13/14e génération : 3e round de mise à jour du microcode Intel (x12B)

Intel semble (enfin) en bonne voie pour régler définitivement le problème d’instabilité des Core de 13e et 14e générations pour les ordinateurs fixes. Pas moins de quatre causes ont été identifiées, toutes désormais corrigées par le dernier microcode en date : 0x12B. Il faut maintenant qu’il soit déployé.

Après une pause le temps de lancer les processeurs mobiles Lunar Lake, Intel revient avec un nouveau microcode pour les processeurs Core de 13e et 14e générations. Certains d’entre eux sont pour rappel touché par un « problème d’instabilité ». Après des mois de recherches, la cause profonde était enfin trouvée cet été : une « tension de fonctionnement élevée […] provenant d’un algorithme du microcode ».

Dans un nouveau billet de blog, le fabricant explique avoir identifié quatre scénarios pouvant conduire à ce problème. Le premier vient des « paramètres d’alimentation de la carte mère qui dépassent les conseils recommandations d’Intel ». Les fabricants ont corrigé le tir avec des mises à jour des firmwares.

x125, x129 et maintenant x12B

Le deuxième scénario est lié à l’eTVB (enhanced Thermal Velocity Boost). Cette fonctionnalité permet d’augmenter les performances du processeur dans les limites (en théorie) de la marge thermique et du niveau de turbo disponibles. Le microcode 0x125 diffusé en juin 2024 corrige le souci. En effet, un « mauvais calcul de la limite de fréquence pouvait permettre au processeur de fonctionner à une fréquence et une température élevées »

La troisième cause possible des plantages est liée à l’algorithme du SVID (Serial Voltage iDentification) qui peut conduire à « des tensions élevées à une fréquence et une durée qui peuvent conduire à un décalage de la tension minimale » (Vmin). Ce problème a été corrigé par le microcode 0x129 d’aout 2024.

Quatrième et dernière cause identifiée : le « microcode et le BIOS demandent des tensions de base élevées qui peuvent provoquer un décalage de la tension Vmin, en particulier pendant les périodes d’inactivité et/ou d’activité légère ». Là aussi un correctif est mis en ligne avec le microcode 0x12B. Ce dernier englobe au passage les précédentes mises à jour 0x125 et 0x129.

Intel travaille avec ses partenaires pour que le microcode 0x12B soit proposé au plus vite à ses clients. Cela passera par une mise à jour du BIOS/UEFI des cartes mères. « Ce processus peut prendre plusieurs semaines », prévient le fondeur.

Pas de baisses de performances selon Intel

Le fabricant ajoute avoir mené des tests sur plusieurs applications et jeux (Cinebench R23, Speedometer, WebXPRT4, Crossmark, Cyberpunk 2077, Hitman 3: Dartmoor, Total War: Warhammer IIMirrors of Madness) sans relever de différences significatives. Rien en tout cas qui soit au-delà de la marge d’erreur que l’on retrouve lors de plusieurs lancements d’un même test, selon Intel.

L’entreprise rappelle une nouvelle fois que les Core de 13e et 14e générations pour les terminaux mobiles et les Lunar Lake ne sont pas affectés. 24 processeurs sont concernés, 12 dans chaque génération. Voici la liste complète, selon Intel :

  • Core i5 13600KF et 14600KF
  • Core i5 13600K et 14600K
  • Core i7 13700 et 14700
  • Core i7 13700F et 14700F
  • Core i7 13790F et 14790F
  • Core i7 13700KF et 14700KF
  • Core i7 13700K et 14700K
  • Core i9 13900 et 14900
  • Core i9 13900F et 14900F
  • Core i9 13900KF et 14900KF
  • Core i9 13900K et 14900K
  • Core i9 13900KS et 14900KS

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

24 septembre 2024 à 12:37
Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

☕️ Sam Altman et d’anciens proches de Steve Jobs travaillent à un produit hardware centré sur l’IA

24 septembre 2024 à 09:27
Sam Altman et d’anciens proches de Steve Jobs travaillent à un produit hardware centré sur l’IA

Le patron d’OpenAI Sam Altman, l’ancien directeur du design d’Apple Jony Ive et la veuve du fondateur d’Apple Laurene Powell Jobs travaillent ensemble à la création d’une nouvelle société, dont le but serait de vendre du hardware dédié à l’usage d’intelligence artificielle générative.

Relevé dès septembre 2023 par the Information, le projet a été un peu précisé par Johnny Ive dans un entretien publié fin septembre par le New York Times.

Ive et Altman se sont rencontrés par l’intermédiaire de Brian Chesky, le directeur exécutif d’AirBnb – cliente de LoveForm, la société créée par Jony Ive en 2019 à son départ d’Apple.

Ive explique avoir discuté avec Altman de la possibilité de créer un nouveau type de hardware, adapté à l’intelligence artificielle générative, dans la mesure où celle-ci pourrait servir à plus qu’à de simples tâches logicielles.

Les discussions sont allées suffisamment loin pour que les deux commencent à lever des fonds, auprès de Ive lui-même, d’Emerson Collective, la société de la veuve de Steve Jobs, Laurene Powell Jobs. Ils chercheraient à lever jusqu’à un milliard de dollars auprès d’autres investisseurs d’ici à la fin 2024.

Toujours selon le New York Times, Ive a trouvé des bureaux pour le projet : un bâtiment nommé the Little Fox Theater, juste derrière les bureaux de LoveFrom, dans lesquels il aurait dépensé 60 millions de dollars. Il aurait par ailleurs embauché une dizaine de personnes pour travailler sur le projet secret, dont Tang Tan, qui a dirigé le développement de l’iPhone, et Evans Hankey, qui a succédé à Ive à la tête du design chez Apple.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

[MàJ] Fuite de données Cultura : 1,5 million de clients concernés, une plainte a été déposée

10 septembre 2024 à 14:31
Et ce n’est surement pas fini…
[MàJ] Fuite de données Cultura : 1,5 million de clients concernés, une plainte a été déposée

Mise à jour du 10 septembre à 16h30 : Cultura nous précise que la fuite concerne 1,5 million de clients. L’actualité a été mise à jour.

Actualité originale du 10 septembre à 10h56 : En l’espace de quelques jours, plusieurs enseignes annoncent avoir été victime d’une cyberattaque. Nous avons pour le moment Boulanger, Cultura et DiviaMobilités (transports à Dijon). Les deux dernières expliquent qu’un prestataire était visé. D’autres pourraient donc suivre en fonction du partenaire externe, non identifié pour l’instant.

Alors que Boulanger communiquait hier sur une fuite de données sur des données de livraison de « quelques centaines de milliers de clients », c’est au tour de Cultura d’informer ses clients qu’elle a été victime d’une cyberattaque. Un lecteur nous a transféré le mail que lui a envoyé l’enseigne, merci.

La fuite de Cultura vient d’un prestataire externe

La société précise d’emblée que la fuite vient d’un « prestataire informatique externe » qui « été victime d’une intrusion malveillante dans sa base de données ». Cultura précise que cette cyberattaque « a ciblé plusieurs enseignes » ce vendredi 6 septembre, sans indiquer les noms ni si Boulanger est dans le lot.

Cultura n’est pas bavard sur les détails :

« Nos investigations indiquent que des données personnelles d’une partie de nos clients ont été touchées. Il s’agit des nom, prénom, identifiant client de Cultura, téléphone mobile, adresses mail et postales ainsi que l’information sur les produits achetés. Les données relatives aux mots de passe et aux données bancaires ne sont pas compromises ».

Bien évidemment, la faille « a été identifiée, et les mesures correctives ont été apportées ». Le nom du prestataire et les détails de la cyberattaque ne sont pas communiqués.

« 1,5 million de nos clients ont été touchées »

Contacté, Cultura nous précise que « 1,5 million de nos clients ont été touchées » et confirme au passage la liste des informations dans la nature : nom, prénom, identifiant client de Cultura, téléphone mobile, adresses mail et postales, ainsi que l’information sur les produits achetés.

L’enseigne nous précise aussi avoir « notifié cette violation à la CNIL et porté plainte au nom de [sa] société ». Enfin, Cultura « a décidé de contacter individuellement par mail ses clients concernés pour les informer de cet incident et leur donner un point de contact pour répondre à leurs questions ».

Le début d’une longue série ?

Il y a quelques jours, SaxX. annonçait la fuite de données chez Boulanger, avant que la société ne communique, mais le nombre de clients touchés n’était pas le même que celui annoncé par Boulanger.

L’expert en cybersécurité expliquait alors que le pirate, dont le profil date de ce mois d’août et n’était pas confirmé, vendait « aussi au passage les bases de données d’autres enseignes françaises comme : http://cultura.com, http://truffaut.com, http://dicia.fr ou encore l’assurance retraite… ».

DiviaMobilités aussi victime d’une fuite via un prestataire

Maintenant que Cultura rejoint officiellement la liste, on se demande si d’autres ne vont pas arriver via le prestataire qui travaille avec « plusieurs enseignes ». Cela pourrait être le cas de DiviaMobilités (Keolis Dijon Mobilité), comme le rapporte Le Bien Public.

L’entreprise a été victime d’une cyberattaque fin aout, également via un prestataire qui n’est pas nommé. Cette autre attaque fait partie de celles évoquées par SaxX quand il s’est fait l’écho des bases de données mises en vente par le pirate. Il parlait de Dicia dans son tweet initial, mais nous confirme que c’était une petite coquille et qu’il s’agissait bien de Divia.

« Les données identifiées à ce stade sont les nom, prénom, date de naissance, adresse postale, adresse e-mail, numéro de téléphone et IBAN », expliquent nos confrères. Nolwenn Leguillon, directrice communication de Keolis Dijon Mobilités, ajoute que « l’action malveillante » a été découverte le 4 septembre et que « les clients potentiellement concernés sont uniquement ceux qui disposent d’une carte DiviaMobilités ou d’un compte sur la e-boutique Divia ».

Bien évidemment, « des dispositions techniques complémentaires ont été prises pour renforcer la protection du système informatique de notre prestataire », ajoute la directrice.

Comme toujours, soyez prudents

Comme nous l’expliquons régulièrement, le risque est de voir des pirates tenter du phishing en se faisant passer pour une enseigne que vous connaissez à l’aide des données personnelles récupérées frauduleusement. Les pirates peuvent ensuite tenter de vous soutirer davantage d’information. Prudence donc.

Concernant le risque lié aux données bancaires et notamment à l’IBAN, nous avons déjà évoqué le sujet l’année dernière lors du piratage d’Adecco.

☕️ [MàJ] Fuite chez Boulanger, sur des données de « quelques centaines de milliers de clients »

9 septembre 2024 à 15:58

Mise à jour du 9 septembre à 17h53 :  
Contacté, Boulanger nous précise que « les données récupérées sont uniquement des données de livraison (adresse, mail, téléphone) » et que la fuite « concerne uniquement quelques centaines de milliers de clients ». Le brief a été mis à jour.

Article original du 9 septembre à 16h14 : C’est via un email des plus laconique (merci aux lecteurs qui nous l’ont fait suivre) que l’enseigne annonce à ses clients avoir « été victime d’un acte de cybermalveillance sur une partie de [ses] informations clients » dans la nuit du 6 au 7 septembre. « Les données récupérées sont uniquement liées aux livraisons. Aucune donnée bancaire client n’est concernée ».

L’incident est désormais terminé et la « vigilance renforcée ». Comme toujours en pareille situation, la société promet que la protection des données est sa priorité… mais elle ne donne aucun détail sur la manière dont les pirates ont récupéré les informations.

Et il est toujours facile de faire des promesses après coup, comme l’illustre l’exemple récent de la Scam qui promettait avoir mis en place des « efforts soutenus en matière de prévention et de protection »… mais continuait d’envoyer des mots de passe en clair, par email.

Pour en revenir à Boulanger, SaxX. avait déjà annoncé le 7 septembre au matin (soit deux jours avant la communication de la boutique) qu’un pirate avait mis en vente « une base de données comportant 27 561 592 lignes de #Boulanger », sans toutefois que l’authenticité du fichier ait été confirmée.

Contactée, Boulanger ne confirme pas ce chiffre de 27 millions et nous précise que « les données récupérées sont uniquement des données de livraison (adresse, mail, téléphone) et concerne uniquement quelques centaines de milliers de clients. Aucune donnée bancaire client n’est concernée. D’ores et déjà, l’incident a été circonscrit et l’ensemble de nos clients a été informé ».

Le pirate explique qu’il faut le contacter par Telegram pour avoir le prix de vente. « On retrouve entre autre comme information dans cette base de données : Nom, Prénom, Numéro Téléphone, Adresse postale complète, Coordonnées géographiques (latitude et longitude), Email… », affirme SaxX, qui précise par ailleurs que, selon le pirate, la fuite daterait « d’il y a quelques jours… probablement courant août 2024 ». Une proximité qui interroge, même si l’existence et le contenu de cette base de données n’ont pas été vérifiés, à plus forte raison quand Boulanger se borne à parler d’un incident sans préciser l’ampleur des dégâts et quelles sont les données exactement concernées.

Comme toujours, le risque pour les consommateurs est une tentative de phishing. Une personne malveillante peut tenter de se faire passer pour Boulanger en utilisant les données dérobées pour ensuite vous en soutirer d’autres. Prudence donc.

Frustrations et départ dans l’équipe Rust du noyau Linux

6 septembre 2024 à 13:24
Sans huile dans le moteur, Linux risque de rouiller
Frustrations et départ dans l’équipe Rust du noyau Linux

La semaine dernière, Wedson Almeida Filho, l’un des principaux collaborateurs du projet Rust for Linux, a décidé d’arrêter de travailler sur l’intégration de ce langage dans le noyau libre. En cause, son « manque d’énergie et d’enthousiasme » face à des problèmes qui, selon lui, relèvent d’ « absurdités non techniques », confirmant les difficultés de relations humaines qui entourent la gestion du noyau Linux.

Wedson Almeida Filho, l’un des responsables de l’équipe chargée d’encadrer l’utilisation du langage Rust dans le noyau Linux, a annoncé son départ la semaine dernière sur la liste de discussion du projet. Cet ingénieur de Microsoft explique qu’ « après presque 4 ans, [il n’a] plus l’énergie et l’enthousiasme qu’[il avait] autrefois pour répondre à certaines des absurdités non techniques ».

Ce langage est de plus en plus utilisé dans des projets critiques pour assurer une gestion de la mémoire plus robuste. La DARPA l’utilise par exemple, ayant pour ambition d’éliminer « une fois pour toutes les vulnérabilités liées à la sécurité de la mémoire » et a même lancé un projet pour traduire automatiquement le code C en Rust. La Maison-Blanche exhorte même les développeurs à se mettre au Rust.

Une intégration qui prend du retard

Débuté en 2020, le projet Rust for Linux a pour ambition d’aider à augmenter encore la sécurité du noyau le plus connu du logiciel libre. En avril 2021, travaillant alors dans l’équipe Android de Google, Wedson Almeida Filho affirmait dans un billet de blog : « nous pensons que Rust est maintenant prêt à rejoindre le langage C en tant que langage pratique pour l’implémentation du noyau. Il peut nous aider à réduire le nombre de bugs potentiels et de vulnérabilités de sécurité dans le code privilégié, tout en s’intégrant proprement avec le noyau central et en préservant ses caractéristiques de performances ».

Mais il a fallu attendre fin 2023 pour que le langage s’insère pour la première fois dans la version 6.8 du noyau via un driver réseau, comme l’expliquent le chercheur Hongyu Li et ses collègues, dans une étude de l’intégration du langage dans le noyau publiée début juillet. Linus Torvalds, le créateur de Linux et toujours responsable de son développement, avait pourtant annoncé cette intégration pour la version 6.1.

Altercation virulente entre développeurs C et Rust

Mais ce retard ne mine pas la confiance de Wedson Almeida Filho dans l’utilité de Rust pour écrire des noyaux robustes. Au contraire, il affirme dans son message : « je crois vraiment que l’avenir des noyaux passe par des langages à mémoire sécurisée ». Il ajoute même que Linux pourrait se faire dépasser par d’autres noyaux : « je ne suis pas un visionnaire, mais si Linux n’intériorise pas cela, je crains qu’un autre noyau ne lui fasse ce qu’il a fait à Unix ».

Wedson Almeida Filho intègre aussi dans son message un lien vers une vidéo filmée en mai lors de la conférence Linux Storage, Filesystem, Memory-Management, and BPF Summit. Le passage qu’il pointe montre une discussion difficile entre l’ingénieur et un de ses collègues, Ted Ts’o, qui l’accuse de vouloir « convaincre tous les autres de s’orienter vers une religion promue par Rust ».

« Et la réalité, c’est que ça ne va pas arriver, car nous avons plus de 50 systèmes de fichiers dans Linux qui ne vont pas être convertis immédiatement en Rust. Avant ça, nous allons continuer à réécrire du code C, car nous voulons que le code en C soit meilleur », argumentait le second. Il avait ajouté : « vous n’allez pas tous nous forcer à apprendre Rust ».

Des développeurs Rust solidaires

Comme l’a repéré ArsTechnica, la développeuse Asahi Lina (responsable du projet Asahi Linux) a partagé un avis similaire à celui de Filho en le soutenant : « je comprends malheureusement tout à fait les frustrations de Wedson ».

Elle évoque son expérience lorsqu’elle a voulu proposer des modifications au Direct Rendering Manager(DRM) de Linux : « lorsque j’ai essayé d’apporter en amont des corrections mineures au code C pour rendre le comportement plus robuste et les exigences de durée de vie plus raisonnables, le mainteneur l’a bloqué et a dit que je devais simplement faire « ce que font les autres pilotes » ». Elle ajoute qu’ « un sous-ensemble de développeurs du noyau C semble déterminé à rendre la vie des mainteneurs de Rust aussi difficile que possible ».

« À ce jour, des bugs dans l’ordonnanceur du DRM ont été les seules causes de kernel panics déclenchées par le pilote de mon GPU Apple en production […] », explique Asahi Lina, « parce que je code en Rust ».

Dans un billet de blog, Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, suggère aux développeurs Rust de développer un noyau compatible Linux à partir de zéro. Ceci devrait, selon lui, les libérer des batailles politiques des mailing lists du noyau Linux. Celles-ci seraient plus un « far west » qu’un milieu « enthousiaste et prêt à accueillir en son sein des innovateurs motivés pour faciliter cet impact ».

Constat désemparé de Linus Torvalds

Ce n’est pas le premier conflit interpersonnel à surgir dans le projet du noyau Linux. Linus Torvalds a lui-même installé pendant longtemps un climat brutal dans ses conversations, qu’elles soient internes ou externes. En 2018, il avait envoyé un message d’excuses.« Je vais prendre du temps pour moi et demander de l’aide pour comprendre les émotions des autres et comment y répondre de manière appropriée », annonçait-il.

Torvalds expliquait à Zdnet au mois d’aout : « je m’attendais à ce que les mises à jour soient plus rapides, mais le problème réside en partie dans le fait que les développeurs de noyau de longue date sont habitués au C et ne connaissent pas Rust. Ils ne sont pas vraiment enthousiastes à l’idée de devoir apprendre un nouveau langage qui est, à certains égards, très différent. Il y a donc eu des réactions négatives à l’égard de Rust ». Il ajoutait cependant qu’ « une autre raison est que l’infrastructure Rust elle-même n’a pas été très stable ».

L’un des membres de la Rust core team, Steve Klabnik, a commenté sur Bluesky : « des responsables du noyau Linux se comportent si mal que d’autres abandonnent. Windows se contente de livrer discrètement du code Rust. Nous verrons comment tout cela va se dérouler… »

☕️ CNIL : lettre ouverte contre ses sanctions « désespérément faibles sinon inexistantes »

4 septembre 2024 à 13:15

La lettre ouverte a été mise en ligne par l’association P·U·R·R (Pour un RGPD respecté), une association de loi 1901 créée en octobre 2023 et hébergée par Aeris, bien connu pour ses nombreuses plaintes déposées auprès de la CNIL.

Elle rappelle que le RGPD a été promulgué en mai 2016 et affirme que, « six ans après, nous ne pouvons que constater la défaillance de votre Commission quant à l’exécution des pouvoirs qui lui sont conférés. Les manquements au RGPD, constants et massifs, continuent de prospérer ».

« Malgré des plaintes toujours plus nombreuses, en hausse de plus de 30% chaque année, les sanctions rendues par votre Commission restent désespérément faibles sinon inexistantes, avec moins de 50 sanctions pour 12 000 plaintes, et dépassant à peine le seuil d’un rappel à loi pour au moins la moitié d’entre elles », ajoute la lettre ouverte.

La conclusion est la suivante : « Sans action rapide de la part de votre Commission, nous ne constaterons aucune amélioration de la protection de la vie privée en France, déjà fort mal en point avec plusieurs décennies d’inaction de notre Autorité de Contrôle pourtant supposée la garantir ». Lancé lundi, elle a récolté pour l’instant 359 signatures.

Cette lettre ouverte est la suite d’une première pétition lancée il y a quelques mois qui demandait à la CNIL de « réarmer les citoyens et les DPO face aux violations du RGPD ». Elle dénonçait « la politique délibérée d’inaction mise en œuvre en France par la CNIL », parlait aussi de « politique laxiste » et d’« inaction répressive ». Elle avait réuni près de 5 000 signatures.

Sur X, Aeris explique que « la CNIL l’avait tout simplement rejetée au motif que son auteur travaillait… dans une société de conformité RGPD ». Il s’agit de Guillaume Champeau, qui est pour rappel directeur juridique et DPO chez Olympe.legal. Il était auparavant chez Clever Cloud, Qwant et Numerama.

Puisque la CNIL ferme la porte, Aeris tente de passer par la fenêtre : « On relance donc cette pétition, portée cette fois par une association, PURR, représentant toute personne lésée par le RGPD, essentiellement les Personnes Concernées, mais aussi les DPO et les Responsables de Traitement ».

Ce n’est pas la première passe d’arme entre la CNIL et Aeris. Lors d’une contestation devant le Conseil d’État d’une décision de la Commission, il accusait cette dernière de ne pas remplir « sa mission de veiller au respect du RGPD ».

Il avait alors été rejoint par Morgan Schmiedt d’eWatchers, qui ne mâchait pas ses mots contre l’institution : « Ce n’est pas que des soupçons. La CNIL envoie des messages types sans instruction réelle. Parfois, sans lien avec le manquement relevé. Parfois, avec le nom d’organismes différents, suite à des copiés-collés foireux. Parfois, elle ment ouvertement. Du foutage de gueule ».

☕️ Un chercheur belge identifie une porte dérobée dans les cartes sans contact MIFARE

26 août 2024 à 13:31

Philippe Teuwen, responsable de la recherche de la société française de cybersécurité Quarkslab et ancien responsable de la recherche en sécurité de NXP Semiconductors, a découvert une « porte dérobée matérielle permettant l’authentification avec une clé inconnue » dans les cartes sans contact MIFARE Classic.

En 2020, la société Shanghai Fudan Microelectronics, le principal fabricant chinois de puces « compatibles MIFARE » sans licence, avait sorti une variante, la FM11RF08S. Dotée de contre-mesures spécifiques conçues pour déjouer toutes les attaques connues par carte seule, sans accès à son lecteur, elle a depuis gagné des parts de marché dans le monde entier.

Développées sous licence de NXP, elles sont aujourd’hui déployées dans plus de 50 pays, et utilisées par plus de 1,2 milliard de personnes pour ouvrir leurs chambres d’hôtel ou dans leurs cartes de transport, rappelle Fred Raynal. CEO de Quarkslab, ce dernier est également connu pour avoir co-fondé le Symposium sur la sécurité des technologies de l’information et des communications (SSTIC), et avoir créé la revue MISC consacrée à la cybersécurité.

Or, Philippe Teuwen a identifié (preprint) plusieurs attaques lui permettant d’identifier la présence d’une porte dérobée matérielle dans plusieurs cartes développées par Fudan, mais également dans d’anciennes cartes de NXP (MF1ICS5003 & MF1ICS5004) et Infineon (SLE66R35), « simplement en accédant à la carte pendant quelques minutes »

« Toutes ont la même backdoor … mais avec des clés différentes » résume Fred Raynal, pour qui cette porte dérobée remonterait à « un temps reculé » Il formule l’hypothèse qu’elle aurait été introduite, soit à la demande du gouvernement chinois, soit par ce dernier et à l’insu de NXP et Infineon, avant que Fudan ne s’inspire de leur MIFARE Classic et ne la reproduise dans ses propres cartes.

Philippe Teuwen rappelle par ailleurs que « le protocole MIFARE Classic est intrinsèquement cassé, quelle que soit la carte » qu’il sera toujours possible de récupérer les clés si un pirate a accès au lecteur correspondant, et qu’il existe de nombreuses alternatives plus robustes sur le marché.

❌
❌