Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 23 septembre 2024Next.ink

☕️ La gendarmerie aurait mis « plus d’un an » à craquer le cryptophone Ghost

23 septembre 2024 à 09:00

L’enquête ayant mené au démantèlement du cryptophone australien Ghost avait débuté en 2021. Des enquêteurs suédois avaient découvert, dans le cadre d’une enquête sur un réseau criminel, que les suspects utilisaient cette messagerie chiffrée, raconte GendInfo, le site d’information de la gendarmerie.

Le Centre de lutte contre les criminalités numériques (C3N) du Commandement de la gendarmerie dans le cyberespace (COMCYBERGEND) avait alors « rapidement » été sollicité, « à la fois parce que l’un des serveurs de cette application est localisé en France, mais aussi et surtout parce que la gendarmerie nationale est identifiée comme un pôle d’excellence dans ce domaine, depuis le démantèlement d’Encrochat en 2020 », souligne Gendinfo.

#BellesAffaires 🌏 Coup d'arrêt pour l'application criminelle téléphonique #Ghost !
En analysant l'un de ces appareils, les experts du @ComCyberMI et du @CyberGEND sont parvenus à pirater le réseau, permettant ainsi aux enquêteurs de lire en direct les messages échangés par les… pic.twitter.com/b3H5DqBZFb

— Gendarmerie nationale (@Gendarmerie) September 19, 2024

À l’époque, la gendarmerie avait en effet réussi à intercepter, analyser et décrypter plus d’une centaine de millions de messages chiffrés, grâce à trois « dispositifs techniques ». Deux étaient couverts par le secret défense, probablement développés par le service spécialisé de la Direction générale de la sécurité intérieure (DGSI). Ce qui avait alors permis des centaines d’arrestations, et la saisie de millions d’euros et de milliers de tonnes de drogues.

Pour parvenir à craquer Ghost, les experts cyber du Centre national d’expertise numérique (CNENUM) du COMCYBER-MI – plus précisément son laboratoire de rétro-conception situé à Pontoise, composé de militaires dont les profils vont du technicien au docteur en informatique – ont mené « un travail similaire à celui réalisé sur Encrochat », « très technique » et qui a duré « plus d’un an ».

Collaborant avec d’autres laboratoires européens, dans le cadre du projet Overclock de décryptage des données chiffrées, « cette unité très spécialisée va analyser la structure de l’application, exploiter les vulnérabilités identifiées, et tester des dispositifs de captation et d’interception », précise GendInfo :

« Cette très belle opération a été le fruit d’une coopération internationale, avec notamment la constitution d’une Équipe commune d’enquête (ECE) entre la gendarmerie et le Federal bureau of investigation (FBI) américain, note le colonel Michel. Ce n’est que la seconde fois que cela se produit, et cela prouve bien la reconnaissance de la compétence et de l’efficacité de la gendarmerie et du COMCYBER-MI aux yeux de tous les acteurs mondiaux. »

☕️ Le prix de YouTube Premium s’envole dans certains pays

23 septembre 2024 à 08:40

Mauvaise nouvelle pour les personnes abonnées à YouTube Premium dans certains pays. Google y procède actuellement à un ajustement des tarifs et certaines augmentations sont très significatives.

C’est le cas notamment pour la Belgique, l’Irlande, l’Italie et les Pays-Bas, puisque l’offre classique passe de 11,99 à 13,99 euros, et surtout le forfait familial de 17,99 à 25,99 euros par mois. Évolutions similaires en Suisse, avec un forfait classique à 17,90 CHF (contre 15,90) et une formule familiale à 33,90 CHF (contre 23,90).

Le forfait familial est celui qui reçoit les plus importantes augmentations, avec souvent dans les 50 % supplémentaires. Au Danemark, le forfait passe ainsi de 177 à 259 DKK. En Suède, il passe de 179 à 279 SEK. En République tchèque, le tarif s’envole de 269 à 389 CZK.

Comme on peut le voir sur Reddit, de nombreuses personnes reçoivent actuellement un email les avertissant du changement. Plusieurs déclarent se désabonner en conséquence.

Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

23 septembre 2024 à 08:22
Clara Chappaz, de la French Tech au secrétariat d’État à l’IA et au numérique

Directrice de la mission French Tech depuis trois ans, Clara Chappaz a été nommée samedi secrétaire d’État à l’Intelligence artificielle et au Numérique. Traditionnellement sous tutelle de Bercy, son portefeuille est désormais rattaché au ministère de l’Enseignement supérieur et de la Recherche.

Sept mois après la nomination de Marina Ferrari, c’est désormais Clara Chappaz qui portera les enjeux liés au numérique au sein du gouvernement Barnier, avec la responsabilité d’un portefeuille remanié à deux égards. D’abord, son périmètre, qui couvre désormais « l’Intelligence artificielle et le Numérique ». Ensuite, son ministère de tutelle : alors que le numérique était traditionnellement rattaché à l’Économie, Clara Chappaz se voit placée sous la houlette de Patrick Hetzel, nouveau ministre de l’Enseignement supérieur et de la Recherche.

« Après 3 années à diriger La French Tech au sein du Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, je suis ravie de poursuivre mon engagement au service de l’action publique sur ces sujets majeurs que sont le numérique et l’intelligence artificielle », s’est réjouie l’intéressée dimanche sur LinkedIn, dans un post dont les commentaires, nombreux, soulignent à quel point Clara Chappaz est bien identifiée dans l’écosystème des startups et de l’entreprenariat.  

Un profil « startup nation »

À 35 ans, Clara Chappaz dirigeait en effet depuis trois ans la « mission French Tech », un établissement de 25 agents, rattaché à la Direction Générale des Entreprises et chargé d’animer l’ensemble du réseau French Tech en France et à l’international. Fille de l’entrepreneur à succès Pierre Chappaz (Kelkoo, Teads), elle a précédemment passé trois ans au sein du comité de direction de Vestiaire Collective, une plateforme en ligne dédiée à la mode de seconde main, auréolée du statut de licorne (valorisation supérieure à un milliard d’euros) en 2021.

À la différence de ses prédécesseurs, Clara Chappaz est nouvelle en politique, même si son poste à la French Tech dépendait de Bercy. Elle affiche dans le même temps un profil très « startup nation », qui rappelle plus Mounir Mahjoubi et Cédric O que Marina Ferrari ou Jean-Noël Barrot, alors même que son portefeuille change de ministère de tutelle. C’est d’ailleurs Cédric O qui l’avait choisie en 2021 pour diriger la Mission French Tech.

Quelle sera la portée de ce transfert ? Il faudra attendre les décrets fixant les attributions précises des membres du gouvernement Barnier, mais la démarche interroge, tout comme l’adjonction du terme Intelligence artificielle au maroquin du Numérique. « C’est curieux, comme si l’on pouvait penser un outil d’intelligence artificielle extrinsèque au numérique. Cet intitulé ne rend pas compte de l’importance du continuum cloud, data, IA, que toute politique publique sérieuse en la matière se doit d’embrasser », remarque Henri d’Agrain, délégué général du Cigref.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Qualcomm aurait approché Intel pour un rachat

23 septembre 2024 à 07:17
Qualcomm aurait approché Intel pour un rachat

Selon le Wall Street Journal, Qualcomm aurait approché Intel en vue d’un rachat. Il existerait une grande incertitude autour de l’opération, le Journal précisant qu’aucun détail financier n’a filtré. Ce n’est d’ailleurs pas la première fois qu’une telle opération fait l’objet de rumeurs. Au début du mois, Reuters rapportait ainsi que Qualcomm était intéressée par une partie des activités d’Intel, celles liées à la conception de puces.

Que la rumeur soit fondée ou non, elle est représentative d’une période troublée pour Intel. La société, grande spécialiste des puces x86, peine à maintenir ses marges et ses parts de marché entre un AMD qui s’est largement développé sous la houlette de Lisa Su et un marché Arm en pleine expansion, dopé par l’IA.

Il faut dire que l’année 2024 a été riche en mauvaises nouvelles pour Intel. Plus tôt dans l’année, la firme avait ainsi annoncé un plan d’économies. Il doit notamment aboutir au licenciement de 15 % de son personnel d’ici la fin de l’année.

Plus récemment, la société a annoncé que ses activités de fonderie (Intel Foundry) allaient être transférées à une entité indépendante et que deux projets de construction d’usines étaient suspendus. Intel pourrait également se séparer d’Altera, un spécialiste de puces PGA qu’elle avait racheté en 2015.

Qualcomm, pendant ce temps, ne connait pas vraiment la crise. Le géant américain, dont les puces alimentent une grande partie des smartphones Android, n’oublie pas l’IA et améliore graduellement ses NPU. Parallèlement, la société propose ses Snapdragon X dans les PC Copilot+, avec des performances globalement convaincantes.

Un tel rachat serait-il envisageable ? Rien d’impossible, même si cette opération serait examinée de très près par les autorités compétentes. Le rachat d’un géant par un autre accoucherait d’un puissant mastodonte, doté d’une force de frappe en x86 comme en Arm, et assez bien positionné en IA.

Parallèlement, Bloomberg rapporte qu’Apollo Global Management, spécialisée dans la gestion d’actifs, aurait aussi approché Intel. Le but serait tout autre : un investissement de 5 milliards de dollars, sous forme d’une prise de participation. L’examen de la proposition n’en serait qu’au stade préliminaire. Ce ne serait pas la première fois qu’Apollo investit dans Intel, puisqu’elle va prendre une participation de 49 % dans une coentreprise qui doit aboutir à une nouvelle usine en Irlande.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

23 septembre 2024 à 07:07
Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

À partir d’avant-hierNext.ink

668e édition des #LIDD : Liens Intelligents Du Dimanche

21 septembre 2024 à 22:00
Disruption, innovation, mindset growth!
668e édition des #LIDD : Liens Intelligents Du Dimanche

Les aléas ont fait que les LIDD ont connu une pause prolongée ces derniers mois, mais les revoilà ! avec notre sélection des liens les plus intéressants de ces dernières semaines. Ils proviennent des commentaires les plus intéressants, utiles et/ou originaux de la semaine, mais aussi de nos recherches.

Cette semaine, nous avons pour rappel tenté une nouvelle approche des LIDD. Nous en avons disséminé plusieurs durant la semaine, le matin à 6 h. De quoi commencer la journée de bonne humeur et/ou avec une vidéo ou un podcast à écouter pendant le trajet pour aller au travail.

Cette semaine, le menu comprenait en entrée un article expliquant comment (ou pas) monétiser un blog, une vidéo sur la révolution Matrix (et pas Matrix Révolution), un questionnement sur l’avenir de notre : espèce, une comparaison entre du bleu et du vert, une conférence sur les évolutions technologiques et enfin une vraie utilisation de l’IA pour le bullshitron.

Du hardware et des consoles, what else ?

Sur le brief de l’analyse de l’architecture de la Game Boy (Color), ElCroco signale à juste titre que le site de Rodrigo Copetti propose « une vraie mine d’or pour faire une intro au HW de consoles ». Il nous invite également de faire un tour sur LSD Security Daemon pour en découvrir davantage sur les Gamecube, Nintendo 64, 3DS, Switch, et même PC. Bref, il y en a pour tous les goûts.

Gamergate : des contenus à foison pour les 10 ans

Fin aout, l’article de Mathilde sur les dix ans du Gamergate semble vous avoir inspiré. Lyzz par exemple à fait plusieurs recommandations intéressantes, avec un article de Canard PC et plusieurs vidéos de la chaine Game Dolls Advance. JK propose le podcast de Hugo Terra et Lucie Ronfaut : Aidez-moi, est-ce que je suis gamer ?. Enfin, Inny met en avant Mickael J sur le même sujet.

Un podcast sur l’histoire des communications et des ondes

Chez France Culture, Cédric Villani propose un podcast en quatre épisodes sur les ondes pour communiquer. Le premier revient sur l’histoire « du sémaphore au premier câble sous-marin. Au commencement des télécommunications, était le sémaphore ». Le second opus passe à l’empire du téléphone, le troisième sur le smartphone, le quatrième sur la « grande transformation des réseaux ».

Comment l’ADN « a bouleversé le régime de la preuve »

On reste chez France Culture avec la découverte des fichiers génétiques et une question : « chance pour les innocents ou soupçon généralisé ? ». Nos confrères en discutent avec Marc M. Howard (professeur de droit et politiques publiques à l’Université de Georgetown à Washington) et Vailly Joëlle (généticienne, anthropologue, sociologue et directrice de recherche en sociologie au CNRS).

« Les traces génétiques sont de plus en plus exploitées dans les enquêtes pénales en offrant la possibilité de comparer les traces d’ADN prélevées sur une scène de crime avec celles d’individus déjà condamnés ou simplement connus des services de police (pas nécessairement condamnés !). Pour cela, il faut constituer des fichiers, les nourrir, parce que plus ces banques de bio-identités seront grandes, plus grandes seront les chances d’identification de suspects ».

On se détend et on admire les fonds marins

A Tale of Deep Sea Exploration est une vidéo sur les fonds marins, à regarder en 4K si possible pour profiter de la finesse des détails et des images. Immersion garantie. Le rendu est superbe et si vous n’avez pas 1 h devant vous, n’hésitez pas à regarder quelques morceaux au hasard.

#Flock en BD et en problèmes

Par : Flock
21 septembre 2024 à 11:37
Vous allez rire : je n'ai pas non plus de sous-titre
#Flock en BD et en problèmes

Salut.
Je sais que dans la vie, on a tous nos problèmes. Des PETITS, pour ou selon certains, indéniablement de GROS et autrement plus graves pour d’autres… Moi les miens, c’est que je n’ai pas de titre, par exemple. J’ai plutôt de la chance. Sur ce, je vous souhaite un weekend sans problèmes.
– MAJ sans accent –


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Les autorités ont-elles réussi à compromettre l’anonymat sur Tor ?

20 septembre 2024 à 15:55
Faut répondre oui ou non… alors forcément ça dépend ça dépasse
Les autorités ont-elles réussi à compromettre l’anonymat sur Tor ?

Une enquête réalisée par le média allemand Panorama lève le voile sur la façon dont les autorités ont réussi, entre 2019 et 2021 et au prix d’efforts inédits, à identifier les administrateurs et certains membres d’un site Web pédopornographique dont les accès transitaient pourtant par Tor. S’ils admettent que certaines questions restent en suspens, les responsables du projet assurent que l’anonymat est toujours garanti sur le réseau décentralisé.

« Enquêtes sur le darknet : les forces de l’ordre sapent l’anonymat de Tor », a titré mercredi le média allemand Panorama, cellule d’investigation politique du géant audiovisuel NDR. L’article, doublé de formats TV et largement relayé outre-Rhin, lève une partie du voile sur la façon dont les autorités allemandes ont réussi à identifier, puis arrêter, en décembre 2022, un certain Andreas G., accusé d’avoir administré le forum de contenus pédopornographiques Boystown. Ce dernier n’était pourtant accessible qu’au travers du réseau décentralisé Tor, conçu pour garantir l’anonymat de ses utilisateurs. Cette promesse de confidentialité a-t-elle vraiment été rompue et, si oui, comment ?

Une identification basée sur des méthodes statistiques

Daniel Moßbrucker et Robert Bongen, les auteurs de cette enquête, indiquent avoir eu accès à une partie des documents confidentiels liés à ce dossier. Ils n’en révèlent pas la teneur technique exacte, mais expliquent que les autorités se sont appuyés sur une méthode statistique d’analyses temporelles (« timing analyses ») pour parvenir à leurs fins.

Rappelons qu’en simplifiant, le fonctionnement de Tor repose sur des serveurs intermédiaires, baptisés nœuds (nodes) ou relais, par lesquels transitent, de façon dynamique et chiffrée, les échanges entre un internaute et un serveur distant. Ce sont ces rebonds, de serveur en serveur, qui garantissent l’anonymat de l’utilisateur, puisque son adresse IP n’est connue que du premier relais auquel il se connecte, en sachant que le réseau Tor se compose aujourd’hui d’environ 8 000 relais opérés par la communauté. Les différentes couches de chiffrement garantissent quant à elles la confidentialité des échanges.

D’après Panorama, les autorités allemandes auraient réussi à « surveiller », parfois « pendant des années », certains de ces relais. Les ont-elles infiltrés, ou opérés directement ? L’enquête ne le dit pas. Cet accès a cependant ouvert une voie nouvelle : la possibilité de suivre certains échanges au travers des relais surveillés, en corrélant la taille des paquets échangés sur le réseau à leur heure de transmission. C’est cette technique, dont les détails précis n’ont pas été rendus publics, qui aurait permis aux forces de police de déterminer le point d’entrée d’Andreas G. sur le réseau, en suivant certains des messages échangés par ce dernier sur le client P2P Ricochet.

Des liens avec Liberty Lane ou KAX17 ?

Contactée par les auteurs de l’enquête avant publication, l’équipe du projet Tor affirme ne pas avoir eu accès aux éventuels détails techniques obtenus par ces derniers dans le cadre de leurs investigations. Ses discussions internes montrent néanmoins que les allégations sont prises très au sérieux, en partie parce qu’elles font resurgir des soupçons, formulés en début d’année suite à la publication d’un document classé confidentiel sur Reddit.

Issu du bureau d’enquêtes du Département de la sécurité intérieure américain, il évoque une opération conjointe du FBI et de son homologue britannique, la NCA, avec le concours de forces allemandes et brésiliennes, visant à « désanonymiser » les utilisateurs de certains réseaux de pédocriminalité opérant par l’intermédiaire de Tor. Nom de code ? Liberty Lane.

Les éventuels résultats de l’opération n’ont pas été rendus publics, mais des internautes ont réussi à mettre en lumière des recoupements entre plusieurs procédures judiciaires liées à des accusations de pédocriminalité. Les documents associés révèlent que dans la plupart de ces affaires, le FBI a réussi à obtenir l’adresse IP de l’accusé grâce au concours d’une « autorité étrangère », dont l’identité et les méthodes ne sont pas précisées.

Pour Boystown comme pour Liberty Lane, les identifications supposément réalisées via Tor seraient intervenues entre 2019 et 2021. Une période qui rappellera peut-être un autre incident aux spécialistes du réseau décentralisé : la mise en lumière, fin 2021, d’une vaste tentative de corruption du réseau Tor à l’aide de relais.

Les signes avant-coureurs en avaient été découverts par Nusenu, un participant au projet Tor, qui a d’ailleurs largement documenté le phénomène, surnommé KAX17, pendant deux ans sur son blog. À l’époque, la rumeur évoquait une initiative lancée par le gouvernement allemand, sans que l’hypothèse ait jamais été publiquement confirmée. Les journalistes de Panorama ne font pas ce lien dans leur article.

Une surveillance exceptionnelle

La presse allemande illustre un autre aspect exceptionnel de l’enquête liée à Boystown, via Tor. tagesschau.de, le portail central d’informations d’ARD, révèle ainsi que fin 2020, le tribunal de Francfort a prononcé une mesure de surveillance inédite, à la demande de la police criminelle fédérale. L’opérateur Telefónica a ainsi été enjoint de surveiller, pendant trois mois, les connexions à l’échelle de ses 43 millions de clients allemands (sous la marque O2), afin de signaler aux autorités toute connexion en direction d’un serveur précis : le point d’entrée supposément utilisé par Andreas G. pour se connecter au réseau Tor. Tagesschau souligne au passage que cette technique, dite IP Catching, a été mise en œuvre sans aucune « base légale explicite ».

« Il s’agit d’une démarche bien intentionnée, mais très créative, des autorités chargées de l’enquête, dans laquelle différents motifs d’intervention du Code de procédure pénale ont été joyeusement rassemblées, ce qui, dans sa forme concrète, a au moins épuisé les limites de ce qui était légalement autorisé », commente pour Tagesschau Dominik Brodowski, un professeur en criminologie de l’université de la Sarre.

Le volet technique lié à Tor a-t-il lui aussi dépassé ces limites ? Pour être efficace dans un laps de temps raisonnable, la technique d’analyse de la taille des paquets suppose en effet que les autorités allemandes aient réussi à infiltrer un volume significatif de serveurs. À défaut, les probabilités qu’un message du suspect passe par l’un des relais surveillés s’effondrent.

De la santé du réseau Tor

L’équipe du projet a choisi de répondre publiquement à la question que pose cette enquête : l’anonymat est-il toujours garanti sur Tor ? Elle rappelle l’introduction, dès 2018, du composant Vanguards, qui vise à limiter les possibilités en matière d’analyse de trafic, et souligne que l’application de messagerie instantanée décentralisée Ricochet, une alternative moderne à TorChat et Tor Messenger, qui aurait été utilisée pour désanonymiser Andreas G., a depuis été mise à jour et intègre justement ce composant, dans sa version actuelle (Ricochet-refresh, fork du client historique).

Reste une question structurelle : le réseau est-il assez vaste, et assez distribué, pour limiter tout risque de surveillance ? Fin 2023, le projet Tor avait révélé avoir procédé à un grand ménage au sein de son architecture distribuée, ayant conduit à la suppression de milliers de relais qualifiés de suspects.

« L’équipe en charge de la santé du réseau a implémenté des processus visant à identifier les grands ensembles de relais susceptibles d’être gérés par des opérateurs uniques ou mal intentionnés », rappelle aujourd’hui le projet Tor. Qui réaffirme sa conviction selon laquelle Tor est aussi anonyme et performant qu’il ne l’a jamais été. Et en appelle pour finir à sa communauté : « Nous encourageons ceux qui le peuvent à se porter volontaires et à contribuer, en bande passante et en relais, pour développer et diversifier le réseau Tor ».

[Tuto] Suivre sa consommation électrique en direct avec un Rasbperry Pi et Home Assistant

20 septembre 2024 à 15:30
Maintenant, plus d’excuse pour ne pas vous lancer !
[Tuto] Suivre sa consommation électrique en direct avec un Rasbperry Pi et Home Assistant

Avec un Raspberry Pi, une clé Zigbee et un module TIC nous avons tout ce qu’il faut sous la main pour suivre en direct notre consommation électrique via un tableau de bord. On saute le pas avec Home Assistant et on vous détaille les étapes.

Il y a quelques semaines, nous nous expliquions l’intérêt et le fonctionnement du TIC (Télé-Information Client) du compteur connecté Linky. Il permet aux clients « d’être informés en temps réel des grandeurs électriques mesurées et les données qu’elle contient (périodes tarifaires, contacts virtuels, puissance instantanée…) permettent le pilotage dynamique des usages », avec une mise à jour toutes les deux secondes. Après la théorie, passons à la pratique.

Il existe de multiples possibilités pour récupérer et utiliser les données. Nous avons utilisé une clé USB Zigbee et un module LiXee. Ce matin, nous avons mis en ligne un Nextpresso sur ces deux produits. On vous invite à le lire pour comprendre cette seconde partie.

Nous avons utilisé un Raspberry Pi, un micro-ordinateur largement assez puissant pour une telle utilisation (même trop puissant). Il a l’avantage d’être polyvalent, facile à trouver et accessible. Dans ce tuto, on va aller au plus simple, mais vous pouvez adapter les différentes étapes en fonction de vos besoins. Peu importe la version du Raspberry Pi. Il faudra par contre y brancher une clé USB Zigbee2MQTT, c’est la méthode utilisée dans notre cas.


Il reste 97% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

20 septembre 2024 à 14:35
Il y a la bonne Europe et la mauvaise Europe
IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Dans une lettre ouverte, des dizaines d’entreprises, menées par Meta, ont lancé une charge contre l’Union européenne. Dans ce plaidoyer, elles réclament un cadre juridique clair pour ne pas entraver l’innovation. Meta, à la tête de la colonne, oppose régulation et innovation, dans une ambiance tendue entre l’Europe et les grandes sociétés américaines.

La lettre, publiée hier, réunit un lot d’entreprises, d’institutions diverses et de chercheurs. On y retrouve ainsi Nabla, CampusAI, SAP, Spotify, Criteo, Kornia AI, Essilor Luxottica, Bineric AI, Prada, Pirelli, ou encore les universités de Milan et de Harvard.

Le groupe, mené par Meta et Spotify – régulièrement associées dans le domaine de l’intelligence artificielle – dit craindre que l’Europe rate le coche de l’intelligence artificielle, laisse filer des milliards d’euros d’investissements et accentue son retard technologique.

Une Europe « moins compétitive et moins innovante »

« La réalité est que l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions et qu’elle risque maintenant de prendre encore plus de retard dans l’ère de l’IA en raison de décisions réglementaires incohérentes », déclarent-ils. Pourquoi ? À cause de « l’absence de règles cohérentes ».

En conséquence, l’Europe pourrait selon les signataires « passer à côté de deux pierres angulaires de l’innovation en matière d’IA » : l’évolution des modèles ouverts et les modèles multimodaux. « La différence entre les modèles textuels et les modèles multimodaux est comparable à la différence entre un seul sens et les cinq sens », affirme la lettre ouverte. Un seul exemple est donné : Llama, « modèle ouvert d’avant-garde », développé par Meta.

Or, ces modèles peuvent aussi bien stimuler la recherche scientifique et la productivité qu’ajouter des « centaines de milliards d’euros à l’économie européenne ». Les auteurs en veulent pour preuve les améliorations permises dans la recherche médicale et la préservation des langues. La lettre mentionne des exemples provenant de HuggingFace, qui n’est pas signataire de la lettre ouverte.

Sans ces modèles et les outils qui les accompagnent, « le développement de l’IA se fera ailleurs, privant les Européens des avancées technologiques dont bénéficient les États-Unis, la Chine et l’Inde », prévient la lettre.

Éléments de langage

Toujours selon les signataires, la grande force de l’Union européenne dans le domaine réside dans son marché unique et son « corpus réglementaire commun Mais la prise de décision réglementaire serait, « devenue fragmentée et imprévisible, tandis que les interventions des autorités européennes de protection des données ont créé une énorme incertitude quant aux types de données qui peuvent être utilisées pour former des modèles d’IA ».

Le risque ? Multiple selon la lettre. D’abord, selon des études non citées, l’IA générative pourrait accroitre le PIB mondial de 10 %. Les citoyens européens pourraient « être privés de cette croissance ». Tout ce qui touche à la prochaine génération d’IA en source ouverte, ainsi que les produits et services qui l’en découleront, ne prendraient alors pas en compte « les connaissances, la culture ou les langues européennes ».

L’Union européenne risque également de passer à côté d’autres innovations, « comme l’assistant d’IA Meta, qui est en passe de devenir l’assistant d’IA le plus utilisé au monde d’ici à la fin de l’année ». Une menace à peine voilée. Yann LeCun, qui dirige la recherche en IA chez Meta, l’a également pointé sur X. Parlant de Llama, il a indiqué : « La prochaine version sera multimodale et comprendra les informations visuelles. Cependant, Meta ne diffusera pas cette version dans l’UE en raison de restrictions réglementaires concernant l’utilisation de contenus affichés publiquement par des utilisateurs de l’UE ».

Aussi, les signataires espèrent que les régulateurs européens se reprendront. « Nous avons besoin de décisions harmonisées, cohérentes, rapides et claires dans le cadre des règlements de l’UE sur les données, qui permettent d’utiliser les données européennes dans la formation à l’IA au profit des Européens », ajoutent-ils, projetant un éclairage plus cru sur leurs intentions.

Une opposition franche entre innovation et régulation

La lettre est problématique à plus d’un titre. Elle ambitionne de faire craindre l’immense opportunité ratée d’investissements capables de mettre l’Europe au même niveau que les États-Unis, la Chine ou l’Inde. Elle brosse un portrait mortifère : l’Union européenne est en train de rater sa chance, à cause de régulations trop lourdes. Un bourbier dans lequel se débattraient les entreprises, qui cherchent à innover et à faire bénéficier les citoyens européens de ces nouvelles technologies. Curieusement d’ailleurs, l’AI Act n’est jamais évoqué.

Cette lettre ouverte, qui semble essentiellement avoir été écrite par Meta, n’est pas sans rappeler les communications d’Apple contre le DMA. L’émotion et la crainte plutôt que des données et statistiques précises. Des éléments de langage souvent efficaces, mais qui masquent mal les ambitions d’une grande entreprise américaine face à l’Europe. Apple a par exemple déclaré que le retard de son bouquet de fonctions en IA en Europe était dû à sa législation.

Qu’il s’agisse de Meta, Microsoft, Apple, Amazon ou Google, la course à l’IA est devenu le mètre-étalon du progrès technologique. Même si Apple n’a pris le train qu’avec beaucoup de retard – et s’est retrouvée en partie coincée par le manque de mémoire vive dans ses produits – elle est, comme les autres, lancée dans une vaste course. Or, toutes ces entreprises sont très friandes de données et le réservoir européen leur est en grande partie fermé, notamment à cause du RGPD.

Meta a fait l’expérience de ce règlement, puisqu’elle a été condamnée plusieurs fois pour l’avoir enfreint : 390 millions d’euros en janvier 2023, 1,2 milliard d’euros quatre mois plus tard. L’entreprise de Mark Zuckerberg n’apprécie sans doute pas non plus le DMA, puisque ses formules « payer ou accepter » sont incompatibles aussi bien avec la loi sur les marchés numériques qu’avec le RGPD. Meta a également été forcée de mettre en pause son projet d’entrainer ses IA avec les données de ses utilisateurs européens.

Les compères Meta et Spotify

Il n’est pas surprenant de voir Meta et Spotify main dans la main dans cette lettre ouverte. Les entreprises sont très proches sur les questions d’intelligence artificielle depuis plusieurs années.

L’arrivée de cette lettre ouverte n’est d’ailleurs pas une surprise. Le 23 aout, Spotify et Meta avaient publié un communiqué allant déjà dans ce sens. Tous les éléments de langage étaient déjà en place. Mark Zuckerberg et Daniel Ek (CEO de Spotify) expliquaient ainsi pourquoi, selon eux, l’Europe devait adopter l’IA open source : « elle risque de prendre du retard en raison d’une réglementation incohérente et complexe ».

On retrouvait également la « structure réglementaire fragmentée », « des réglementations qui se chevauchent » et « des conseils incohérents sur la manière de s’y conformer ». Spotify allait jusqu’à évoquer une « aversion au risque » pour caractériser l’attitude européenne.

Un discours cohérent, mais double. Car les deux chefs d’entreprise se sont rejoints dans un autre domaine : leur guerre commune contre Apple. Et quand la firme de Cupertino a commencé à se plaindre du cadre européen et à présenter ses adaptations, Daniel Ek et Mark Zuckerberg ont critiqué son attitude face au DMA et sa « mauvaise foi », notamment les conditions financières proposées. Spotify, très impliquée auprès de la Commission européenne pour tout ce qui touche à Apple, n’hésitait alors pas à qualifier « d’extorsion » les propositions de la pomme.

Aucun problème en Europe ?

Au vu des éléments abordés par Spotify, il n’est pas impossible que le géant suédois du streaming veuille tout simplement utiliser les modèles multimodaux de Meta pour ses propres besoins. Une alliance technologique qui lui permettrait de garder sa première place, les recommandations musicales étant un facteur clé de fidélisation.

Pour autant, si toutes ces communications semblent aller surtout dans le sens de Meta, les problèmes pointés sont-ils illusoires ? Pas tout à fait. D’un côté, le RGPD pose différents problèmes depuis son adoption, car il existe des différences d’interprétation en fonction des pays membres. L’harmonisation n’est pas totale. De l’autre, un DMA encore jeune et une Europe soucieuse de montrer qu’elle a désormais suffisamment d’outils pour imposer ses propres volontés.

Rien n’empêche Meta et Spotify de pointer les carences observées dans le cadre juridique européen, mais les deux entreprises sont plus silencieuses quand il est à leur avantage.

☕️ La grogne monte contre VMware (Broadcom) : AT&T, Orange et Thales vont en justice

20 septembre 2024 à 14:01
La grogne monte contre VMware (Broadcom) : AT&T, Orange et Thales vont en justice

Le début de cette histoire remonte à mai 2022, quand Broadcom rachète VMware pour 61 milliards de dollars. Un investissement qu’il faut visiblement rentabiliser au plus vite pour Broadcom, qui passe à l’offensive avec une réorganisation complète des gammes et des hausses importantes de tarifs.

Comme nous l’avons récemment détaillé, AT&T a décidé de contre-attaquer et de déposer une plainte pour que VMware honore ses contrats signés avant son rachat, sans même réclamer de dommages et intérêts.

Thales était aussi passée à l’offensive, comme l’expliquait en août L’Informé. Les reproches sont les mêmes que ceux d’AT&T : de nouvelles offres tarifaires imposées, alors que la société « avait signé un contrat en 2022 avec VMware valide jusqu’en mars 2025 à des conditions différentes ».

Thales avait saisi le tribunal de commerce de Paris en référé pour que l’ancienne offre reste applicable. Toujours selon nos confrères, la société a obtenu gain de cause. Le jugement sur le fond est attendu pour la fin de l’année.

Toujours selon L’Informé, c’est maintenant au tour d’Orange d’assigner « en référé devant le tribunal de commerce de Paris l’éditeur de logiciel ». L’affaire est toujours en cours. Orange « accuse le groupe américain de rupture brutale des relations commerciales », selon nos confrères.

En avril, le Cigref (avec Beltug en Belgique, CIO Platform Nederland aux Pays-Bas et Voice en Allemagne) était déjà monté au créneau pour condamner « fermement le comportement de Broadcom sur le marché ». L’association, qui regroupe de grandes entreprises françaises, appelait « la Commission européenne à prendre les mesures qui s’imposent ».

Le Cigref ne mâchait pas ses mots : « Il est indispensable en effet d’empêcher la ponction financière exorbitante, illégitime et stérile que Broadcom s’apprête à commettre au détriment de l’économie européenne, et de dissuader d’autres fournisseurs de s’engager à l’avenir dans des comportements aussi peu éthiques que ceux de Broadcom ».

☕️ Bleu annonce 12 partenaires et devrait déposer son dossier SecNumCloud à la fin de l’année

20 septembre 2024 à 13:23
Bleu annonce 12 partenaires et devrait déposer son dossier SecNumCloud à la fin de l’année

Au début de l’année, Orange et Capgemini lançaient officiellement leur « cloud de confiance », basé sur Microsoft Azure et 365. La présentation du projet avait été faite en mai 2021, avec l’ambition de proposer « la suite de collaboration et de productivité Microsoft 365 et des services Microsoft Azure, dans un « cloud de confiance » ». Comprendre par là une offre labellisée SecNumCloud par l’ANSSI.

Il y a quelques jours, Bleu a annoncé ses « 12 premiers partenaires de services » : Accenture, Avanade, Capgemini, Cellenza, Claranet, Computacenter, Exakis Nelite groupe Magellan, Experteam, Orange Business, SCC, Sopra Steria, Wavestone. Si on enlève Orange et Capgemini à l’origine du projet, on arrive à 10 nouveaux partenaires.

Ces 12 entreprises vont accompagner les clients de Bleu « vers son futur cloud de confiance, dans le cadre du programme « Départ Lancé » ». Le but est de préparer le passage au « cloud de confiance » quand l’offre sera prête, probablement dans au moins un an.

Sur LinkedIn, Bleu donne quelques précisions sur l’avancement de son projet de certification SecNumCloud. L’entreprise vise « un dépôt de [son] dossier J0 prévu d’ici à la fin de l’année ». Ce jalon 0 est une première étape, mais n’est que le début de l’aventure.

S3NS, un autre « cloud de confiance » mené par Thales et Google, vise lui aussi la certification SecNumCloud. La coentreprise annonce avoir validé « sans réserve » le jalon 0 (ou j0) en juillet de cette année.

Nous expliquions alors que cette étape signifie uniquement que « le commanditaire constitue un dossier de demande de qualification conforme […] qu’il transmet à l’ANSSI, qui désigne alors un chargé de qualification ».

Ce jalon 0 est franchi pour l’ANSSI « lorsque l’ensemble des critères d’acceptation de la demande de qualification […] sont respectés ». Il ne s’agit pas encore pour l’Agence de mettre les mains dans le « cambouis ». Le formulaire se trouve par ici.

Il y a ensuite les jalons J1 (acceptation de la stratégie d’évaluation), J2 (acceptation des travaux d’évaluation) et J3 (décision de qualification) avant de terminer la procédure. Avec le j0 validé en juillet 2024, S3NS prévoit « une qualification à l’été 2025 ». Si on applique ce calendrier à Bleu, l’offre pourrait arriver fin 2025, si les exigences de l’ANSSI sont validées.

#Nextpresso : module TIC Linky et clé Zigbee pour suivre en direct sa consommation électrique

20 septembre 2024 à 10:20
La TAC TIC du Linky passe par Zigbee
#Nextpresso : module TIC Linky et clé Zigbee pour suivre en direct sa consommation électrique

L’hiver approche, les factures d’électricités risquent de s’envoler pour certains. Que ce soit pour des enjeux économiques et/ou écologiques, vous avez envie d’essayer de maitriser votre consommation ? On vous propose dans cette première partie de découvrir le matériel nécessaire pour récupérer les données du Linky : une clé USB et un module TIC.

Aujourd’hui, on ne vous propose pas juste un Nextpresso (notre format de petits tests plus ou moins rapides), mais un Nextpresso et un tuto pour mettre en pratique notre découverte de deux produits : une clé USB Zigbee2mqtt et un module TIC de LiXee. Le premier coûte moins de 15 euros, le second 50 euros.

C’est quoi Zigbee et MQTT ?

Ne fuyez pas, on va décortiquer ces barbarismes. Dans l’ordre, une clé USB Zigbee2mqtt permet, comme son nom l’indique, de récupérer des informations via Zigbee et de les diffuser avec le protocole MQTT. Tel Cobb dans Inception, on va plonger plus bas pour atteindre un autre niveau de connaissance.

Zigbee est un protocole pour les objets connectés, développé par la Zigbee Alliance, devenue il y a quelques années la Connectivity Standards Alliance (CSA). Selon cette dernière, les débits peuvent atteindre 250 kb/s sur la bande des 2,4 GHz et 100 kb/s sur les 868 MHz. Il s’agit d’un réseau maillé, pouvant contenir jusqu’à 65 000 objets connectés ou nœuds. On a de la marge, que ce soit niveau débit (le Linky communique à moins de 1 kb/s) ou nombre d’objets.

Maintenant, passons à MQTT. Il s’agit d’un protocole de messagerie pour les communications entre machines. C’était initialement l’acronyme de Message Queuing Telemetry Transport, mais cela fait plus de 10 ans que ce n’est plus le cas car « aucun mécanisme de file n’est mis en place dans le protocole », rappelle Wikipédia.

Il a été inventé en 1999 et possède plusieurs avantages selon Amazon Web Services : léger, efficace, évolutif, fiable et sécurisé. Un combo gagnant qui explique sa grande présence dans l’Internet des objets. MQTT est aussi largement utilisé en domotique.

Ce protocole MQTT fonctionne sur la base d’un modèle publication/abonnement : « Dans la communication réseau traditionnelle, les clients et les serveurs communiquent directement entre eux […] Cependant, MQTT utilise un modèle de publication/abonnement pour découpler l’expéditeur du message (éditeur) du récepteur du message (abonné). Au lieu de cela, un troisième composant, appelé agent de messagerie [ou broker, ndlr], gère la communication entre les éditeurs et les abonnés. La tâche de l’agent est de filtrer tous les messages entrants des éditeurs et de les distribuer correctement aux abonnés », explique Amazon.

Pour résumer : Zigbee assure la connectivité sans fil, MQTT est le protocole de diffusion des informations. La clé Zigbee2MQTT permet donc de récupérer des informations diffusées via le protocole sans fil Zigbee et de les transmettre à un broker MQTT, auquel des clients peuvent s’abonner pour les récupérer. La clé fait office de passerelle.

Dans notre cas, le compteur Linky va envoyer des données, que nous allons récupérer sur notre Raspberry Pi à l’aide de la clé USB. Sachez que les informations TIC (Télé-Information Client) sont celles que l’on peut directement consulter sur l’écran du Linky. Nous avons d’ailleurs un dossier sur ce sujet. Quoi qu’il en soit, il est quand même plus simple de ne pas avoir toujours le nez collé à son Linky dans le cadre d’une installation domotique ou d’une surveillance de sa consommation.

Clé Zigbee Jiotty CC2531, avec une antenne externe

Revenons à notre Nextpresso et à la découverte des deux produits du jour. Nous avons acheté notre clé il y a quelques mois sur Amazon, pour moins de 15 euros (mais elle est aujourd’hui à 24 euros). Il s’agit d’une Jiotty CC2531. D’autres clés CC2531 existent sur le marché, avec les mêmes fonctionnalités.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nouveau tour de table pour l’assurance santé Alan, valorisée 4 milliards d’euros

20 septembre 2024 à 09:38

L’assurance santé en ligne Alan a annoncé (pdf) vendredi avoir bouclé un nouveau tour de table de 173 millions d’euros pour financer son développement.

Cette levée de fonds associe les investisseurs historiques de la néo-assurance, parmi lesquels les fonds OTPP, Temasek, Coatue, Lakesta, à un nouvel entrant : Belfius, groupe de banque-assurance détenu par l’État fédéral belge.

Outre un apport massif d’argent frais, Alan, qui revendique aujourd’hui 23.000 entreprises clientes et 650.000 utilisateurs finaux entre la France, l’Espagne et la Belgique, bénéficiera ainsi d’un partenaire de poids pour se développer sur ce dernier marché. Belfius y revendique en effet 450 agences, et 3,8 millions de clients, particuliers ou entreprises.

Alan, fondée en 2016, est une habituée des levées de fonds records : en avril 2021, l’entreprise avait atteint le statut symbolique de licorne (startup valorisée au moins 1 milliard d’euros) à l’issue d’un tour de table à 185 millions d’euros. Un an plus tard, elle avait à nouveau levé 183 millions d’euros.

L’opération annoncée vendredi porte désormais la valorisation de l’entreprise à 4 milliards d’euros, indique Alan, qui révèle par ailleurs tabler sur environ 450 millions d’euros de chiffre d’affaires pour son exercice 2024.

La banque belge Belfius avait par ailleurs participé à la levée de fonds de 600 millions d’euros réalisée par Mistral AI en juin dernier.

Depuis 2022, Alan développe également une offre de soins de santé

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ Google synchronise enfin les clés d’accès (passkeys) sur tous les appareils

20 septembre 2024 à 08:00

La gestion des clés d’accès est un élément crucial de leur succès. Devant à terme remplacer les mots de passe, elles sont considérées comme plus sécurisées et plus simples à utiliser. Mais leur disponibilité est un point essentiel et toutes les questions ne sont pas encore réglées, notamment tout ce qui touche à leur passation d’un éditeur à un autre.

Chez Google, on se décide enfin à les synchroniser sur l’ensemble des appareils à travers Chrome. Le navigateur gère en effet les clés d’accès depuis longtemps, mais on ne pouvait les enregistrer dans le Gestionnaire de mots de passe que sur Android.

L’ajout de clés d’accès peut maintenant se faire depuis Windows, macOS, Linux et Android. ChromeOS est également compatible, mais seulement en bêta pour l’instant. Dès qu’une clé a été entrée, le gestionnaire la synchronise aux autres appareils.

Enfin, Google ajoute un code PIN pour protéger le Gestionnaire de mots de passe dans Chrome, sur toutes les plateformes. Sur Android, l’identification biométrique reste privilégiée.

[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

20 septembre 2024 à 07:19
Quantité vs qualité !
[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

Au début de l’été, on s’était dit que c’était une bonne idée de vous donner un maximum de clés pour bien comprendre l’intelligence artificielle. Elle a fait un bond avec les IA génératives, on en parle souvent, mais on ne cerne pas toujours son fonctionnement.

Pour cela, rien de mieux que mettre les mains dans le cambouis. Cela tombe bien, développer et entrainer une IA ne demande pas plus de 10 lignes de codes. On a ensuite regardé l’influence de la quantité de données et des couches de neurones sur les performances de notre IA. Penchons-nous aujourd’hui sur un phénomène bien connu : le surentrainement ou surapprentissage.

Petit rappel pour les retardataires. Nous utilisons le jeu de données du MNIST qui contient 60 000 images de 28 x 28 pixels représentant un chiffre. Chaque image est étiquetée : on sait à quel chiffre elle correspond. 10 000 images, également étiquetées, permettent ensuite de tester le modèle.

Comme nous l’avons déjà expliqué, lors de la phase d’entrainement nous faisons tourner notre algorithme plusieurs fois sur le même jeu de données – on parle d’epoch ou époques – pour améliorer ses performances. En l’occurrence, pour ajuster au mieux les (dizaines/centaines) milliers de paramètres – poids et biais – de chaque neurone.

Surentrainement, surapprentissage, surajustements… Késako ?

On pourrait être tenté de multiplier les époques pour affiner correctement le modèle, mais ce n’est pas un pari toujours gagnant. On arrive même parfois au résultat inverse avec un modèle qui devient « trop bon » sur les données d’entrainement, sans être capable de généraliser son résultat lorsqu’il est confronté à de nouvelles données.


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Sur Linux, Vivaldi sera aussi distribué en Snap

20 septembre 2024 à 07:09

Jon von Tetzchner, fondateur et CEO de l’entreprise, annonce dans un billet que le navigateur sera dorénavant distribué sous forme de paquet snap, en plus de ceux existant en DEB et RPM.

« Linux a toujours été un écosystème diversifié, avec de nombreuses distributions répondant à différents besoins, préférences et cas d’utilisation. Cependant, cette diversité s’accompagne souvent du défi d’assurer la compatibilité des logiciels et la facilité d’installation entre les différentes distributions. C’est là que Snap intervient », explique von Tetzchner.

Le fondateur, ancien d’Opera, rappelle que les snap s’exécutent en environnement bac à sable, apportant une couche supplémentaire de sécurité. Mais ce qui intéresse Vivaldi, c’est surtout qu’une fois le snap créé, il peut être distribué tel quel à toutes les distributions prenant le format en charge, Ubuntu en tête. Vivaldi a d’ailleurs intégré le dépôt principal Snapcraft.io.

Les utilisateurs ont-ils intérêt à passer par ce nouveau paquet ? Question de choix personnel, car les fonctions sont les mêmes. Le format snap est pratique, mais est contesté.

Des distributions comme Linux Mint, bien que basées sur Ubuntu, n’intègrent pas le support et ne permettent même pas de l’installer facilement. Mozilla, après avoir distribué Firefox en snap pendant des années, a provoqué une vague de soulagement en proposant aussi un paquet DEB.

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

❌
❌