Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 20 septembre 2024Next.ink

Les autorités ont-elles réussi à compromettre l’anonymat sur Tor ?

20 septembre 2024 à 15:55
Faut répondre oui ou non… alors forcément çà dépend ça dépasse
Les autorités ont-elles réussi à compromettre l’anonymat sur Tor ?

Une enquête réalisée par le média allemand Panorama lève le voile sur la façon dont les autorités ont réussi, entre 2019 et 2021 et au prix d’efforts inédits, à identifier les administrateurs et certains membres d’un site Web pédopornographique dont les accès transitaient pourtant par Tor. S’ils admettent que certaines questions restent en suspens, les responsables du projet assurent que l’anonymat est toujours garanti sur le réseau décentralisé.

« Enquêtes sur le darknet : les forces de l’ordre sapent l’anonymat de Tor », a titré mercredi le média allemand Panorama, cellule d’investigation politique du géant audiovisuel NDR. L’article, doublé de formats TV et largement relayé outre-Rhin, lève une partie du voile sur la façon dont les autorités allemandes ont réussi à identifier, puis arrêter, en décembre 2022, un certain Andreas G., accusé d’avoir administré le forum de contenus pédopornographiques Boystown. Ce dernier n’était pourtant accessible qu’au travers du réseau décentralisé Tor, conçu pour garantir l’anonymat de ses utilisateurs. Cette promesse de confidentialité a-t-elle vraiment été rompue et, si oui, comment ?

Une identification basée sur des méthodes statistiques

Daniel Moßbrucker et Robert Bongen, les auteurs de cette enquête, indiquent avoir eu accès à une partie des documents confidentiels liés à ce dossier. Ils n’en révèlent pas la teneur technique exacte, mais expliquent que les autorités se sont appuyés sur une méthode statistique d’analyses temporelles (« timing analyses ») pour parvenir à leurs fins.

Rappelons qu’en simplifiant, le fonctionnement de Tor repose sur des serveurs intermédiaires, baptisés nœuds (nodes) ou relais, par lesquels transitent, de façon dynamique et chiffrée, les échanges entre un internaute et un serveur distant. Ce sont ces rebonds, de serveur en serveur, qui garantissent l’anonymat de l’utilisateur, puisque son adresse IP n’est connue que du premier relais auquel il se connecte, en sachant que le réseau Tor se compose aujourd’hui d’environ 8 000 relais opérés par la communauté. Les différentes couches de chiffrement garantissent quant à elles la confidentialité des échanges.

D’après Panorama, les autorités allemandes auraient réussi à « surveiller », parfois « pendant des années », certains de ces relais. Les ont-elles infiltrés, ou opérés directement ? L’enquête ne le dit pas. Cet accès a cependant ouvert une voie nouvelle : la possibilité de suivre certains échanges au travers des relais surveillés, en corrélant la taille des paquets échangés sur le réseau à leur heure de transmission. C’est cette technique, dont les détails précis n’ont pas été rendus publics, qui aurait permis aux forces de police de déterminer le point d’entrée d’Andreas G. sur le réseau, en suivant certains des messages échangés par ce dernier sur le client P2P Ricochet.

Des liens avec Liberty Lane ou KAX17 ?

Contactée par les auteurs de l’enquête avant publication, l’équipe du projet Tor affirme ne pas avoir eu accès aux éventuels détails techniques obtenus par ces derniers dans le cadre de leurs investigations. Ses discussions internes montrent néanmoins que les allégations sont prises très au sérieux, en partie parce qu’elles font resurgir des soupçons, formulés en début d’année suite à la publication d’un document classé confidentiel sur Reddit.

Issu du bureau d’enquêtes du Département de la sécurité intérieure américain, il évoque une opération conjointe du FBI et de son homologue britannique, la NCA, avec le concours de forces allemandes et brésiliennes, visant à « désanonymiser » les utilisateurs de certains réseaux de pédocriminalité opérant par l’intermédiaire de Tor. Nom de code ? Liberty Lane.

Les éventuels résultats de l’opération n’ont pas été rendus publics, mais des internautes ont réussi à mettre en lumière des recoupements entre plusieurs procédures judiciaires liées à des accusations de pédocriminalité. Les documents associés révèlent que dans la plupart de ces affaires, le FBI a réussi à obtenir l’adresse IP de l’accusé grâce au concours d’une « autorité étrangère », dont l’identité et les méthodes ne sont pas précisées.

Pour Boystown comme pour Liberty Lane, les identifications supposément réalisées via Tor seraient intervenues entre 2019 et 2021. Une période qui rappellera peut-être un autre incident aux spécialistes du réseau décentralisé : la mise en lumière, fin 2021, d’une vaste tentative de corruption du réseau Tor à l’aide de relais.

Les signes avant-coureurs en avaient été découverts par Nusenu, un participant au projet Tor, qui a d’ailleurs largement documenté le phénomène, surnommé KAX17, pendant deux ans sur son blog. À l’époque, la rumeur évoquait une initiative lancée par le gouvernement allemand, sans que l’hypothèse ait jamais été publiquement confirmée. Les journalistes de Panorama ne font pas ce lien dans leur article.

Une surveillance exceptionnelle

La presse allemande illustre un autre aspect exceptionnel de l’enquête liée à Boystown, via Tor. tagesschau.de, le portail central d’informations d’ARD, révèle ainsi que fin 2020, le tribunal de Francfort a prononcé une mesure de surveillance inédite, à la demande de la police criminelle fédérale. L’opérateur Telefónica a ainsi été enjoint de surveiller, pendant trois mois, les connexions à l’échelle de ses 43 millions de clients allemands (sous la marque O2), afin de signaler aux autorités toute connexion en direction d’un serveur précis : le point d’entrée supposément utilisé par Andreas G. pour se connecter au réseau Tor. Tagesschau souligne au passage que cette technique, dite IP Catching, a été mise en œuvre sans aucune « base légale explicite ».

« Il s’agit d’une démarche bien intentionnée, mais très créative, des autorités chargées de l’enquête, dans laquelle différents motifs d’intervention du Code de procédure pénale ont été joyeusement rassemblées, ce qui, dans sa forme concrète, a au moins épuisé les limites de ce qui était légalement autorisé », commente pour Tagesschau Dominik Brodowski, un professeur en criminologie de l’université de la Sarre.

Le volet technique lié à Tor a-t-il lui aussi dépassé ces limites ? Pour être efficace dans un laps de temps raisonnable, la technique d’analyse de la taille des paquets suppose en effet que les autorités allemandes aient réussi à infiltrer un volume significatif de serveurs. À défaut, les probabilités qu’un message du suspect passe par l’un des relais surveillés s’effondrent.

De la santé du réseau Tor

L’équipe du projet a choisi de répondre publiquement à la question que pose cette enquête : l’anonymat est-il toujours garanti sur Tor ? Elle rappelle l’introduction, dès 2018, du composant Vanguards, qui vise à limiter les possibilités en matière d’analyse de trafic, et souligne que l’application de messagerie instantanée décentralisée Ricochet, une alternative moderne à TorChat et Tor Messenger, qui aurait été utilisée pour désanonymiser Andreas G., a depuis été mise à jour et intègre justement ce composant, dans sa version actuelle (Ricochet-refresh, fork du client historique).

Reste une question structurelle : le réseau est-il assez vaste, et assez distribué, pour limiter tout risque de surveillance ? Fin 2023, le projet Tor avait révélé avoir procédé à un grand ménage au sein de son architecture distribuée, ayant conduit à la suppression de milliers de relais qualifiés de suspects.

« L’équipe en charge de la santé du réseau a implémenté des processus visant à identifier les grands ensembles de relais susceptibles d’être gérés par des opérateurs uniques ou mal intentionnés », rappelle aujourd’hui le projet Tor. Qui réaffirme sa conviction selon laquelle Tor est aussi anonyme et performant qu’il ne l’a jamais été. Et en appelle pour finir à sa communauté : « Nous encourageons ceux qui le peuvent à se porter volontaires et à contribuer, en bande passante et en relais, pour développer et diversifier le réseau Tor ».

[Tuto] Suivre sa consommation électrique en direct avec un Rasbperry Pi et Home Assistant

20 septembre 2024 à 15:30
Maintenant, plus d’excuse pour ne pas vous lancer !
[Tuto] Suivre sa consommation électrique en direct avec un Rasbperry Pi et Home Assistant

Avec un Raspberry Pi, une clé Zigbee et un module TIC nous avons tout ce qu’il faut sous la main pour suivre en direct notre consommation électrique via un tableau de bord. On saute le pas avec Home Assistant et on vous détaille les étapes.

Il y a quelques semaines, nous nous expliquions l’intérêt et le fonctionnement du TIC (Télé-Information Client) du compteur connecté Linky. Il permet aux clients « d’être informés en temps réel des grandeurs électriques mesurées et les données qu’elle contient (périodes tarifaires, contacts virtuels, puissance instantanée…) permettent le pilotage dynamique des usages », avec une mise à jour toutes les deux secondes. Après la théorie, passons à la pratique.

Il existe de multiples possibilités pour récupérer et utiliser les données. Nous avons utilisé une clé USB Zigbee et un module LiXee. Ce matin, nous avons mis en ligne un Nextpresso sur ces deux produits. On vous invite à le lire pour comprendre cette seconde partie.

Nous avons utilisé un Raspberry Pi, un micro-ordinateur largement assez puissant pour une telle utilisation (même trop puissant). Il a l’avantage d’être polyvalent, facile à trouver et accessible. Dans ce tuto, on va aller au plus simple, mais vous pouvez adapter les différentes étapes en fonction de vos besoins. Peu importe la version du Raspberry Pi. Il faudra par contre y brancher une clé USB Zigbee2MQTT, c’est la méthode utilisée dans notre cas.


Il reste 97% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

20 septembre 2024 à 14:35
Il y a la bonne Europe et la mauvaise Europe
IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Dans une lettre ouverte, des dizaines d’entreprises, menées par Meta, ont lancé une charge contre l’Union européenne. Dans ce plaidoyer, elles réclament un cadre juridique clair pour ne pas entraver l’innovation. Meta, à la tête de la colonne, oppose régulation et innovation, dans une ambiance tendue entre l’Europe et les grandes sociétés américaines.

La lettre, publiée hier, réunit un lot d’entreprises, d’institutions diverses et de chercheurs. On y retrouve ainsi Nabla, CampusAI, SAP, Spotify, Criteo, Kornia AI, Essilor Luxottica, Bineric AI, Prada, Pirelli, ou encore les universités de Milan et de Harvard.

Le groupe, mené par Meta et Spotify – régulièrement associées dans le domaine de l’intelligence artificielle – dit craindre que l’Europe rate le coche de l’intelligence artificielle, laisse filer des milliards d’euros d’investissements et accentue son retard technologique.

Une Europe « moins compétitive et moins innovante »

« La réalité est que l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions et qu’elle risque maintenant de prendre encore plus de retard dans l’ère de l’IA en raison de décisions réglementaires incohérentes », déclarent-ils. Pourquoi ? À cause de « l’absence de règles cohérentes ».

En conséquence, l’Europe pourrait selon les signataires « passer à côté de deux pierres angulaires de l’innovation en matière d’IA » : l’évolution des modèles ouverts et les modèles multimodaux. « La différence entre les modèles textuels et les modèles multimodaux est comparable à la différence entre un seul sens et les cinq sens », affirme la lettre ouverte. Un seul exemple est donné : Llama, « modèle ouvert d’avant-garde », développé par Meta.

Or, ces modèles peuvent aussi bien stimuler la recherche scientifique et la productivité qu’ajouter des « centaines de milliards d’euros à l’économie européenne ». Les auteurs en veulent pour preuve les améliorations permises dans la recherche médicale et la préservation des langues. La lettre mentionne des exemples provenant de HuggingFace, qui n’est pas signataire de la lettre ouverte.

Sans ces modèles et les outils qui les accompagnent, « le développement de l’IA se fera ailleurs, privant les Européens des avancées technologiques dont bénéficient les États-Unis, la Chine et l’Inde », prévient la lettre.

Éléments de langage

Toujours selon les signataires, la grande force de l’Union européenne dans le domaine réside dans son marché unique et son « corpus réglementaire commun Mais la prise de décision réglementaire serait, « devenue fragmentée et imprévisible, tandis que les interventions des autorités européennes de protection des données ont créé une énorme incertitude quant aux types de données qui peuvent être utilisées pour former des modèles d’IA ».

Le risque ? Multiple selon la lettre. D’abord, selon des études non citées, l’IA générative pourrait accroitre le PIB mondial de 10 %. Les citoyens européens pourraient « être privés de cette croissance ». Tout ce qui touche à la prochaine génération d’IA en source ouverte, ainsi que les produits et services qui l’en découleront, ne prendraient alors pas en compte « les connaissances, la culture ou les langues européennes ».

L’Union européenne risque également de passer à côté d’autres innovations, « comme l’assistant d’IA Meta, qui est en passe de devenir l’assistant d’IA le plus utilisé au monde d’ici à la fin de l’année ». Une menace à peine voilée. Yann LeCun, qui dirige la recherche en IA chez Meta, l’a également pointé sur X. Parlant de Llama, il a indiqué : « La prochaine version sera multimodale et comprendra les informations visuelles. Cependant, Meta ne diffusera pas cette version dans l’UE en raison de restrictions réglementaires concernant l’utilisation de contenus affichés publiquement par des utilisateurs de l’UE ».

Aussi, les signataires espèrent que les régulateurs européens se reprendront. « Nous avons besoin de décisions harmonisées, cohérentes, rapides et claires dans le cadre des règlements de l’UE sur les données, qui permettent d’utiliser les données européennes dans la formation à l’IA au profit des Européens », ajoutent-ils, projetant un éclairage plus cru sur leurs intentions.

Une opposition franche entre innovation et régulation

La lettre est problématique à plus d’un titre. Elle ambitionne de faire craindre l’immense opportunité ratée d’investissements capables de mettre l’Europe au même niveau que les États-Unis, la Chine ou l’Inde. Elle brosse un portrait mortifère : l’Union européenne est en train de rater sa chance, à cause de régulations trop lourdes. Un bourbier dans lequel se débattraient les entreprises, qui cherchent à innover et à faire bénéficier les citoyens européens de ces nouvelles technologies. Curieusement d’ailleurs, l’AI Act n’est jamais évoqué.

Cette lettre ouverte, qui semble essentiellement avoir été écrite par Meta, n’est pas sans rappeler les communications d’Apple contre le DMA. L’émotion et la crainte plutôt que des données et statistiques précises. Des éléments de langage souvent efficaces, mais qui masquent mal les ambitions d’une grande entreprise américaine face à l’Europe. Apple a par exemple déclaré que le retard de son bouquet de fonctions en IA en Europe était dû à sa législation.

Qu’il s’agisse de Meta, Microsoft, Apple, Amazon ou Google, la course à l’IA est devenu le mètre-étalon du progrès technologique. Même si Apple n’a pris le train qu’avec beaucoup de retard – et s’est retrouvée en partie coincée par le manque de mémoire vive dans ses produits – elle est, comme les autres, lancée dans une vaste course. Or, toutes ces entreprises sont très friandes de données et le réservoir européen leur est en grande partie fermé, notamment à cause du RGPD.

Meta a fait l’expérience de ce règlement, puisqu’elle a été condamnée plusieurs fois pour l’avoir enfreint : 390 millions d’euros en janvier 2023, 1,2 milliard d’euros quatre mois plus tard. L’entreprise de Mark Zuckerberg n’apprécie sans doute pas non plus le DMA, puisque ses formules « payer ou accepter » sont incompatibles aussi bien avec la loi sur les marchés numériques qu’avec le RGPD. Meta a également été forcée de mettre en pause son projet d’entrainer ses IA avec les données de ses utilisateurs européens.

Les compères Meta et Spotify

Il n’est pas surprenant de voir Meta et Spotify main dans la main dans cette lettre ouverte. Les entreprises sont très proches sur les questions d’intelligence artificielle depuis plusieurs années.

L’arrivée de cette lettre ouverte n’est d’ailleurs pas une surprise. Le 23 aout, Spotify et Meta avaient publié un communiqué allant déjà dans ce sens. Tous les éléments de langage étaient déjà en place. Mark Zuckerberg et Daniel Ek (CEO de Spotify) expliquaient ainsi pourquoi, selon eux, l’Europe devait adopter l’IA open source : « elle risque de prendre du retard en raison d’une réglementation incohérente et complexe ».

On retrouvait également la « structure réglementaire fragmentée », « des réglementations qui se chevauchent » et « des conseils incohérents sur la manière de s’y conformer ». Spotify allait jusqu’à évoquer une « aversion au risque » pour caractériser l’attitude européenne.

Un discours cohérent, mais double. Car les deux chefs d’entreprise se sont rejoints dans un autre domaine : leur guerre commune contre Apple. Et quand la firme de Cupertino a commencé à se plaindre du cadre européen et à présenter ses adaptations, Daniel Ek et Mark Zuckerberg ont critiqué son attitude face au DMA et sa « mauvaise foi », notamment les conditions financières proposées. Spotify, très impliquée auprès de la Commission européenne pour tout ce qui touche à Apple, n’hésitait alors pas à qualifier « d’extorsion » les propositions de la pomme.

Aucun problème en Europe ?

Au vu des éléments abordés par Spotify, il n’est pas impossible que le géant suédois du streaming veuille tout simplement utiliser les modèles multimodaux de Meta pour ses propres besoins. Une alliance technologique qui lui permettrait de garder sa première place, les recommandations musicales étant un facteur clé de fidélisation.

Pour autant, si toutes ces communications semblent aller surtout dans le sens de Meta, les problèmes pointés sont-ils illusoires ? Pas tout à fait. D’un côté, le RGPD pose différents problèmes depuis son adoption, car il existe des différences d’interprétation en fonction des pays membres. L’harmonisation n’est pas totale. De l’autre, un DMA encore jeune et une Europe soucieuse de montrer qu’elle a désormais suffisamment d’outils pour imposer ses propres volontés.

Rien n’empêche Meta et Spotify de pointer les carences observées dans le cadre juridique européen, mais les deux entreprises sont plus silencieuses quand il est à leur avantage.

☕️ La grogne monte contre VMware (Broadcom) : AT&T, Orange et Thales vont en justice

20 septembre 2024 à 14:01
La grogne monte contre VMware (Broadcom) : AT&T, Orange et Thales vont en justice

Le début de cette histoire remonte à mai 2022, quand Broadcom rachète VMware pour 61 milliards de dollars. Un investissement qu’il faut visiblement rentabiliser au plus vite pour Broadcom, qui passe à l’offensive avec une réorganisation complète des gammes et des hausses importantes de tarifs.

Comme nous l’avons récemment détaillé, AT&T a décidé de contre-attaquer et de déposer une plainte pour que VMware honore ses contrats signés avant son rachat, sans même réclamer de dommages et intérêts.

Thales était aussi passée à l’offensive, comme l’expliquait en août L’Informé. Les reproches sont les mêmes que ceux d’AT&T : de nouvelles offres tarifaires imposées, alors que la société « avait signé un contrat en 2022 avec VMware valide jusqu’en mars 2025 à des conditions différentes ».

Thales avait saisi le tribunal de commerce de Paris en référé pour que l’ancienne offre reste applicable. Toujours selon nos confrères, la société a obtenu gain de cause. Le jugement sur le fond est attendu pour la fin de l’année.

Toujours selon L’Informé, c’est maintenant au tour d’Orange d’assigner « en référé devant le tribunal de commerce de Paris l’éditeur de logiciel ». L’affaire est toujours en cours. Orange « accuse le groupe américain de rupture brutale des relations commerciales », selon nos confrères.

En avril, le Cigref (avec Beltug en Belgique, CIO Platform Nederland aux Pays-Bas et Voice en Allemagne) était déjà monté au créneau pour condamner « fermement le comportement de Broadcom sur le marché ». L’association, qui regroupe de grandes entreprises françaises, appelait « la Commission européenne à prendre les mesures qui s’imposent ».

Le Cigref ne mâchait pas ses mots : « Il est indispensable en effet d’empêcher la ponction financière exorbitante, illégitime et stérile que Broadcom s’apprête à commettre au détriment de l’économie européenne, et de dissuader d’autres fournisseurs de s’engager à l’avenir dans des comportements aussi peu éthiques que ceux de Broadcom ».

☕️ Bleu annonce 12 partenaires et devrait déposer son dossier SecNumCloud à la fin de l’année

20 septembre 2024 à 13:23
Bleu annonce 12 partenaires et devrait déposer son dossier SecNumCloud à la fin de l’année

Au début de l’année, Orange et Capgemini lançaient officiellement leur « cloud de confiance », basé sur Microsoft Azure et 365. La présentation du projet avait été faite en mai 2021, avec l’ambition de proposer « la suite de collaboration et de productivité Microsoft 365 et des services Microsoft Azure, dans un « cloud de confiance » ». Comprendre par là une offre labellisée SecNumCloud par l’ANSSI.

Il y a quelques jours, Bleu a annoncé ses « 12 premiers partenaires de services » : Accenture, Avanade, Capgemini, Cellenza, Claranet, Computacenter, Exakis Nelite groupe Magellan, Experteam, Orange Business, SCC, Sopra Steria, Wavestone. Si on enlève Orange et Capgemini à l’origine du projet, on arrive à 10 nouveaux partenaires.

Ces 12 entreprises vont accompagner les clients de Bleu « vers son futur cloud de confiance, dans le cadre du programme « Départ Lancé » ». Le but est de préparer le passage au « cloud de confiance » quand l’offre sera prête, probablement dans au moins un an.

Sur LinkedIn, Bleu donne quelques précisions sur l’avancement de son projet de certification SecNumCloud. L’entreprise vise « un dépôt de [son] dossier J0 prévu d’ici à la fin de l’année ». Ce jalon 0 est une première étape, mais n’est que le début de l’aventure.

S3NS, un autre « cloud de confiance » mené par Thales et Google, vise lui aussi la certification SecNumCloud. La coentreprise annonce avoir validé « sans réserve » le jalon 0 (ou j0) en juillet de cette année.

Nous expliquions alors que cette étape signifie uniquement que « le commanditaire constitue un dossier de demande de qualification conforme […] qu’il transmet à l’ANSSI, qui désigne alors un chargé de qualification ».

Ce jalon 0 est franchi pour l’ANSSI « lorsque l’ensemble des critères d’acceptation de la demande de qualification […] sont respectés ». Il ne s’agit pas encore pour l’Agence de mettre les mains dans le « cambouis ». Le formulaire se trouve par ici.

Il y a ensuite les jalons J1 (acceptation de la stratégie d’évaluation), J2 (acceptation des travaux d’évaluation) et J3 (décision de qualification) avant de terminer la procédure. Avec le j0 validé en juillet 2024, S3NS prévoit « une qualification à l’été 2025 ». Si on applique ce calendrier à Bleu, l’offre pourrait arriver fin 2025, si les exigences de l’ANSSI sont validées.

#Nextpresso : module TIC Linky et clé Zigbee pour suivre en direct sa consommation électrique

20 septembre 2024 à 10:20
La TAC TIC du Linky passe par Zigbee
#Nextpresso : module TIC Linky et clé Zigbee pour suivre en direct sa consommation électrique

L’hiver approche, les factures d’électricités risquent de s’envoler pour certains. Que ce soit pour des enjeux économiques et/ou écologiques, vous avez envie d’essayer de maitriser votre consommation ? On vous propose dans cette première partie de découvrir le matériel nécessaire pour récupérer les données du Linky : une clé USB et un module TIC.

Aujourd’hui, on ne vous propose pas juste un Nextpresso (notre format de petits tests plus ou moins rapides), mais un Nextpresso et un tuto pour mettre en pratique notre découverte de deux produits : une clé USB Zigbee2mqtt et un module TIC de LiXee. Le premier coûte moins de 15 euros, le second 50 euros.

C’est quoi Zigbee et MQTT ?

Ne fuyez pas, on va décortiquer ces barbarismes. Dans l’ordre, une clé USB Zigbee2mqtt permet, comme son nom l’indique, de récupérer des informations via Zigbee et de les diffuser avec le protocole MQTT. Tel Cobb dans Inception, on va plonger plus bas pour atteindre un autre niveau de connaissance.

Zigbee est un protocole pour les objets connectés, développé par la Zigbee Alliance, devenue il y a quelques années la Connectivity Standards Alliance (CSA). Selon cette dernière, les débits peuvent atteindre 250 kb/s sur la bande des 2,4 GHz et 100 kb/s sur les 868 MHz. Il s’agit d’un réseau maillé, pouvant contenir jusqu’à 65 000 objets connectés ou nœuds. On a de la marge, que ce soit niveau débit (le Linky communique à moins de 1 kb/s) ou nombre d’objets.

Maintenant, passons à MQTT. Il s’agit d’un protocole de messagerie pour les communications entre machines. C’était initialement l’acronyme de Message Queuing Telemetry Transport, mais cela fait plus de 10 ans que ce n’est plus le cas car « aucun mécanisme de file n’est mis en place dans le protocole », rappelle Wikipédia.

Il a été inventé en 1999 et possède plusieurs avantages selon Amazon Web Services : léger, efficace, évolutif, fiable et sécurisé. Un combo gagnant qui explique sa grande présence dans l’Internet des objets. MQTT est aussi largement utilisé en domotique.

Ce protocole MQTT fonctionne sur la base d’un modèle publication/abonnement : « Dans la communication réseau traditionnelle, les clients et les serveurs communiquent directement entre eux […] Cependant, MQTT utilise un modèle de publication/abonnement pour découpler l’expéditeur du message (éditeur) du récepteur du message (abonné). Au lieu de cela, un troisième composant, appelé agent de messagerie [ou broker, ndlr], gère la communication entre les éditeurs et les abonnés. La tâche de l’agent est de filtrer tous les messages entrants des éditeurs et de les distribuer correctement aux abonnés », explique Amazon.

Pour résumer : Zigbee assure la connectivité sans fil, MQTT est le protocole de diffusion des informations. La clé Zigbee2MQTT permet donc de récupérer des informations diffusées via le protocole sans fil Zigbee et de les transmettre à un broker MQTT, auquel des clients peuvent s’abonner pour les récupérer. La clé fait office de passerelle.

Dans notre cas, le compteur Linky va envoyer des données, que nous allons récupérer sur notre Raspberry Pi à l’aide de la clé USB. Sachez que les informations TIC (Télé-Information Client) sont celles que l’on peut directement consulter sur l’écran du Linky. Nous avons d’ailleurs un dossier sur ce sujet. Quoi qu’il en soit, il est quand même plus simple de ne pas avoir toujours le nez collé à son Linky dans le cadre d’une installation domotique ou d’une surveillance de sa consommation.

Clé Zigbee Jiotty CC2531, avec une antenne externe

Revenons à notre Nextpresso et à la découverte des deux produits du jour. Nous avons acheté notre clé il y a quelques mois sur Amazon, pour moins de 15 euros (mais elle est aujourd’hui à 24 euros). Il s’agit d’une Jiotty CC2531. D’autres clés CC2531 existent sur le marché, avec les mêmes fonctionnalités.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Nouveau tour de table pour l’assurance santé Alan, valorisée 4 milliards d’euros

20 septembre 2024 à 09:38

L’assurance santé en ligne Alan a annoncé (pdf) vendredi avoir bouclé un nouveau tour de table de 173 millions d’euros pour financer son développement.

Cette levée de fonds associe les investisseurs historiques de la néo-assurance, parmi lesquels les fonds OTPP, Temasek, Coatue, Lakesta, à un nouvel entrant : Belfius, groupe de banque-assurance détenu par l’État fédéral belge.

Outre un apport massif d’argent frais, Alan, qui revendique aujourd’hui 23.000 entreprises clientes et 650.000 utilisateurs finaux entre la France, l’Espagne et la Belgique, bénéficiera ainsi d’un partenaire de poids pour se développer sur ce dernier marché. Belfius y revendique en effet 450 agences, et 3,8 millions de clients, particuliers ou entreprises.

Alan, fondée en 2016, est une habituée des levées de fonds records : en avril 2021, l’entreprise avait atteint le statut symbolique de licorne (startup valorisée au moins 1 milliard d’euros) à l’issue d’un tour de table à 185 millions d’euros. Un an plus tard, elle avait à nouveau levé 183 millions d’euros.

L’opération annoncée vendredi porte désormais la valorisation de l’entreprise à 4 milliards d’euros, indique Alan, qui révèle par ailleurs tabler sur environ 450 millions d’euros de chiffre d’affaires pour son exercice 2024.

La banque belge Belfius avait par ailleurs participé à la levée de fonds de 600 millions d’euros réalisée par Mistral AI en juin dernier.

Depuis 2022, Alan développe également une offre de soins de santé

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ Google synchronise enfin les clés d’accès (passkeys) sur tous les appareils

20 septembre 2024 à 08:00

La gestion des clés d’accès est un élément crucial de leur succès. Devant à terme remplacer les mots de passe, elles sont considérées comme plus sécurisées et plus simples à utiliser. Mais leur disponibilité est un point essentiel et toutes les questions ne sont pas encore réglées, notamment tout ce qui touche à leur passation d’un éditeur à un autre.

Chez Google, on se décide enfin à les synchroniser sur l’ensemble des appareils à travers Chrome. Le navigateur gère en effet les clés d’accès depuis longtemps, mais on ne pouvait les enregistrer dans le Gestionnaire de mots de passe que sur Android.

L’ajout de clés d’accès peut maintenant se faire depuis Windows, macOS, Linux et Android. ChromeOS est également compatible, mais seulement en bêta pour l’instant. Dès qu’une clé a été entrée, le gestionnaire la synchronise aux autres appareils.

Enfin, Google ajoute un code PIN pour protéger le Gestionnaire de mots de passe dans Chrome, sur toutes les plateformes. Sur Android, l’identification biométrique reste privilégiée.

[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

20 septembre 2024 à 07:19
Quantité vs qualité !
[Tuto] Intelligence artificielle : les dangers du surapprentissage, comment l’éviter

Au début de l’été, on s’était dit que c’était une bonne idée de vous donner un maximum de clés pour bien comprendre l’intelligence artificielle. Elle a fait un bond avec les IA génératives, on en parle souvent, mais on ne cerne pas toujours son fonctionnement.

Pour cela, rien de mieux que mettre les mains dans le cambouis. Cela tombe bien, développer et entrainer une IA ne demande pas plus de 10 lignes de codes. On a ensuite regardé l’influence de la quantité de données et des couches de neurones sur les performances de notre IA. Penchons-nous aujourd’hui sur un phénomène bien connu : le surentrainement ou surapprentissage.

Petit rappel pour les retardataires. Nous utilisons le jeu de données du MNIST qui contient 60 000 images de 28 x 28 pixels représentant un chiffre. Chaque image est étiquetée : on sait à quel chiffre elle correspond. 10 000 images, également étiquetées, permettent ensuite de tester le modèle.

Comme nous l’avons déjà expliqué, lors de la phase d’entrainement nous faisons tourner notre algorithme plusieurs fois sur le même jeu de données – on parle d’epoch ou époques – pour améliorer ses performances. En l’occurrence, pour ajuster au mieux les (dizaines/centaines) milliers de paramètres – poids et biais – de chaque neurone.

Surentrainement, surapprentissage, surajustements… Késako ?

On pourrait être tenté de multiplier les époques pour affiner correctement le modèle, mais ce n’est pas un pari toujours gagnant. On arrive même parfois au résultat inverse avec un modèle qui devient « trop bon » sur les données d’entrainement, sans être capable de généraliser son résultat lorsqu’il est confronté à de nouvelles données.


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Sur Linux, Vivaldi sera aussi distribué en Snap

20 septembre 2024 à 07:09

Jon von Tetzchner, fondateur et CEO de l’entreprise, annonce dans un billet que le navigateur sera dorénavant distribué sous forme de paquet snap, en plus de ceux existant en DEB et RPM.

« Linux a toujours été un écosystème diversifié, avec de nombreuses distributions répondant à différents besoins, préférences et cas d’utilisation. Cependant, cette diversité s’accompagne souvent du défi d’assurer la compatibilité des logiciels et la facilité d’installation entre les différentes distributions. C’est là que Snap intervient », explique von Tetzchner.

Le fondateur, ancien d’Opera, rappelle que les snap s’exécutent en environnement bac à sable, apportant une couche supplémentaire de sécurité. Mais ce qui intéresse Vivaldi, c’est surtout qu’une fois le snap créé, il peut être distribué tel quel à toutes les distributions prenant le format en charge, Ubuntu en tête. Vivaldi a d’ailleurs intégré le dépôt principal Snapcraft.io.

Les utilisateurs ont-ils intérêt à passer par ce nouveau paquet ? Question de choix personnel, car les fonctions sont les mêmes. Le format snap est pratique, mais est contesté.

Des distributions comme Linux Mint, bien que basées sur Ubuntu, n’intègrent pas le support et ne permettent même pas de l’installer facilement. Mozilla, après avoir distribué Firefox en snap pendant des années, a provoqué une vague de soulagement en proposant aussi un paquet DEB.

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

☕️ #LIDD : une conférence sur « les évolutions rapides des technologies utilisées au quotidien »

20 septembre 2024 à 04:00
#LIDD : une conférence sur « les évolutions rapides des technologies utilisées au quotidien »

L’université de Lausanne a mis en ligne une vidéo sur YouTube d’une petite heure baptisée « Technologies d’hier et d’aujourd’hui », avec Thomas Souvignet, vice-directeur de l’École des Sciences Criminelles à l’Université de Lausanne (UNIL).

Cette conférence « a pour but de faire découvrir aux participants les évolutions rapides des technologies utilisées au quotidien. L’atelier transgénérationnel a permis aux participants de redécouvrir divers objets technologiques, avec des mises en œuvre pratiques pour les plus audacieux. Enfin, un parallèle a été établi entre ces découvertes et les pratiques des spécialistes en investigation numérique ».

☕️ #LIDD : le bullshitron, ou le paroxysme de l’IA disruptive

20 septembre 2024 à 04:00
#LIDD : le bullshitron, ou le paroxysme de l’IA disruptive

On connaissait déjà le Pipotron, mais bien évidemment l’intelligence artificielle est venue disrupter le domaine. Vous manquez d’inspiration pour excuse ou répondre à un email ? Voici le bullshitron : « Brille en réunion, épate tes boss, fait le Grand Sot », on apprécie le jeu de mot !

Un exemple (bon j’ai peut-être poussé le bouchon un peu trop loin) :

« En redéfinissant les paradigmes du future-proofing par une intégration native de l’IA quantique et des systèmes cyberphysiques autonomes, on déclenche une synergie infinie entre l’edge AI et la cryptographie homomorphique. L’idée, c’est d’opérer une fractalisation des processus métier via des interfaces neuronales directes, pour générer des micro-écosystèmes dynamiques en réalité hyper-augmentée. Le tout va s’intégrer dans une boucle de feedback bio-cybernétique optimisée par des jumeaux numériques réticulaires fonctionnant en mode full-stack neural ».

Le bullshitron est une application sur ChatGPT et nécessite un compte pour l’utiliser. Sur ce, je vous laisse car c’est bientôt l’heure du « break stratégique pour recharger les batteries et revenir avec une perspective renouvelée. Une bonne gestion du work-life balance est un levier sous-exploité pour optimiser notre productivité », bref le week-end.

Hier — 19 septembre 2024Next.ink

« Vraie 5G » en France : comment profiter de la 5G StandAlone

19 septembre 2024 à 15:21
Vivement la 5G+++ Ultra Advanced Max Prime Turbo
« Vraie 5G » en France : comment profiter de la 5G StandAlone

Maintenant que la 5G SA est une réalité pour certains clients du grand public (chez Free, sur les 3,5 GHz), plusieurs questions se posent. Quels sont les terminaux compatibles, sous quelles conditions peut-on en profiter, chez quels opérateurs, quelles sont les nouveautés ? On répond à toutes ces questions.

Coup sur coup, Free (hier matin) et Orange (hier après-midi) ont annoncé une évolution de leur réseau 5G, avec la 5G SA ou 5G StandAlone. La grosse différence avec la 5G actuelle, c’est que la 5G SA peut fonctionner sans avoir besoin d’un cœur de réseau 4G. Chez Orange, le discours commercial/marketing présente cela comme de la 5G+.

Chez Orange, la 5G SA sera assez restrictive au lancement puisqu’il faudra attendre le 10 octobre et souscrire à l’offre 5G+ Home. Il s’agit pour rappel uniquement des box 5G à domicile pour le fixe (à la place de la fibre ou du xDSL). Chez Free, c’est plus large et des clients mobiles peuvent en profiter dès à présent. La 5G SA est en effet disponible pour l’ensemble des clients du forfait Free 5G, mais sur la bande des 3,5 GHz seulement. Il faut aussi activer l’option dans l’espace client, ce n’est pas automatique.

Des dizaines de smartphones compatibles chez Free Mobile

Pour profiter de la 5G SA, il faut évidemment avoir un smartphone compatible. L’opérateur a mis à jour sa page d’assistance (merci SebDel71) sur les technologies prises en charge par les smartphones sur son réseau. En plus de la VoLTE (appels en 4G) et du VoWiFi (appels en Wi-Fi), on retrouve également des indications sur la prise en charge de la 5G SA et du VoNR. Le Voice over New Radio est l’équivalent de la VoLTE, mais sur la 5G.

Pour les iPhone, ça va aller vite : aucun modèle n’est compatible. Passons donc aux terminaux Android, avec une liste bien plus longue. On retrouve de nombreuses références chez Samsung et Xiaomi :

  • Asus Zenfone 9 : 5G SA
  • Honor 200 5G, Lite et Pro : 5G SA
  • Honor Magic 6 Lite et Pro : 5G SA
  • Motorola G34 : 5G SA et VoNR
  • Motorola Razr 50 : 5G SA
  • Motorola Razr 50 Ultra : 5G SA et VoNR
  • Nokia G42 : 5G SA et VoNR
  • Nokia X30 : 5G SA et VoNR
  • Nokia XR21 : 5G SA et VoNR
  • Nothing Phone 2a : 5G SA et VoNR
  • Samsung A13 5G, A14 et A15 : 5G SA et VoNR
  • Samsung A23 5G et A25 5G : 5G SA et VoNR
  • Samsung A33 5G, A34 et A35 : 5G SA et VoNR
  • Samsung A52 5G, A52 s, A53G, A54 et A55 : 5G SA et VoNR
  • Samsung M23 5G, M33 5G et M53 5G : 5G SA et VoNR
  • Samsung S21, S22, S23 et S24 (Fe, Plus, Ultra) : 5G SA et VoNR
  • Samsung X Cover 5, 6 Pro et 7 : 5G SA et VoNR
  • Samsung Z Flip 3 5G, 4 5G, 5, 5G et 6 : 5G SA et VoNR
  • Samsung Z Fold 2 5G, 3 5G, 4 5G, 5 et 6 : 5G SA et VoNR
  • TCL 50 5G : 5G SA et VoNR
  • Xiaomi 11, 11T, 12 5G, 12 Lite 5G, 12 Pro 5G : 5G SA
  • Xiaomi 12T Pro : 5G SA et VoNR
  • Xiaomi Mo 11, 11 Lite, 11 Ultra et 11e : 5G SA
  • Xiaomi Poco F5 Pro : 5G SA et VoNR

Qualcomm et MediaTek prêt depuis des années pour la 5G SA

Passons maintenant du côté des deux principaux fabricants de SoC pour smartphones : Qualcomm et MediaTek.


Il reste 67% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ RED by SFR informe ses clients d’une nouvelle fuite, avec une ribambelle de données

19 septembre 2024 à 15:06

La semaine dernière était classée noire au niveau des fuites de données : Boulanger, Cultura, DiviaMobilités, Truffaut, Cybertek et Grosbill (qui font partie du même groupe) ainsi que l’Assurance retraite. Après une petite accalmie, les affaires reprennent chez RED by SFR, la marque « low cost » de SFR.

Un email a été envoyé aux clients concernés : « Le 3 septembre dernier, SFR a détecté un incident de sécurité portant sur un outil de gestion de commandes de ses clients. Cet incident a entrainé un accès externe non autorisé à des données personnelles vous concernant ».

Bonjour @SFR,

Quelles sont les mesures que vous avez mises en place ?
"Exclusivement des données suivantes" y'a TOUTES mes données perso dedans ! Votre communication est lacunaire. #DataProtection #rgpd @CNIL pic.twitter.com/ESyj8p421Q

— rBarrat (@Davtux) September 19, 2024

La marque au carré rouge joue du sarcasme (enfin, on espère…) en expliquant que le périmètre concerne « exclusivement des données suivantes », comme si c’était une bonne nouvelle : nom, prénom, coordonnées, données contractuelles (type de forfait, contenu de la commande), IBAN, numéro d’identification du smartphone et de la carte SIM… excusez du peu.

SFR affirme qu’aucune autre donnée n’est concernée, comme le mot de passe, le « détail de vos appels et le contenu de vos SMS ». Encore heureux ! On se demanderait bien pourquoi un « outil de gestion de commandes » des clients aurait accès à de telles informations personnelles.

L’incident est clos, les « procédures d’authentification pour toute demande de modification de coordonnées de contact » ont été renforcées. La CNIL a été informée, comme la loi l’y oblige. Une plainte a aussi été déposée, affirme la société.

Selon l’expert en cybersécurité SaxX. sur X, cette fuite pourrait être celle révélée le 4 septembre. La chronologie des faits pourrait correspondre en tout cas. Le pirate revendiquait le vol des données de 50 000 clients, un chiffre à confirmer. Nous avons évidemment contacté Altice France afin de savoir combien de clients étaient concernés, que ce soit chez RED by SFR ou chez SFR en direct le cas échéant, mais sans réponse pour l’instant.

Toujours selon SaxX., qui écume les forums spécialisés, « 1,4 million de données de SFR » auraient été mises en vente en juillet de cette année.

☕️ DMA : l’Europe veut guider Apple vers une meilleure interopérabilité

19 septembre 2024 à 14:39

Décidément, la Commission européenne a du travail avec Apple. Dans un récent communiqué, elle annonce l’ouverture de deux procédures de spécification, en vue « d’aider Apple à se conformer à ses obligations en matière d’interopérabilité », en vertu du DMA.

L’article 8, paragraphe 2 de la loi sur les marchés numériques permet à la Commission de préciser les mesures qu’un contrôleur d’accès (« gatekeeper ») doit appliquer pour « assurer le respect effectif des obligations substantielles du DMA ». En l’occurrence, la Commission veut aider Apple à mettre en œuvre certains changements liés à l’interopérabilité d’iOS et iPadOS.

La première procédure porte sur la connectivité d’iOS, plus spécifiquement les caractéristiques et fonctionnalités utilisées « pour et par les appareils connectés ». Ces derniers comprennent les montres connectées, les écouteurs et autres casques de réalité virtuelle. La Commission compte donc intervenir pour préciser un certain nombre de points, notamment tout ce qui touche aux notifications, à l’appairage des produits et leur connectivité.

L’autre procédure « porte sur le processus mis en place par Apple pour traiter les demandes d’interopérabilité soumises par les développeurs et les tiers pour iOS et iPadOS ». La Commission veut s’assurer que ce processus est « transparent, rapide et équitable ». Objectif : que les développeurs concernés sachent où ils mettent les pieds.

La Commission se donne six mois pour préparer ses observations et instructions. Au terme de ce délai, elle publiera un rapport préliminaire pour exposer ses conclusions et mesures envisagées, afin que les tiers concernés puissent faire remonter leurs observations.

« Aujourd’hui, c’est la première fois que nous utilisons les procédures de spécification dans le cadre du DMA pour guider Apple vers le respect effectif de ses obligations en matière d’interopérabilité par le biais d’un dialogue constructif », a indiqué Margrethe Vestager, commissaire chargée de la concurrence. « Ce processus apportera de la clarté aux développeurs, aux tiers et à Apple ».

Microsoft, Blackrock et Abu Dhabi veulent mobiliser 100 milliards de dollars pour l’IA

19 septembre 2024 à 14:30
Microsoft, Blackrock et Abu Dhabi veulent mobiliser 100 milliards de dollars pour l’IA

Microsoft, BlackRock et MGX, fonds d’investissement adossé aux Émirats arabes unis, ont annoncé mardi le lancement d’une initiative commune, « GAIIP », destinée à financer les infrastructures informatiques et énergétiques dédiées à l’intelligence artificielle. Les trois partenaires prévoient de réunir 30 milliards de capitaux propres, pour mobiliser jusqu’à 100 milliards de dollars à destination de projets essentiellement localisés sur le sol américain.

Mardi, Microsoft et son compatriote BlackRock, premier gestionnaire d’actifs financiers au monde, ont annoncé le lancement d’une initiative conjointe avec GMX, l’un des fonds souverain des Émirats arabes. Les trois sociétés s’associent autour d’un nouveau véhicule financier dédié à l’investissement dans les centres de données, et dans l’ensemble des infrastructures nécessaires à leur fonctionnement.

Baptisé GAIIP, pour Global AI Infrastructure Investment Partnership, ce fonds, ouvert à de nouveaux partenaires, ambitionne d’atteindre rapidement une enveloppe de 30 milliards de dollars. Chacun des trois fondateurs y participe directement, dans des proportions qui n’ont pas été précisées.

30 milliards pour en mobiliser 100

Pourquoi un tel véhicule, alors que Microsoft et tous les grands acteurs du cloud ou de l’informatique investissent déjà lourdement en nom propre ? À plus forte raison quand il existe des fonds spécialisés tels que l’américain Global Infrastructure Partners (100 milliards de dollars d’encours), dont BlackRock bouclera bientôt l’acquisition ? « Les investissements nécessaires à l’infrastructure dédiée à l’IA et aux nouvelles sources d’énergie pour l’alimenter dépassent les moyens financiers d’une entreprise ou d’un gouvernement », répond Brad Smith, président de Microsoft, dans un communiqué conjoint.

Pour les trois partenaires, les 30 milliards de dollars visés par le fonds GAIIP permettront, avec le concours de la dette bancaire, des subventions et des investissements extérieurs, de mobiliser jusqu’à 100 milliards de dollars autour des sujets IA. Une manne dont la dimension stratégique et géopolitique est clairement assumée. « Ces investissements dans les infrastructures seront principalement réalisés aux États-Unis, alimentant l’innovation en matière d’IA et la croissance économique, et le reste sera investi dans les pays partenaires des États-Unis », indiquent les fondateurs.

S’ils sont fléchés sur le plan géographique, les investissements se veulent agnostiques sur le plan technologique, au service d’une « architecture ouverte et d’un large écosystème ». Si son nom n’est pas (encore ?) cité au rang des investisseurs, NVIDIA s’affiche par ailleurs, sans surprise, en soutien de la démarche.

Alors que le Chili s’inquiète des conséquences sur l’approvisionnement en eau d’un projet de centre de données porté par Google, et que la grogne monte dans certains États américains quant à la concurrence que font peser ces infrastructures sur l’alimentation électrique générale, les fondateurs du fonds GAIIP ne précisent pas leur stratégie en matière d’énergies, avançant simplement des investissements dans des projets « durables ».

Course à l’armement

Cette nouvelle initiative illustre les deux volets, financiers et géopolitiques, de la course à l’armement qui anime le marché des infrastructures informatiques. D’un côté, les investissements et les opérations de concentration se multiplient, aux États-Unis comme dans le reste du monde. Rien qu’en 2024, Microsoft a annoncé des enveloppes qui se comptent en milliards de dollars pour des projets de centres de données répartis dans une dizaine de pays à la surface du globe. Amazon, qui n’a de cesse d’étendre ses capacités aux États-Unis, vient de chiffrer à près de 10 milliards d’euros ses futurs projets au Royaume-Uni. Equinix, poids lourd de location, affiche quant à lui la bagatelle de 54 projets « majeurs » en cours de construction dans 24 pays différents.

Une frénésie qui ne concerne d’ailleurs pas que les acteurs américains. Iliad, maison mère de l’opérateur Free, a ainsi dévoilé au printemps dernier un plan d’investissement à hauteur de 2,5 milliards d’euros sur dix ans pour ses centres de données européens. « La mobilisation de capitaux privés pour construire l’infrastructure nécessaire à l’IA ouvrira une opportunité d’investissement à long terme de plusieurs milliers de milliards de dollars », veut croire Larry Fink, CEO de BlackRock.

Quelle force de frappe pour l’Europe ?

Si le rythme des investissements s’intensifie, c’est aussi parce que le contexte est particulièrement favorable aux soutiens étatiques. Aux États-Unis, où le Chips Act, loi en faveur de la souveraineté dans la production de semi-conducteurs, vient par exemple de jouer un rôle non négligeable dans les récentes orientations stratégiques du géant Intel, au détriment du propre Chips Act européen. La France cultive elle aussi soigneusement son attractivité en la matière, et n’hésite pas à mettre la main au porte-monnaie pour fédérer des projets d’infrastructures informatiques. En mai dernier, Microsoft a ainsi annoncé 4 milliards d’euros d’investissement « au service de l’intelligence artificielle » dans l’Hexagone, qui n’auraient pas été validés sans un geste de soutien significatif.

Dans ce contexte, de quelle force de frappe se dotera l’Europe ? La position en la matière de la Commission européenne, qui vient tout juste d’installer ses nouveaux commissaires, est particulièrement attendue. À plus forte raison quand le récent rapport Draghi sur l’avenir de la compétitivité européenne pointe du doigt le retard pris par le Vieux continent en matière de cloud, faute d’investissements suffisamment « massifs et continus ».

☕️ Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

19 septembre 2024 à 14:16
Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

Comme l’explique la revue Nature, le CERN se prépare à expulser les chercheurs affiliés à des institutions russes le 30 novembre. Pour continuer à travailler avec le centre de recherche européen, ces scientifiques doivent trouver une affiliation qui ne soit pas en lien avec la Russie.

L’institution de recherche européenne avait déjà décidé, dès mars 2022 de suspendre le statut d’observateur de la Russie suite à l’invasion de l’Ukraine. Mais des accords de coopération étaient encore en cours. Le CERN avait déjà prévenu qu’il ne les renouvellerait pas.

Mais Nature explique que la relation du CERN avec la Russie est plus compliquée puisque l’organisation européenne « continuera de travailler avec des scientifiques basés en Russie dans le cadre d’un accord avec le Joint Institute for Nuclear Research (JINR), un centre intergouvernemental situé à Dubna, près de Moscou ». Et cet accord n’est pas le même que celui signé avec la Russie. La revue scientifique raconte que cette décision de continuer de travailler avec le JINR et donc de respecter la date de fin de cet accord divise les chercheurs de l’institution.

Pour le chercheur Borys Grynyov, qui représente l’Ukraine au conseil du CERN, c’est une « grave erreur ». Mais la revue rappelle que le CERN est aussi un symbole de coopération scientifique important, puisqu’il a commencé à collaborer avec l’URSS en 1955 et que de nombreux chercheurs russes ont utilisé le Grand collisionneur de hadrons (LHC).

Fedora 41 bêta : une version riche en évolutions techniques et désormais sans X11

19 septembre 2024 à 13:53
Chapeau bas
Fedora 41 bêta : une version riche en évolutions techniques et désormais sans X11

La bêta de Fedora 41 est disponible au téléchargement. Elle comporte d’importants changements sous le capot, en plus du nouveau noyau 6.11 et d’un GNOME 47 qu’elle sera la première à utiliser. Outre une modernisation générale des paquets et la disponibilité de DNF 5, Fedora 41 introduit un nouveau Spin (variante) basé sur Mir et nommé Miracle.

L’arrivée d’une nouvelle Fedora est toujours un « évènement ». Il s’agit du laboratoire à ciel ouvert de Red Hat et la distribution Linux est souvent la première à adopter les technologies sur lesquelles travaille l’éditeur. Longtemps avant tout le monde, dès Fedora 25 (en 2016), le serveur d’affichage Wayland a ainsi été adopté par défaut. L’arrivée d’une nouvelle version est donc toujours à suivre de près, car elle permet d’observer les grandes tendances technologiques dans Linux, du moins pour la plupart des distributions, y compris Ubuntu.

Fedora 41 n’échappe pas à la règle. Après une mouture 40 relativement sage, la nouvelle propose de nombreux changements, la plupart importants et sous le capot. Nous allons surtout nous attarder sur la version Workstation, basée sur GNOME.

Un noyau 6.11 rouillé

Première évolution notable, le noyau 6.11, sorti il y a quelques jours à peine. La plupart des améliorations concernent le support matériel. On y trouve par exemple la prise en charge des puces Bluetooth/WLAN pour les plateformes Qualcomm, un nouveau type de mappage permettant au noyau de supprimer des pages à la volée quand la pression sur la mémoire se fait trop forte, le support du hotplug pour le processeur virtuel sur les systèmes ACPI AArch64, la gestion du CCPC (Collaborative Processor Performance Control) rapide dans le pilote amd-pstate cpufreq, etc.

Le noyau Linux 6.11 introduit également plusieurs nouveautés liées au langage Rust, dont l’inclusion provoque des remous chez les développeurs. Linus Torvalds s’est d’ailleurs récemment exprimé à ce sujet. On y trouve ainsi l’ajout d’une version minimale de la chaine d’outils, le support des pilotes de blocs écrits en Rust, ainsi que des abstractions Rust pour le chargement de microprogrammes.

GNOME 47 et ses multiples changements

Autre grosse évolution apportée par Fedora 41, GNOME 47, dont la version finale est sortie hier. Nommée « Denver », elle présente une longue liste de nouveautés. La personnalisation de la couleur d’accentuation est ainsi enfin gérée dans l’environnement, avec une présentation rappelant largement ce qu’Ubuntu permet depuis longtemps.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌
❌