Vue lecture

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

Il est pas frais mon poisson ?
Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.

L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.

C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.

Le bon moment pour vendre ?

La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.

Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…

L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…

Un marché déjà en ébullition

Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.

En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.

En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.

L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.

Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Bubble or not?
Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Microsoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.

Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.

Espoirs douchés dans le Nord

La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intension aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.

Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.

De Quaëdypre à Jakarta

Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).

En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.

Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.

L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.

Tout va bien d’après Microsoft

Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :

« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».

Microsoft, une boussole du marché de l’IA ?

Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.

Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?

Batterie externe : attention à « l’arnaque » des mAh

Non, je ne ferai pas un T@LC de ton dessin @Flock !
Batterie externe : attention à « l’arnaque » des mAh

Votre smartphone a une batterie de 4 000 mAh et vous pensez qu’avec une batterie externe de 20 000 mAh, vous allez pouvoir le charger cinq fois ? Oubliez tout de suite, ce ne sera jamais le cas. Le problème ne vient pas que des pertes, mais de l’imprécision des mAh dans ce genre de situation (et ce n’est pas toujours mieux avec les Wh), on vous explique.

Dans un précédent article, nous avons posé les bases du fonctionnement du courant électrique, en expliquant notamment ce qu’étaient les mAh et les Wh. Aujourd’hui, nous allons nous attarder un peu plus sur les mAh (milliampère heure), une unité de charge électrique.

Petit rappel sémantique : l’Ah (ampère heure) n’est pas dans le Système international, mais cette unité est tout de même largement utilisée, d’autant qu’elle est en lien direct avec une autre unité du SI cette fois : le Coulomb, en hommage au physicien Charles-Augustin Coulomb. Larousse précise que 1 C est « équivalant à la quantité d’électricité transportée en une seconde par un courant d’un ampère ». Avec 3 600 secondes dans une heure, 3600 coulombs valent donc 1 Ah. Simple et il n’y a pas de piège.

Quand les Ah se marient avec les V, cela donne des Wh

Revenons aux Ah, qui permet donc de mesurer une quantité de charges électriques, ni plus ni moins. Il ne faut pas confondre les Ah avec le Wh (watt-heure) qui est une unité d’énergie, on parle de quantité d’énergie stockée. Il existe néanmoins une relation très simple entre Ah et Wh : Ah x V = Wh.

En clair, pour passer d’une quantité de charges électriques (Ah) à une quantité d’énergie (Wh), on multiplie le premier élément par la tension (V pour Volt). Corollaire, connaitre les Ah d’une batterie ne permet pas de déduire sa « capacité » en Wh si on ne connait pas sa tension.

Une batterie de 10 000 mAh sous 3,7 volts donnera 37 Wh. Une batterie de 10 000 mAh sous 5 volts donnera 50 Wh. Avez-vous remarqué que nous avons répété deux fois la phrase, sans mettre un « ou » pour passer de 3,7 à 5 volts ? Il y a une raison : on ne crée pas de la « capacité » simplement en augmentant la tension (cela se saurait, croyez-moi…).

On simplifie par l’exemple, avec une batterie de 20 000 mAh

Prenons un exemple concret d’une batterie externe de 20 000 mAh que nous utilisons lors de déplacements. Cela veut-il forcément dire que l’on a 100 Wh avec une tension de 5 volts (20 000 mAh x 5 volts) ? Bien évidemment… que non. Il faut regarder le détail (s’il est donné).

Dans notre cas, c’est 20 000 mAh sous 3,6 volts, soit 72 Wh. Le fabricant donne une autre valeur : 5 000 mAh sous 14,4 volts, soit toujours 72 Wh, jusqu’ici tout va bien. Les 14,4 volts ne sont pas choisi au hasard : c’est exactement 4x 3,6 volts, ce qui permet de garder un rendement maximal et donc d’arriver de nouveau à 72 Wh.

20 000 mAh pour 52 à 72 Wh selon les cas

Sur la boite de la batterie, d’autres valeurs sont données : 12 817 mAh sous 5 volts et 2 606 mAh sous 20 volts, soit respectivement 64 et 52 Wh. La perte est donc quasiment de 30 % dans ce dernier cas. Voici un résumé des chiffres annoncés par le fabricant :

  • 20 000 mAh avec 3,6 volts soit 72 Wh
  • 12 681 mAh avec 5 volts, soit 64 Wh
  • 5 000 mAh avec 14,4 volts, soit 72 Wh
  • 2 606 mAh avec 20 volts, soit 52 Wh

Problème, ces informations ne sont pas du tout présentes sur la fiche du revendeur chez qui nous l’avons achetée. Il est simplement précisé 20 000 mAh et 74 Wh… Oui 74 Wh, alors que le produit que nous avons reçu n’en affiche que 72 Wh. La raison : sur la fiche du revendeur, la tension prise en compte pour calculer les Wh est de 3,7 volts.

Il faudrait plus de transparence de la part des fabricants

Si vous souhaitez savoir combien de fois vous pouvez charger un smartphone et/ou un ordinateur, il faut donc regarder la tension de charge pour connaitre les Wh et comparer à ceux de vos terminaux mobiles. Si vous utilisez la batterie pour charger un ancien smartphone qui ne prend que du 5 volts, alors vous avez 64 Wh. Pour un ordinateur en 20 volts, on descend à 52 Wh. Si par contre votre machine est en 14,4 volts, alors vous avez droit au maximum : 72 Wh.

Communiquer uniquement sur les mAh est trompeur… comme le serait finalement la seule communication des Wh. Dans les deux cas, il faudrait toujours préciser la tension associée. Il faudrait que les fiches produits soient bien plus détaillées, avec au minimum les Wh en fonction de plusieurs tensions différentes, surtout pour des batteries Power Delivery, avec une plage de fonctionnement généralement comprise entre 5 et 20 volts (jusqu’à 48 volts dans la version 3.1).

Bref, on a commandé une batterie de 20 000 mAh et 74 Wh, pour se retrouver avec une 20 000 mAh et 72 Wh, mais « seulement » 52 Wh pour recharger notre ordinateur portable en 20 volts. Si ce dernier point est assez logique, nous n’avions pas moyen de connaitre cette valeur avant de passer commande, dommage.

Et encore, on parle ici de capacité théorique, dans la pratique, il y a toujours des pertes supplémentaires à prendre en compte. C’est parfaitement logique, mais à considérer lorsqu’il s’agit de choisir une batterie externe, surtout si vous avez besoin d’une quantité minimum de mAh/Wh.

100 Wh max en avion, ça fait combien de mAh ? Ça dépend…

Dans les avions, la limite pour embarquer une batterie est fixée en Wh, pour toutes les raisons que nous venons de détailler. Air France rappelle que les « batteries de rechange et batteries externes de moins de 100 Wh » peuvent être embarqué en cabine (mais pas en soute), sans accord préalable, alors que ce dernier sera nécessaire pour une batterie entre 100 et 160 Wh.

On parle aussi parfois de batterie de 27 000 mAh maximum pour une simple raison : les batteries lithium ont une tension de 3,6 ou 3,7 suivant les technologies, soit un maximum de… 99,9 Wh en 3,7 volts, juste en dessous des 100 Wh.

Mais là encore, ce n’est pas une règle et seuls les Wh comptent. Par exemple, Anker propose une batterie de 27 650 mAh et affirme qu’elle « répond aux exigences de la TSA (< 100 Wh) pour être emportée dans les avions comme bagage à main ». Le fabricant annonce, en effet, une capacité de 99,54 Wh, signifiant que la tension de base de la batterie est de 3,6 volts.

☕️ #LIDD : « Le Big Bang à portée de téléscope »

« Campagnes d’observation « grand format », méthodes d’analyse des données novatrices, développements théoriques tous azimuts » : le Journal du Centre national pour la recherche scientifique revient sur la nouvelle « ère de précision » de l’astrophysique et de la cosmologie. Elles permettraient de « percer tous les mystères du cosmos. Y compris celui de ses origines », c’est-à-dire le Big Bang.

Il y a tout d’abord le nouveau catalogue Cosmicflow (.pdf), avec la position et la vitesse de 56 000 galaxies, qui a permis de « cartographier les bassins d’attraction gravitationnelle de notre univers proche ». Les analyses semblent confirmer le modèle cosmologique standard : « il y a 13,8 milliards d’années, notre Univers a émergé d’un état extrêmement chaud et dense qui, sous l’effet de l’expansion, s’est ensuite refroidi et structuré, laissant petit à petit apparaître le gigantesque réseau de galaxies que l’on peut observer aujourd’hui ».

Euclid espace
Voie lactée et galaxies voisines par le satellite Gaia

Les scientifiques cherchent aussi à cartographier l’univers local en étudiant la vitesse d’un échantillon de Galaxie. Problème, il y a de très nombreux paramètres et hypothèses à confirmer. Les chercheurs utilisent donc une méthode d’inférence probabiliste : « Fondée sur l’intelligence artificielle, elle consiste à engendrer numériquement d’innombrables configurations et à assortir chacune d’elles d’une probabilité de compatibilité avec les observations ».

Le CNRS s’attaque ensuite aux paramètres du modèle standard, à l’inflation de l’Univers, aux soubresauts quantiques, à la toile cosmique et à la recherche du fond diffus gravitationnel. Un long format à lire pour les amateurs d’astronomie et d’origines de l’Univers.

Pourquoi le géant maritime français CMA CGM investit autant dans l’IA

Et les Mistral Gagnants
Pourquoi le géant maritime français CMA CGM investit autant dans l’IA

CMA CGM tire tous azimuts sur l’intelligence artificielle. L’armateur de porte-containers français vient d’investir 100 millions d’euros dans la start-up française Mistral, avec qui il travaillait déjà. Mais cela n’a rien d’exclusif : CMA CGM exploite aussi les algorithmes d’OpenAI, Google, Microsoft, Salesforce… comme nous l’expliquait Séverine Grégoire.

Hier, le géant français du transport maritime CMA CGM et la start-up française d’intelligence artificielle Mistral ont annoncé un partenariat de 100 millions d’euros, comme le rapporte Reuters. Rodolphe Saadé, patron de l’armateur, s’intéresse depuis longtemps à l’intelligence artificielle. Fin 2023, il lançait Kyutai avec deux partenaires de choix : Xavier Niel et Eric Schmidt (ancien patron de Google).

Un partenariat sur cinq ans, avec un accent sur la partie média

« Ce partenariat sur cinq ans se concentrera en particulier sur la branche « médias » du conglomérat [suite au rachat de la branche média d’Altice, ndlr], qui détient la chaîne de télévision BFM TV ou le journal La Tribune, ainsi que sur le service client des activités logistiques et maritimes du groupe », expliquent nos confrères. Pour la partie média, il sera notamment question de « la vérification des faits ».

Dans le cadre de ce partenariat, des « employés de Mistral travailleront au siège de CMA CGM à Marseille ». Le groupe possède dans ses locaux un incubateur de start-up sur l’IA : Ze Box. Ce n’est pas la première fois que CMA CGM se lance dans l’IA, elle l’utilise depuis longtemps pour la gestion de sa flotte et de ses équipes.

CMA CGM a déjà un partenariat de cinq ans avec Google

Nous avions rencontré à Marseille Séverine Grégoire (responsable du département IA chez CMA CGM) fin janvier pour une présentation des travaux de l’armateur de porte-conteneurs. Elle expliquait que la roadmap du groupe sur l’intelligence artificielle tournait « autour de trois piliers principaux que sont les opérations, les clients et évidemment les collaborateurs ».


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Avec iOS 18.4, d’anciennes applications supprimées réapparaissent

L’arrivée d’iOS 18.4 a sonné en Europe le top départ pour le bouquet de services Apple Intelligence. Il s’agit de l’une des mises à jour intermédiaires les plus touffues jamais proposées pour iPhone. Du moins pour les personnes ayant un modèle compatible, car l’IA de la pomme est réservée aux modèles les plus récents : iPhone 15 Pro et tous les iPhone 16 (classique, Pro et 16e).

Comme signalé par MacRumors, de nombreux fils de discussion sont apparus sur Reddit (ici, , ou encore ) ainsi que sur les propres forums d’Apple pour évoquer un drôle de souci : d’anciennes applications supprimées sont de retour.

L’origine du problème n’est pas encore comprise, mais il s’agit probablement d’un bug introduit par le système. Les applications réinstallées avaient été supprimées il y a plusieurs mois, voire il y a plusieurs années. Le problème ne semble pas une conséquence de la fonction Téléchargements automatique, qui permet normalement de répercuter les installations faites sur d’autres appareils. Des utilisateurs affirment ainsi que leur iPhone est le seul appareil Apple qu’ils possèdent.

Au sein de l’équipe, nous avons pu observer ce comportement sur un appareil : deux applications supprimées il y a longtemps, réinstallées et présentes dans le dossier « Ajouts récents ». Sur d’autres iPhone de la rédaction, tout semblait normal.

Précisions que l’appareil concerné n’est pas jailbreaké et n’a jamais utilisé de boutique alternative. Il a été utilisé pour tester les bêtas d’iOS 18.4 et le problème ne s’est manifesté qu’en fin de cycle, avec la première Release Candidate ou la version finale. Il ne semble cependant pas lié à la phase bêta, car les témoignages évoquent principalement l’installation de la mise à jour en usage courant.

Quoi qu’il en soit, le problème n’est pas très grave, puisqu’il suffit de supprimer les quelques applications éventuellement de retour. Il faut simplement jeter un œil et vérifier que de vieux fantômes ne sont pas revenus hanter votre téléphone.

France Télévisions : l’audiovisuel public face aux défis de l’IA générative

Smart TV
France Télévisions : l’audiovisuel public face aux défis de l’IA générative

Déployé dans les prochains jours, le portail medIAgen permettra bientôt aux quelque 9 000 salariés du groupe France Télévisions d’utiliser l’intelligence artificielle générative dans leurs travaux quotidiens. L’occasion d’essayer de mieux comprendre comment, et pourquoi, l’audiovisuel public aborde le sujet de l’IA, entre enjeux d’usages, de coûts et de responsabilités…

En gestation depuis deux ans, le projet s’apprête à être déployé à grande échelle au sein du groupe France Télévisions. « L’ensemble des salariés auront accès à un portail dans lequel ils pourront utiliser gratuitement Mistral, Claude, Llama ou ChatGPT dans leur dernière version en date, avec la garantie que les données qu’ils soumettront ou les documents qu’ils uploaderont resteront uniquement au niveau de leur compte personnel », explique à Next Frédéric Brochard, directeur des technologies de France Télévisions.

Bientôt une IA générative pour tous les salariés

Ce projet, baptisé medIAgen, constitue la réponse de l’audiovisuel public face à la vague des usages grand public associés à l’intelligence artificielle, intervenue depuis le lancement de ChatGPT fin 2022. « On voit déjà en interne qu’une part significative de trafic pointe vers les solutions d’IA générative, or comme toutes les entreprises, nous faisons face à des problématiques de coûts et de sécurité. On ne peut pas laisser fuiter nos données internes et il n’est pas possible de prendre une licence individuelle à ChatGPT pour tout le monde. Nous avons donc pris le parti de proposer un accès sécurisé, avec une solution dont le coût va se révéler inférieur à 5 ou 6 euros par individu, alors qu’on donne accès en illimité à quatre LLM », précise Romuald Rat, directeur du Techlab de France Télévisions.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Donald Trump accorde de nouveau 75 jours pour la vente TikTok

Fin janvier, dans les premières heures suivant son investiture, Donald Trump signait un décret pour accorder 75 jours afin de mettre en place la vente ou l’interdiction de TikTok. Le 47ᵉ président des États-Unis vient d’accorder de nouveau 75 jours à la plateforme.

Il affirme que son administration a « fait d’énormes progrès » dans ce dossier, mais qu’un accord « nécessite plus de travail pour s’assurer que toutes les approbations nécessaires sont signées ». « Nous espérons continuer à travailler de bonne foi avec la Chine, qui, je le comprends, n’est pas très satisfaite de nos tarifs réciproques », ajoute le président. La Chine a pour rappel répondu du tac au tac avec 34 % de taxe sur les importations des États-Unis.

« Nous ne voulons pas que TikTok disparaisse », réaffirme Donald Trump. Plusieurs personnalités et sociétés sont sur les rangs, résume le Parisien : « le « Project Liberty » de l’entrepreneur Frank McCourt, propriétaire de l’Olympique de Marseille, le youtubeur MrBeast ». Citons également Perplexity AI, Amazon, Blackstone, Microsoft, Walmart…

TikTok

☕️ Le gestionnaire de paquets APT 3.0 est disponible avec sa nouvelle interface

La version 3.0 du gestionnaire de paquets APT est désormais disponible. Annoncée par le projet Debian, elle propose une nouvelle interface se voulant nettement plus lisible que celle disponible jusqu’à présent.

APT 3.0 se distingue en particulier par son affichage en colonnes et son utilisation des couleurs. En rouge, par exemple, toutes les suppressions, et en vert les ajouts. La barre de progression est elle aussi révisée, avec un fonctionnement plus souple et l’utilisation d’Unicode.

APT 2.8 à gauche, APT 3.0 à droite

La nouvelle mouture ne revoit pas que sa lisibilité. On y trouve de nouvelles fonctions, comme un solveur permettant de revenir à des versions stables des paquets (via –solver), un autoremove plus efficace, le support de –target-release, une option –comment pour l’historique, la prise en charge des miroirs non compressés pour les miroirs partiels, le calcul correct de la taille du noyau dans /boot, le remplacement de GnuTLS et gcrypt par OpenSSL, ou encore le support des transactions et du comptage des mises à jour pour pkgDepCache.

On se souvient qu’APT 3.0 était présent dans Ubuntu 24.10, mais il s’agissait d’une préversion. Cette version finale devrait être graduellement disponible sur toutes les distributions basées sur Debian et Ubuntu. APT 3.0 sera présent dans Debian 13 et Ubuntu 25.04.

☕️ Tails 6.14.1 apporte un peu de souplesse à Tor Browser sur la gestion des fichiers

Nouvelle mouture pour la distribution Linux centrée sur la sécurité et la vie privée. Une version 6.14.1 qui peut surprendre, car la 6.14 n’a pas été publiée. L’équipe de développement s’en explique dans un billet, indiquant qu’un problème important a été découvert à la dernière minute, nécessitant un correctif.

Tails 6.14.1 se distingue surtout par un changement notable dans le navigateur Tor Browser. La technologie de confinement utilisée pour la sécurité est désormais plus souple. Ainsi, plutôt que de limiter l’écriture des fichiers dans le seul dossier Téléchargements et la lecture à quelques répertoires, les accès peuvent se faire maintenant sur l’ensemble des dossiers.

L’équipe indique que cette amélioration est permise par XDG Desktop Portal, qui fournit un accès à des fonctions standards d’un système comme les fenêtres de dialogue pour les fichiers, le presse-papiers ou encore l’ouverture des liens. Dans le cas présent, ce framework est utilisé pour Flatpak au sein de Tails, autorisant un « relâchement » du confinement opéré par AppArmor.

La nouvelle version corrige également deux problèmes d’accessibilité dans Tor Browser, qui empêchaient d’utiliser les fonctions de texte et de curseurs agrandis.

#Flockotron3000 : vos chefs-d’œuvre disponibles !

FaaS : Flack as as Service
#Flockotron3000 : vos chefs-d’œuvre disponibles !

Autant vous le dire tout de suite, le Flockotron3000 a beaucoup souffert mardi dernier et je ne sais pas si je dois remercier votre enthousiasme débridé. J’étais parti chez moji pour cramer cette infamie technique et voilà que je constate comme Sam Altman chez lui, que vous avez fait fondre les cartes graphiques sur place ! J’ai essayé d’éteindre l’incendie avec le jerrican d’essence que j’avais dans les mains, sans succès.

Faut dire qu’il était peu rempli, j’avais tenté juste avant de siphonner la voiture électrique du boss et j’ai vu quelques étoiles ! Les pompiers ont été sympas, en plus de me réanimer, ils ont sauvé quelques « dessins » qui bourraient l’imprimante, comme une Chouffe triple fermentation le ferait pour le gosier d’un dev local.

Tous vos prompts sont partis en fumée, sauf une petite dizaine, ce qui est déjà dix fois trop. J’avoue que je ne sais que penser de vos tentatives, qui parfois se sont mélangées : vous êtes capables du meilleur comme du pire !

C’est un scandale, encore merci et bravo, je ne vous félicite pas, bisous et bon weekend ! 🙂


Il reste 89% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

L’agence américaine NOAA, qui a en charge notamment des données sur le climat et la météorologie, s’apprête à supprimer une quantité importante de sites internet via une simple annulation d’un contrat avec des hébergeurs cloud.

Mise à jour du 7 avril : alors que la menace d’une disparition de plusieurs sites de la NOAA planait le week-end dernier, ceux-ci sont encore disponibles. L’agence a finalement affirmé à Bloomberg qu’ « il n’y aura pas d’interruption de service » et que « tous les sites de recherche de la NOAA resteront en ligne ». Selon Axios, l’arrêt du contrat avec AWS a été repoussé au 31 juillet 2025, ce qui doit permettre à l’agence de trouver une solution de repli.

Article originel publié le 4 avril à 17h28 :

De nombreux sites de la NOAA, l’agence d’observation océanique et atmosphérique qui s’occupe aussi des données météorologiques aux États-Unis, vont sans doute devenir inaccessibles dès ce week-end. En cause ? Un contrat de prestations d’hébergement dans divers cloud a été annulé par sa direction, selon Bloomberg.

Cette agence est, comme de nombreuses agences fédérales américaines et notamment les agences scientifiques, visée par le DOGE et l’administration de Donald Trump depuis son retour au pouvoir. Elle s’est déjà séparée de certains de ses locaux et par deux fois d’une partie de son personnel.

Elle semble aussi particulièrement visée pour son rôle extrêmement important dans l’information sur le climat et la météorologie. Bloomberg explique qu’un contrat signé pour l’ensemble du bureau de la recherche océanique et atmosphérique de l’agence a été visé pour une « résiliation anticipée », selon des documents internes que le média a pu consulter.

Les services d’Amazon, de Google et de WordPress sur le point d’être coupés

« En conséquence, la quasi-totalité des sites web externes dépendant des services d’Amazon, de Google et de WordPress sont sur le point de disparaître tôt samedi matin à Washington, effaçant ainsi de la vue du public l’essentiel du travail de l’unité, qui comprend la recherche en sciences du climat et de l’environnement », explique notre consœur Lauren Rosenthal. La NOAA n’a pas répondu à sa demande de commentaire.

Cette information fait mouche avec une alerte lancée sur le forum du projet Safeguarding Research & Culture. Celui-ci émane de la volonté de certains chercheurs, notamment l’historien allemand Henrik Schönemann de l’université de Humboldt à Berlin, de créer « une infrastructure alternative pour l’archivage et la diffusion du patrimoine culturel et des connaissances scientifiques ». L’alerte concerne une cinquantaine de sites de la NOAA et on y retrouve rien de moins que le site de l’agence dédié à la recherche : https://research.noaa.gov/.

« Ce qui est prévu d’être supprimé, ce sont les services basés sur AWS pour la NOAA », expliquent les chercheurs, évoquant une mise hors-ligne dès ce vendredi soir. Mais des questions se posent aussi sur les données ouvertes hébergées elles aussi sur AWS.

Selon une note interne obtenue par Bloomberg, la résiliation du contrat pourrait aussi affecter d’autres activités de recherche de l’agence : le laboratoire qui surveille les tempêtes « violentes » pour le pays (le National Severe Storms Laboratory) et celui chargé de l’innovation en climatologie (le Earth Prediction Innovation Center) utilisent des services de cloud computing externes pour un système de prévisions météorologiques à grande échelle.

Le réseau national de l’agence menacé aussi

Les chercheurs de l’agence ont d’autres raisons d’être préoccupés : deux autres contrats arrivent à leur fin concernant le support de N-Wave, son réseau national qui « s’étend sur toute la zone contiguë des États-Unis jusqu’à l’Alaska et Hawaï, atteignant les sites de terrain éloignés, les grands campus, les centres de données et les installations de supercalculateurs ». Ils sont déjà sous le coup d’une extension très brève de cinq jours qui doit se terminer samedi pour l’un et lundi pour l’autre, selon Bloomberg.

☕️ Amazon teste un agent IA pour acheter des produits sur d’autres sites

Amazon a présenté hier soir une fonction nommée « Buy for me », destinée à simplifier encore un peu plus les achats. Contrairement à d’autres agents IA que l’on a pu voir jusqu’à présent, notamment chez Opera, il n’est pas question cette fois d’écrire une demande et de laisser l’intégralité du processus de découverte et d’achat à un agent.

Cette fonction, disponible en bêta pour un petit groupe de personnes aux États-Unis, a un périmètre nettement plus restreint. Comme l’indique Amazon dans son billet, « Buy for me » veut simplifier les achats pour des produits présentés par la boutique Amazon, mais disponibles depuis d’autres, notamment les sites officiels des entreprises concernées.

La fonction, présente dans les applications Android et iOS, s’affiche sous forme d’un bouton dédié, accompagnant certains résultats. S’il est actionné par l’internaute, il lance une procédure d’achat sur le site officiel du fabricant, de manière automatisée.

Mais si cette fonction est plus restreinte dans ses cas d’usage, elle demande une grande confiance en Amazon. Car contrairement à ce que l’on a déjà pu voir, c’est toute la procédure d’achat qui se retrouve gérée par l’agent, y compris le paiement. Ce qui suppose que l’IA accède aux informations de la carte bancaire. L’achat est considéré comme externe. « La livraison, les retours et les échanges, ainsi que le service client sont gérés par la boutique de la marque », précise Amazon.

Le géant du commerce en ligne précise dans son billet que ces opérations sont chiffrées et qu’il n’accède pas aux données des autres sites. Il affirme qu’il ne tient aucun historique de ces actions et qu’il s’agit simplement d’apporter une commodité. En outre, la présence de cette fonction sur des produits se fait à la demande des fabricants et Amazon assure que les clients peuvent observer toutes les étapes d’un processus décrit comme « transparent ». Le tout repose sur Amazon Bedrock et utilise le modèle Nova maison, ainsi que les modèles Claude d’Anthropic (dont la version 3.7 est sortie fin février), sans plus de précision.

« Gagner la confiance est la pierre angulaire du succès des agents d’IA », déclare Amazon dans son billet. À voir désormais si la clientèle se laissera séduire par un processus automatisé impliquant des informations bancaires. Ajoutons que ce n’est pas la première fois qu’Amazon tente ce type d’approche automatisée. En 2018, nous avions ainsi testé la commande de pizza via Alexa, avec des résultats particulièrement décevants.

Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

L’éléphant dans la pièce
Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

Il n’y a pas que les datacenters qui façonnent le monde à cause de leur consommation électrique. La climatisation aussi est fortement consommatrice d’électricité… et cela ne va pas aller en s’arrangeant.

L’arrivée de l’IA générative a bousculé le numérique et soulève de nombreuses questions (droit d’auteur, éthique, biais, hallucinations…). Se pose aussi la question de l’empreinte écologique de datacenters toujours plus gros, partout dans le monde, avec des GPU toujours plus puissants.

La douce/triste « folie » de l’IA générative

Le tout avec une consommation électrique toujours plus importante, sur des zones bien précises. L’augmentation de la densité électrique par baie et l’expansion des datacenters posent d’ailleurs des contraintes sur le choix de l’emplacement physique alloué à ces derniers.

Avec les images et les vidéos de l’IA générative, on passe encore dans une autre dimension. Les chiffres de l’utilisation des IA peuvent donner le tournis, preuve en est encore récemment avec un tweet de Brad Lightcap (COO d’OpenAI) : « Première semaine de folie pour les images dans ChatGPT : plus de 130 millions d’utilisateurs ont généré plus de 700 millions (!) d’images ». Il se garde d’ailleurs bien de détailler l’empreinte environnementale d’une telle utilisation.

Bientôt 1 000 TWh pour les datacenters ?

Dans un rapport publié fin 2024, l’Agence internationale de l’énergie atomique (IAEA, sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022. Cette consommation pourrait s’élever à plus de 1 000 TWh d’ici 2026, soit plus d’un tiers de l’électricité produite par les centrales nucléaires du monde entier l’année dernière, et à peu près l’équivalent de la consommation d’électricité du Japon ». À titre de comparaison, en 2023, la consommation d’électricité en France était de 445,4 TWh.

L’Agence donne quelques chiffres d’anticipation. En Chine, la demande devrait doubler pour atteindre 400 TWh en 2030. En Irlande, la consommation des datacenters (5,3 TWh) représentait 17 % du total du pays et devrait atteindre 32 % d’ici fin 2026. Elle ajoute au passage que la consommation cumulée d’Amazon, Microsoft, Google et Meta « a plus que doublé entre 2017 et 2021 pour s’établir à environ 72 térawattheures (TWh) ».

Par exemple, pour Meta, la consommation des datacenters était de 14,975 TWh en 2023, contre 6,966 TWh en 2020. Elle a donc quasiment doublé en trois ans.

« On devrait parler davantage de climatisation »…

Dans un article publié sur MIT Review, Casey Crownhart (journaliste spécialisée sur le climat et l’énergie) explique que l’on « devrait parler davantage de climatisation ». Elle met cette problématique (bien moins médiatisée) en balance avec la consommation des datacenters largement plus présente dans les débats. Avec ce sous-titre volontairement provocateur : « oubliez les datacenters, la climatisation est la véritable bête noire »

Elle commence par rappeler le cercle vicieux de la climatisation et du réchauffement climatique : « À mesure que les températures augmentent, le besoin en refroidissement augmente. De plus en plus de centrales électriques à combustibles fossiles sont alors mises en service pour répondre à cette demande, augmentant ainsi la température de la planète ».

…qui représente 2 000 TWh, et plus 5 000 TWh en 2050 ?

Selon une étude publiée mi-2024 par l’organisation à but non lucratif Our World in Data (qui travaille en partenariat avec l’université d’Oxford), sur l’année 2022 « la climatisation représentait 7 % de l’électricité mondiale et 3 % des émissions de carbone ». Sur la base d’une consommation mondiale de 29 000 TWh en 2022, la climatisation représenterait un peu plus de 2 000 TWh. À mettre en face des 460 TWh des datacenters.

Selon une projection de l’Agence internationale de l’énergie (IEA, une organisation internationale fondée à l’OCDE), le nombre de climatiseurs devrait fortement augmenter dans les années à venir. De 2 milliards d’unités à la fin des années 2010, elle prévoit près de 3 milliards en 2030 et plus de 5 milliards en 2050. À ce moment-là, la consommation électrique pourrait grimper entre 3 500 et 5 000 TWh.

La Chine dope la croissance, l’Europe n’est pas en reste

Comme le rappelle Le Monde, les évolutions sont variables selon les continents : « Le nombre de ménages africains équipés en climatisation n’a enregistré qu’une très faible hausse au cours des vingt dernières années, passant de 4 % à 6 % aujourd’hui. Dopée par la Chine, l’Asie a en revanche vu son taux d’équipement exploser de 19 % à 47 % sur la même période ». En Europe, la proportion de ménages équipés d’une climatisation pourrait doubler et atteindre 40 % (55 % en France) d’ici 2050.

Les climatiseurs, contrairement aux datacenters, ont tendance à s’allumer à peu près en même temps dans une zone. « Dans certaines régions des États-Unis, par exemple, les climatiseurs peuvent représenter plus de 70 % de la demande d’énergie résidentielle aux moments où le réseau est le plus sollicité », affirme Casey Crownhart. Les climatiseurs sont répartis un peu partout alors que les datacenters concentrent la consommation en certains points précis (nécessitant des lignes dédiées). Signalons aussi que certains datacenters ont recours à la climatisation.

Notre consœur termine quand même par une bonne nouvelle : « nous assistons à des innovations dans la technologie de refroidissement ». Elle explique que certains proposent par exemple un stockage de l’énergie pour se recharger lorsque l’énergie est disponible à bas coût, et de nouvelles technologies de refroidissement. Cela ne suffira certainement pas à combler la hausse prévue de la consommation de la climatisation.

C’est quoi cette histoire d’EU OS ?

Encore une bonne intention ?
C’est quoi cette histoire d’EU OS ?

Ces derniers temps, on parle beaucoup d’une initiative baptisée « EU OS ». Il s’agirait d’une distribution Linux développée par l’Union européenne pour ses propres besoins. EU OS n’est cependant pas un système existant, ni même un projet de l’Union.

EU OS est un nom générique, choisi à dessein par Robert Riemann, auteur de l’initiative. Ce physicien et informaticien travaille actuellement dans l’équipe du Contrôleur européen de la protection des données (CEPD), un organe indépendant chargé de veiller au respect la législation et la jurisprudence en matière de protection des données par les institutions et organes de l’Union. Riemann est en quelque sorte aux premières loges sur les questions de souveraineté numérique.

Son initiative est centrée sur ce thème. Elle est personnelle – dans le sens où elle n’émane pas officiellement d’une instance européenne – mais est conçue pour attirer l’attention. Elle est en outre suffisamment étoffée dans sa vision pour interroger les éventuelles bonnes volontés. Même si certains choix peuvent sembler curieux, voire bloquants.

De quoi parle-t-on ?

EU OS est présenté comme un projet. L’auteur est cependant transparent sur les objectifs : c’est un proof-of-concept (démonstration de faisabilité) visant à explorer l’idée d’un système d’exploitation souverain pour les instances publiques de l’Union européenne. Comme Robert Riemann l’indique, EU OS « n’est techniquement pas un nouveau système d’exploitation »


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Jusqu’à 240 watts sur un câble USB : on vous explique Power Delivery

Suffisant pour alimenter Doom ?
Jusqu’à 240 watts sur un câble USB : on vous explique Power Delivery

Power Delivery a déjà plus de 12 ans. Cette norme, bien pratique, permettait initialement de grimper jusqu’à 100 watts dans un câble USB. On est maintenant à 240 watts… bien loin des 2,5 watts des débuts de l’USB. Il faut néanmoins faire attention à plusieurs points quand on achète un câble ou un chargeur.

En effet, les premiers ports USB étaient en 5 volts seulement avec une intensité maximale de 500 mA, soit 2,5 watts. Avec USB 3.x l’intensité est passée à 900 mA, soit 4,5 watts. Si c’est suffisant pour des clés USB, des souris et des claviers, c’est loin de faire l’affaire pour charger des téléphones, des tablettes, des ordinateurs, etc. Bien plus grave, on ne peut pas brancher sereinement des mini-frigos USB.

De 10 à 100 watts : that escalated quickly

Dès 2010, l’USB Implementers Forum présente le Battery Charging Specification 1.2 qui permet d’augmenter la puissance de charge jusqu’à 7,5 voire 10 watts dans certains cas avec une intensité de 1,5 ou 2 ampères. On est encore loin des dizaines de watts.


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Datacenter : iliad finalise la vente de 50 % d’OpCore à InfraVia

L’acquisition de 50 % du capital d’OpCore par le fonds d’infrastructure français InfraVia est désormais finalisée. « À travers ce partenariat, le Groupe iliad et Infravia vont doter OpCore d’une structure financière à même de libérer ses perspectives d’hypercroissance par le développement de nouveaux datacenters de plusieurs centaines de mégawatts en France et en Europe. Plusieurs projets de construction sont déjà en cours », indiquent les deux entreprises, déjà partenaires de longue date dans les investissements autour de la fibre, dans un communiqué commun.

L’opération, initialement annoncée le 4 décembre dernier, valorise l’entreprise à hauteur de 860 millions d’euros. Elle confère à OpCore (anciennement Scaleway Datacenter) une structure financière et un accès à de nouveaux fonds propres qui doivent permettre à l’entreprise d’aller plus facilement lever de la dette bancaire pour financer la création de ses futurs centres de données. Elle permet dans le même temps à iliad de réduire son endettement, sans perdre le contrôle d’une activité considérée comme stratégique.

« Nous allons investir avec notre partenaire InfraVia 2,5 milliards d’euros dans notre plateforme de datacenters OpCore pour devenir la première plateforme indépendante européenne », promettait à cette occasion Thomas Reynaud, directeur général du groupe iliad.

En France, OpCore revendique à ce stade plus de 50 MW de capacités opérées à ce jour sur cinq datacenters en région parisienne, ainsi que deux en région lyonnaise et un en région marseillaise, commercialisés sous la marque Free Pro.

Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Pwnd
Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Le groupe de pirates Lazarus, lié à l’état nord-coréen, a mis en place un système de piratage visant le monde de la cryptomonnaie, notamment en organisant de faux entretiens d’embauche et en poussant à l’installation de logiciels malveillants via des techniques de social engineering.

En octobre dernier, nous nous étions faits l’écho de la propagation d’une arnaque au recrutement qui cible les développeurs amateurs de crypto. Les soupçons se tournaient vers Lazarus, groupe de pirates nord-coréen auquel est aussi attribué l’immense vol de cryptoactifs, d’une valeur approchant 1,5 milliard de dollars, révélé en février dernier.

L’éditeur de logiciel de cybersécurité français Sekoia confirme dans un rapport que le groupe de pirates est à l’origine d’une campagne d’arnaque au recrutement de ce type. « Il utilise des sites web d’entretiens d’embauche légitimes pour exploiter la tactique ClickFix et installer des portes dérobées pour Windows et macOS », explique l’entreprise française.

Le ClickFix est une tactique d’ingénierie sociale qui « consiste à afficher de faux messages d’erreur dans les navigateurs web pour tromper les utilisateurs et les inciter à copier et à exécuter un code PowerShell malveillant donné, ce qui finit par infecter leurs systèmes », expliquait Sekoia en octobre dernier. Détectée en mai 2024, cette tactique est déjà qualifiée de « tristement célèbre » par Sekoia.

Windows et MacOS, deux variantes

Selon l’entreprise de sécurité, la chaine d’infection utilisée par Lazarus ciblerait les systèmes d’exploitation Windows et MacOS de deux façons différentes. Sur le premier, le groupe de pirates passerait par un script VBS puis un script NodeJS et sur le second via un script Bash puis le malware FrostyFerret pour récupérer le mot de passe système. Mais à la fin, ils utiliseraient un virus, nommé GolangGhost par Sekoia, écrit en GO. Ce code a déjà été partiellement étudié par les spécialistes de cybersécurité Sonatype et dmpdump. Sekoia explique que GolangGhost est prévu pour fonctionner sur Windows et macOS et permet de mettre en place une porte dérobée puis de voler des données via Chrome.

Sous MacOS, FrostyFerret affiche une fausse fenêtre indiquant que le navigateur web Chrome a besoin d’accéder à la caméra ou au microphone. Ensuite, le malware demande à l’utilisateur de saisir le mot de passe du système. Celui-ci est ensuite récupéré et envoyé vers un espace Dropbox.

Essentiellement des acteurs de la CeFi utilisés comme appâts

En analysant cette attaque, Sekoia a récupéré 184 invitations différentes pour des entretiens d’embauche. Parmi ces invitations, elle a trouvé 14 noms d’entreprises utilisés pour inciter la victime à compléter le processus de demande. Parmi elles, Coinbase est celle dont le nom est le plus utilisé par Lazarus pour attirer l’attention de ses proies :

Sekoia fait remarquer que 9 des 14 entreprises « proposent des services financiers centralisés (CeFi), c’est-à-dire des services financiers construits autour des crypto-monnaies qui s’appuient sur des intermédiaires, tels que des échanges et des plateformes de prêt, pour faciliter les transactions ». L’entreprise de sécurité rappelle que « ces plateformes sont dites « centralisées » car elles obligent les utilisateurs à faire confiance à une entité centrale pour gérer les fonds, traiter les transactions et assurer la sécurité ». Archblock est la seule plateforme de services financiers décentralisés (DeFi) détectée par Sekoia comme cible de Lazarus.

Lazarus vise des profils moins tech

Mais si les développeurs amateurs de crypto sont ciblés, l’analyse de Sekoia montre qu’ils ne sont ni les seuls, ni la principale cible. En effet, l’entreprise explique qu’ « il s’agit principalement de postes de responsables axés sur le développement commercial, la gestion des actifs, le développement de produits ou de spécialistes de la finance décentralisée ». Et elle explique que c’est un changement important s’agissant des attaques de Lazarus qui, jusque-là, « visaient principalement les développeurs et les ingénieurs en informatique ».

Sekoia livre une liste des faux sites d’entretiens que l’entreprise a détectés :

❌