Vue lecture

Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Down Rodeo
Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Un simple tweet, publié par un compte X « certifié », a mis le feu aux marchés lundi, entraînant une hausse momentanée de quelque 2 000 milliards de dollars de la capitalisation boursière mondiale. L’incident, survenu dans un contexte de fébrilité exceptionnel, souligne à quel point les marchés restent vulnérables à des tentatives de manipulation délibérées.

Plus volatil, tu meurs. Sur les forums spécialisés comme sur les réseaux sociaux, l’annonce d’une embellie s’est propagée comme une traînée de poudre lundi après-midi (heure de Paris) : après trois jours de baisse continue, l’heure du rebond est arrivée, et les indices repartent à la hausse ! Pendant vingt minutes, une forme d’euphorie gagne les investisseurs.

Entre le moment où la contagion a débuté et celui où le feu de paille s’est éteint, les places boursières ont regagné lundi l’équivalent de quelque 2 000 milliards de dollars de capitalisation perdus depuis le 3 avril et l’annonce de la mise en place des droits de douane exceptionnels décidés par Donald Trump. Avant de les reperdre, tout aussi rapidement. Que s’est-il donc passé ?

Une interview détournée

Le phénomène débute avec un tweet massivement relayé par de nombreux comptes présentant des affinités avec les thématiques de l’investissement en bourse ou des cryptomonnaies. Écrit tout en majuscules, il affirme : « Trump envisage une pause de 90 jours dans la mise en place des droits de douane pour tous les pays sauf la Chine ». Souvent, il est assorti d’un nom propre, Hassett, en référence à Kevin Hassett, le conseiller économique de Donald Trump à la Maison-Blanche.

Une heure plus tôt, la question d’une possible pause dans la mise en œuvre des droits de douane lui avait bien été posée au micro de Fox News, mais Kevin Hassett avait alors botté en touche, indiquant que le président déciderait… ce qu’il déciderait.

Une intox particulièrement virale

C’est cette déclaration, plutôt prudente, qui semble avoir servi de point de départ à la diffusion d’une fausse information. D’après le déroulé retracé par NPR, la fake news aurait d’abord été propagée par un compte X baptisé Hammer Capital, et doté de la coche bleue (accessible en souscrivant un abonnement payant) qui permet de disposer de la mention « certifié » à côté de son pseudonyme et offre une portée supérieure aux messages. Le compte initial affiche environ 1 100 followers, mais la fausse information gagne rapidement en visibilité grâce au relais de nombreux autres comptes.

Quelques minutes plus tard, elle gagne une nouvelle caisse de résonance : le message est repris par le compte @Deltaone, qui compte pour sa part quelque 850 000 abonnés, et adopte « Walter Bloomberg » comme pseudonyme sur le réseau social X.

Officiellement, le compte n’a aucun lien avec la célèbre agence d’actu financière Bloomberg, mais il relaie fréquemment les alertes de cette dernière, ce qui explique vraisemblablement sa popularité. Le flux de dépêches de Bloomberg est très prisé des investisseurs particuliers, dans la mesure où il permet d’être alerté très en avance de phase d’éventuelles informations susceptibles d’influencer la bourse, mais il est payant (et facturé très cher).

Une caution journalistique

À ce stade, ni Bloomberg, ni la Maison-Blanche, ni Fox News n’ont confirmé la soi-disant pause sur leurs propres canaux, et même si la rumeur a déjà entraîné un début de hausse sur les marchés, son effet reste encore limité. Le véritable déclencheur intervient peu après 16 heures (heure de Paris), quand CNBC relaie l’intox – via son bandeau d’informations écrites – sur son direct. Cinq minutes plus tard, l’agence Reuters envoie à son tour une dépêche, qui confère, aux yeux de nombreux investisseurs, une légitimité à l’information… jusqu’à ce que la Maison-Blanche démente.

« Alors que nous suivions l’évolution du marché en temps réel, nous avons diffusé des informations non confirmées dans une bannière. Nos reporters ont rapidement corrigé l’information à l’antenne », précise une porte-parole de CNBC au Wall Street Journal. « La Maison-Blanche a démenti ces informations. Reuters a retiré cette information erronée et regrette son erreur », réagit Reuters dans la même veine.

Immédiatement, les investisseurs qui avaient acheté des titres ou des fonds cotés pour essayer de profiter de la hausse s’extraient du marché, provoquant la fin de l’embellie. Dans le lot, d’aucuns s’estiment toutefois heureux : la hausse a été si fulgurante que celui qui a acheté et vendu au bon moment a pu, en quelques minutes, réaliser un gain à deux chiffres.

La martingale est d’ailleurs si belle qu’elle devrait, en théorie, motiver l’ouverture d’une enquête, notamment aux États-Unis, où Donald Trump a récemment renforcé son pouvoir de contrôle sur le gendarme de la bourse, la SEC.

☕️ Avec son modèle Nova 1.1, Amazon permet de générer des vidéos jusqu’à 2 min

En décembre dernier, Amazon lançait sa nouvelle famille de modèles d’IA générative Nova. On y trouvait cinq variantes : Micro, Lite, Premier, Canvas et Reel, tous conçus pour une finalité spécifique. Le modèle principal et multimodal Premier est actuellement le plus grand modèle de l’entreprise. Micro est par exemple beaucoup plus petit et ne prend en charge que le texte.

Reel, lui, était conçu pour permettre la génération de vidéos d’un maximum de 6 secondes, à partir d’un texte et/ou d’images. Amazon promettait alors une extension de cette durée à 2 min dans le courant 2025, dont acte.

Nova Reel 1.1 est disponible depuis Amazon Bedrock et permet effectivement de générer des vidéos d’une durée maximale de 2 min. Dans son mode automatisé, la société a recours à une petite « astuce » : ces 2 minutes sont composées de plans de 6 secondes. Toutefois, Reel 1.1 est capable de maintenir « un style cohérent d’un plan à l’autre », selon Amazon. Dans ce mode, l’invite peut grimper jusqu’à 4 000 caractères, mais aucune image n’est acceptée en entrée.

Le modèle peut également fonctionner en mode manuel. Dans ce cas, on peut envoyer une invite – texte ou images cette fois – spécifique pour chaque plan. Attention cependant, la limite de caractères descend à 512, et la définition des images ne peut pas dépasser 1 280 x 720.

Le tarif du service est le même que pour la première version, avec une facturation de 0,08 dollar par seconde de vidéo générée.

La fonctionnalité Discover de Google recommande aussi des rumeurs et infox générées par IA

Faites ce que je dis, pas ce que je fais
La fonctionnalité Discover de Google recommande aussi des rumeurs et infox générées par IA

Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.

Parmi les 3 500 sites d’infos générés par IA (GenAI) que nous avons identifiés, une quarantaine (au moins) ont été mis en avant par Discover, la « fonctionnalité de la recherche Google qui présente aux internautes des contenus en rapport avec leurs centres d’intérêt, en fonction de leur activité sur le Web et les applications » (que, pour notre part, nous avons utilisée sans aucune personnalisation, et en désactivant l’historique des recherches, de sorte d’avoir des recommandations aussi « neutres » que possible).

Si deux de cette quarantaine de sites d’infos GenAI recommandés par Google font partie du groupe de presse Économie Matin, tous les autres émanent de professionnels du SEO. Les pics de trafic que connaissent les articles apparaissant sur Discover sont tels que les revenus publicitaires associés sont devenus une véritable « machine à cash » pour ces mercenaires de l’info.

Non contents, pour la plupart, de paraphraser, voire plagier des articles écrits par de véritables journalistes, ils relaient aussi de nombreuses rumeurs et infox, « hallucinées » par leurs IA, et racontent souvent « n’importe quoi », pour reprendre le célèbre mème d’Anouk Ricard (cf son compte Instagram), Grand Prix de la 52ᵉ édition du Festival International de la Bande Dessinée d’Angoulême.

Ce qui ne les empêche donc pas d’être mis en avant par l’algorithme Discover de Google, au mépris des propres règles de ce dernier, allant parfois jusqu’à afficher deux articles GenAI de suite, comme en témoignent ces captures d’écran.

Captures d’écran d’articles GenAI relayant des rumeurs mais néanmoins promus sur Google Discover

Quelques sites GenAI pénalisés… suite à un reportage de France 2 ?


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le patron de Shopify oblige ses équipes à prouver qu’une tâche ne peut être faite par IA

Dans un memo rendu public sur X, le directeur général de Shopify Tobi Lutke a déclaré modifier l’approche de son entreprise en termes de ressources humaines.

Il intime à ses équipes de prouver que des tâches ne peuvent être réalisées à l’aide de l’intelligence artificielle avant de demander une augmentation de ressources ou d’équipes.

Et de préciser que l’usage de l’IA est une « attente fondamentale » envers les équipes de Shopify, dans la mesure où elle aurait « multiplié » la productivité de ceux qui l’utilisent.

Comme le relève CNBC, la directive est formulée alors que les entreprises du numérique investissent des milliards de dollars dans le développement de l’intelligence artificielle, en même temps qu’elles licencient régulièrement. 


En 2024, selon le décompte de Layoffs.fyi, 152 000 postes ont été supprimés dans 549 entreprises de la tech.

Chez Shopify, les équipes totalisaient 8 100 personnes au mois de décembre, contre 8 300 plus tôt en 2024. L’entreprise avait supprimé 14 % de ses équipes en 2022 et 20 % en 2023.

Des associations demandent un débat sur la création des datacenters en France

Stockera, stockera pas
Des associations demandent un débat sur la création des datacenters en France

Dans le cadre du projet de loi de simplification de la vie économique, un groupe d’associations appellent les députés à supprimer l’article 15, qui faciliterait la construction de centres de données, pour laisser le temps d’organiser un débat citoyen sur la multiplication de ces entrepôts.

De ce 8 avril jusqu’à vendredi 11 avril, les députés examinent le projet de loi « de simplification de la vie économique ». De mesure de simplification du quotidien des très petites entreprises à la simplification des démarches pour accéder aux marchés publics, le texte prévoit une variété de mesures, dont la facilitation de l’obtention de licences IV dans les petites villes.

Mais son article 15, qui vise à faciliter la construction de centres de données, inquiète la Quadrature du Net, le collectif marseillais le Nuage était sous nos pieds et la coalition Hiatus, qui réunit une vingtaine d’associations françaises aux mandats variés. Ils appellent les députés à soutenir un moratoire de deux ans « sur la construction des plus gros data centers » en France, le temps d’organiser un débat public.

Début février, en amont du Sommet sur l’intelligence artificielle organisé à Paris, le Premier ministre avait en effet annoncé l’identification de 35 sites industriels déclarés propices à l’installation de centres de données, à la fois en termes de surface foncière, de disponibilité et d’accès à l’énergie. Matignon précisait que les surface allaient de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares.

« Projet d’intérêt national majeur »

Or, l’article 15 du projet de loi de simplification de la vie économique permettrait précisément d’accorder le statut de « projet d’intérêt national majeur » (PINM) à des centres de données de ce genre. L’intérêt pour leurs porteurs : accélérer l’implantation des bâtiments et les procédures – de gestion des documents d’urbanisme, de raccordement au réseau électrique, de reconnaissance de raisons impératives d’intérêt public majeurs.

Créé dans la loi sur l’industrie verte de 2023, le statut de « projet d’intérêt national majeur » (PINM) introduit dans le code de l’urbanisme a en effet été pensé pour faciliter l’implantation de projets industriels dans le pays. En juillet 2024, il a été accordé par décret à plusieurs projets, souvent liés à l’industrie numérique : une usine de fabrication de cellules et modules photovoltaïques de la société Holosolis, une de production de panneaux photovoltaïques de la société Carbon, une usine Eastman de recyclage moléculaire des plastiques, une usine Gravithy de production de minerai de fer réduit et d’hydrogène et un site d’extraction et de transformation de lithium d’Imerys, dans l’Allier.

Moratoire de deux ans pour une convention citoyenne

L’un des problèmes que pointent les associations : le statut PINM permettrait notamment de déroger à l’obligation de protection des espèces protégées, alors que la multiplication de data centers pose de multiples enjeux environnementaux de bétonisation des sols et de concurrence dans l’usage des terres et de l’eau.

À l’heure actuelle, la France compte environ 315 data centers, dont la grande majorité est concentrée en Île-de-France (la région concentre 60 % de la puissance de la capacité nationale, selon Knight Frank), suivie par Marseille et la région PACA, où aboutissent 18 câbles sous-marins.

Détaillant l’empreinte environnementale de ces infrastructures, la Quadrature du Net et ses partenaires, rappellent que les hyperscalers, ces data centers extrêmement grands poussés par les acteurs états-uniens du numérique, recourent massivement à l’eau pour refroidir leurs serveurs. Google a ainsi révélé avoir consommé 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, suscitant de telles tensions que le Chili a freiné l’un de ses projets.

Les associations notent que l’expansion de ces projets en France, y compris lorsqu’elle est réalisée par étapes, comme dans la ville de Wissous, créent déjà des oppositions au niveau local. Enfin, elles interrogent les effets de ces édifices en termes de création d’emploi, un enjeu sur lequel le sociologue Clément Marquet revenait à notre micro.

En écho aux experts de l’ADEME, qui soulignent la nécessité de planifier et réguler le déploiement des centres de données, les associations incitent les députés à rejeter l’article 15 du projet de loi en cours de discussion. Elles demandent aussi un moratoire sur la construction des plus gros data centers, le temps de permettre à « une convention citoyenne de penser les conditions d’une maîtrise démocratique des data centers ».

Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Ça Bloom ?
Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Next utilise un filtre de Bloom pour afficher des alertes sur les médias utilisant de l’IA générative pour tout ou partie de ses articles. Comment fonctionne notre algorithme de détection et pourquoi y a-t-il des faux positifs ? On vous explique.

Notre extension Chrome et Firefox pour alerter les visiteurs des sites d’information utilisant l’IA générative pour tout ou partie de leurs articles utilise une liste de plus de 3 000 noms de domaines identifiés « à la main et de visu » (sans recours à des outils de vérification algorithmique et automatisé) par notre journaliste Jean-Marc Manach. Le code source est disponible sur GitHub.

Cachez cette liste que je ne saurais voir…

Nous ne souhaitons pas diffuser publiquement la liste des domaines (et des entreprises), pour plusieurs raisons que nous avons déjà expliquées dès la première partie de notre enquête :

« Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons). Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines ».

Nous avons donc utilisé une méthode d’obfuscation pour masquer la liste. Un développeur de moji – Hasnaine – nous a grandement épaulés pour cette tâche. Il a développé le code de cette partie de l’extension, ainsi qu’un script pour transformer notre liste de manière irréversible. La méthode utilise un filtre de Bloom, mais qu’est-ce que c’est et qu’est-ce que cela implique ?

Comme l’explique Bioinfo-fr, « le filtre de Bloom ne vous permet pas vraiment de “stocker” des données à proprement parler ; le filtre est là pour vous permettre de tester l’appartenance d’un élément à un ensemble de données ». Parfait, c’est exactement ce que l’on cherche.

Contre les faux positifs, la liste blanche

Un filtre de Bloom est une structure probabiliste. Dans la pratique, c’est un tableau de n bits qui est initialement à 0 sur toutes ses entrées. « Nous allons utiliser plusieurs fonctions de hachage indépendantes qui retourneront une suite de bits correspondant à des adresses mémoires : au lieu d’effectivement stocker les données, on ne stockera ainsi que quelques bits d’information », explique Bioinfo-fr.

L’exemple parle du stockage de séquences ADN (logique pour un site dédié à la biologie), mais cela fonctionne à peu près pour n’importe quoi. L’algorithme a deux résultats possibles lors d’un test : l’élément est probablement dans la liste, ou il n’est pas présent (cette fois-ci avec certitude), comme le résume Wikipédia :

« Plus précisément, un test d’appartenance renvoie soit « peut-être dans l’ensemble » ou « assurément pas dans l’ensemble ». Dit autrement, il n’y a jamais de faux négatif mais il peut y avoir des faux positifs. »

Il a donc l’avantage de ne pas produire de faux négatif (un site qui serait dans la liste, mais non identifié comme tel). Toutefois, il a l’inconvénient de générer des faux positifs. Et plus la liste d’éléments de base est grande, plus le risque de faux positifs augmente. Raison pour laquelle certains sites sont parfois identifiés à tort par notre extension.

Un faux positif arrive donc lorsque l‘algorithme identifie à tort un site comme étant « peut-être » dans notre liste, quand bien même il n’y figure pourtant pas. Pour contrer cette problématique inhérente au fonctionnement du filtre de Bloom, nous avons mis en place depuis quasiment le début une liste blanche d’URL à ne pas identifier.

Nous tâchons d’ajouter au plus vite les éléments dans notre liste pour corriger les faux positifs quand ils nous sont signalés. Depuis peu, l’application télécharge sa liste blanche sur les serveurs de Next, ce qui évite d’avoir à la pousser manuellement à chaque nouvelle mise à jour (encore à déployer sur Chrome, ça arrive).

Notre algorithme, côté technique

Pour en revenir à notre filtre de Bloom, nous vous donnons les principaux paramètres de notre formule pour calculer la taille de notre tableau (en bits), à partir du nombre d’éléments et du taux de faux positif spécifié. Attention, plus le taux est faible, plus la taille du tableau est importante, il faut donc choisir avec précaution ce paramètre.

const expectedElements = strings.length;
const falsePositiveRate = 0.00000001; 
const size = Math.ceil(-(expectedElements * Math.log(falsePositiveRate)) / (Math.log(2) ** 2));
const numHashes = Math.max(1, Math.ceil((size / expectedElements) * Math.log(2)));

Une fois la taille de notre tableau obtenu, nous calculons le nombre de hachages pour notre filtre de Bloom.

L’influence de la précision

Voici quelques résultats en fonction de la précision (falsePositiveRate) demandée sur les faux positifs (il s’agit ici de quelques exemples, d’autres combinaisons sont possibles) :

1 % (0.01):

  • Taille : 32 772 bits
  • Nombre de fonctions de hash : 7

0,01 % (0.0001) :

  • Taille : 65 543 bits
  • Nombre de fonctions de hash : 14

0,0001 % (0.000001) :

  • Taille : 98 314 bits
  • Nombre de fonctions de hash : 20

0.000001 % (0.00000001) :

  • Taille : 131 086 bits
  • Nombre de fonctions de hash : 27

Afin de limiter le nombre de faux positifs, nous avons augmenté la précision dans la dernière mise à jour de notre extension.

Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

Sous son meilleur jour
Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

L’entreprise a été épinglée hier pour des résultats de Llama 4 peu en phase avec ce qu’elle proclamait avoir obtenu dans plusieurs benchmarks. Une déception générale semble se manifester sur l’utilisation des modèles en conditions réelle, tandis que des soupçons de triche apparaissent. Meta nie avoir voulu tromper la communauté.

Meta a lancé samedi sa nouvelle famille de modèles de fondation Llama 4. Trois variantes ont été présentées, selon les cas d’usage envisagés : Scout, Maverick et surtout Behemot. Ce dernier, avec ses 2 000 milliards de paramètres, 288 milliards de paramètres actifs et 16 experts, est un colosse dont les résultats seraient pratiquement au niveau de Gemini 2.5 Pro, alors que ce dernier « raisonne » et pas Llama 4.

Pourtant, si plusieurs personnes ont commencé à s’interroger dès le dimanche, une polémique est apparue progressivement hier. Au centre de l’attention, le modèle intermédiaire Maverick, dont le score sur LLArena (1 417) ne semble pas se refléter dans les tests réalisés par un nombre croissant de chercheurs et autres experts.

Meta épinglée par LLArena

Dans son communiqué, Meta indiquait discrètement avoir utilisé une version expérimentale du modèle pour réaliser ses tests. La version mise à disposition samedi n’est cependant pas celle utilisée sur LLArena. Au point que l’équipe du site s’est fendu d’un message sur X hier après-midi pour pester contre Meta :

« L’interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d’évaluations équitables et reproductibles, afin d’éviter que ce genre de confusion ne se reproduise à l’avenir ».

Hier, une rumeur a également pris de l’ampleur : Meta aurait triché. Relevant qu’une publication un samedi était étrange (nous l’avions effectivement signalé), plusieurs personnes affirment que Meta aurait spécifiquement entrainé ses modèles pour les benchmarks, signale The Verge. Le cas serait semblable à celui des constructeurs de smartphones accusés d’optimisations pour les benchmarks pour mieux mettre en avant les performances de leurs produits. Performances que l’on ne retrouvait pas en utilisation réelle.

Meta nie tout en bloc

Au point qu’Ahmad Al-Dahle, ingénieur en chef sur l’intelligence artificielle chez Meta, a fini par prendre la parole hier soir pour démentir. « Comme nous avons lancé les modèles dès qu’ils ont été prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques se mettent en place. Nous continuerons à travailler à la correction des bogues et à l’intégration des partenaires », a-t-il déclaré pour expliquer la variabilité des résultats. Explication qui a valu au responsable quelques moqueries.

Concernant les accusations de tricherie, il réfute en bloc : « Nous avons également entendu dire que nous nous étions entraînés sur des ensembles de tests – ce n’est tout simplement pas vrai et nous ne ferions jamais cela. Nous pensons que les modèles Llama 4 représentent une avancée significative et nous sommes impatients de travailler avec la communauté pour libérer leur potentiel ».

Les commentaires en réponse font souvent état de performances médiocres, tout particulièrement dans Meta AI, censé utiliser Llama 4 dans WhatsApp, Threads et Facebook. Quelques jours avant la publication des nouveaux modèles, The Information indiquait que leur genèse avait été particulièrement complexe. Le lancement aurait été repoussé à plusieurs reprises à cause de performances inférieures aux attentes de l’entreprise.

Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Elle a popé un mardi, quelle surprise :D
Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Une nouvelle Freebox est dès à présent disponible : la Freebox Pop S, en réponse à la Pure Fibre de Bouygues Telecom. Pour 24,99 euros par mois, vous avez un accès à Internet jusqu’à 5 Gb/s partagés, du Wi-Fi et… aucun service de télévision.

Les amateurs de la marque l’auront certainement compris à la lecture du titre de cette actualité : la Freebox Pop S est à la Freebox Pop ce que la Delta S était à la Delta : « une offre 100 % Internet sans TV ». La Freebox Pop S ne propose donc qu’un accès à Internet (en fibre optique FTTH ou en xDSL), sans service supplémentaire. Il s’agit évidemment de venir jouer sur les platebandes de la box Pure Fibre de Bouygues Telecom.

Jusqu’à 5 Gb/s partagés et 900 Mb/s en upload

La Freebox Pop S reprend le boîtier de la Freebox Pop et propose donc « des débits Fibre jusqu’à 5 Gb/s partagés en téléchargement et jusqu’à 900 Mb/s en envoi ». Le mot important est « partagés », puisque la Freebox Pop ne dispose pas de port à 5 ou 10 Gb/s (ni de cage SFP+).

Pour atteindre les 5 Gb/s, il faut combiner plusieurs solutions : 2,5 Gb/s sur un port Ethernet, 1 Gb/s sur deux autres ports Ethernet et enfin 0,5 Gb/s en Wi-Fi, soit 5 Gb/s au total. Sur une seule machine, vous ne pouvez pas dépasser les 2,5 Gb/s par contre.

Avec sa Pure Fibre, Bouygues Telecom propose pour rappel un port 10 GbE (Ethernet, via un connecteur RJ45). Nous avions déjà détaillé les différents ports multi-GIG des principales box des FAI dans un précédent dossier.

Wi-Fi 7 jusqu’à 2,2 Gb/s

Comme la Freebox Pop depuis mars 2024, la version S dispose du Wi-Fi 7 avec « jusqu’à 2,2 Gb/s, soit des débits jusqu’à 2 fois plus rapides que le Wi-Fi 6). Sur demande, un répéteur Wi-Fi 7 est proposé par le fournisseur d’accès. Bouygues Telecom a pour rappel attaqué Free devant le tribunal de commerce de Paris sur son Wi-Fi 7, qui n’est pas certifié par la Wi-Fi Alliance.

Pas de boitier TV, ni d’appels vers les mobiles en France

La Freebox Pop ne dispose pas de Player (le boitier multimédia) et ne permet pas d’accéder à des chaines de télévision. Oqee et Free Foot ne sont pas non plus inclus.

Une autre différence existe entre les deux Freebox Pop : les appels ne sont illimités que vers les fixes en France et les DOM, pas vers les mobiles en France et DOM (c‘est le cas sur Freebox Pop).

24,99 euros par mois, sans engagement, avec Free Family

« La nouvelle offre Freebox Pop S est une exclusivité web au prix de 24,99 euros par mois seulement. Comme toutes les offres Freebox, elle est sans engagement », ajoute enfin l’opérateur. L’option Free Family est disponible, permettant d’avoir jusqu’à quatre lignes mobiles à 9,99 euros par mois pendant 1 an, puis à 15,99 euros par mois (sans engagement), au lieu de 19,99 euros par mois.

La Freebox Pop S est donc à 15 euros de moins que la Freebox Pop classique. Cette dernière bénéficie d’une remise de 10 euros par mois la première année, ramenant la différence à 5 euros pendant 12 mois. Nous mettrons à jour notre tableau comparatif dans la journée. Dans les deux cas, les frais de résiliation sont de 59 euros et ceux de mise en service de 49 euros.

« Les abonnés existants éligibles seront informés par email ou directement dans leur Espace Abonné de la possibilité de changer pour la Freebox Pop S », indique le fournisseur d’accès, sans plus de détails.

Par rapport à la Pure Fibre, la Freebox Pop S est donc un euro plus cher par mois, avec un débit inférieur. Elle propose toutefois des appels vers les fixes et du Wi-Fi 7, en plus de l’écosystème Free (l’application Freebox Files par exemple).

Freebox Pop, Révolution et Delta passent à 900 Mb/s en upload

Enfin, « Free booste la connectivité Fibre de ses Freebox : les débits maximum théoriques montants de la Freebox Pop, de la Freebox Révolution et de la Freebox Delta passent à 900 Mbit/s. Ces évolutions se font automatiquement et sans surcoût pour tous les abonnés existants et les nouveaux abonnés ».

C’est la confirmation d’une hausse que certains avaient déjà remarqué depuis mi-mars.

☕️ Hausse de 20 % des demandes d’autorisation pour des traitements de données de santé

La CNIL explique qu’en 2024 il y a eu 619 demandes d’autorisation pour des traitements de données de santé, ce qui représente une hausse de 20 % par rapport à 2023.

L’autorité chargée de la protection des données en France ajoute que les deux tiers (397) de ces demandes ont reçu une autorisation. Les trois quarts des demandes concernaient des projets de recherche.

À côté d'une patiente âgée, un médecin observe une radio dentaire.

174 dossiers sont des demandes classées sans suite (en baisse de 7 %), la plupart du temps car ce sont des « demandes relatives à des traitements non soumis à formalité préalable, des dossiers incomplets (par exemple ceux relatifs à des projets de recherche pour lesquels l’avis du comité compétent n’a pas été transmis) ou qui sont conformes à un référentiel de la CNIL et ne nécessitent donc pas d’autorisation spécifique ».

La CNIL explique cette légère baisse par une « amélioration de la qualité des dossiers reçus », notamment grâce à « l’accompagnement accru » qu’elle a mis en place.

Et sur ces 619, seulement 3 ont fait l’objet d’un refus de la part de l’autorité. Ceux-ci sont émis « principalement sur les mesures techniques et organisationnelles visant à assurer la sécurité des données comme la pseudonymisation des données et le respect du principe de minimisation ».

Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Du tout-en-un, manque plus que la version Wi-Fi !
Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Un consortium d’une cinquantaine d’entreprises chinoises planche sur la mise au point d’un nouveau standard d’interface numérique. Baptisé GPMI, il offrirait jusqu’à 192 Gb/s de bande passante et autoriserait une alimentation électrique pouvant atteindre 480 W, soit des performances deux fois supérieures aux meilleurs connecteurs actuels. Un premier processeur est déjà compatible chez HiSilicon.

GPMI, pour General Purpose Media Interface : voilà peut-être le nouvel acronyme qui figurera à l’arrière des écrans de TV ou des moniteurs PC d’ici quelques années. Il désigne un nouveau standard dédié à la transmission de données et d’images, qui viendrait donc directement concurrencer le HDMI et le DisplayPort.

Des performances doublées par rapport aux standards actuels

Le GPMI avance avec deux arguments clés. D’abord, une bande passante capable d’atteindre 192 Gb/s, à comparer aux 80 Gb/s du DisplayPort ou aux 96 Gb/s de la récemment officialisée norme HDMI 2.2. Il intègre ensuite une possibilité d’alimentation électrique, avec une puissance maximale (théorique à ce stade) de 480 W. Là encore, le GPMI doublerait la donne, non pas par rapport au HDMI (qui n’a pas vocation à alimenter ou recharger), mais par rapport à Power Delivery (USB Type-C), qui permet de délivrer jusqu’à 240 W.

Deux connecteurs, Type-B et Type-C. La ligne du bas souligne en bleu la possibilité d’une alimentation électrique

Pour atteindre ce plein potentiel, il faudrait recourir à un connecteur dédié, le GPMI type-B, qui se présente sur un format semblable à celui du HDMI ou du DisplayPort. Le consortium prévoit toutefois une deuxième implémentation via un connecteur USB type-C. Dans ce contexte, les performances seraient divisées par deux, soit tout de même 96 Gb/s et 240 W d’alimentation, comme en USB avec Power Delivery 3.1.

Le standard prévoit par ailleurs un bus secondaire, qui complète le flux principal de transmission pour toutes les opérations de contrôle, ainsi qu’un port de type CEC, pour le contrôle des appareils connectés.

Le connecteur intègre plusieurs ports spécialisés

Un projet encore discret mais déjà bien avancé

Le GPMI et son double connecteur ont récemment fait une apparition sur un salon, repérée par IT Home. S’il était resté relativement discret jusqu’ici, le standard fait l’objet de travaux préparatoires depuis 2019. Et il peut compter sur des soutiens de poids. La Shenzhen 8K UHD Video Industry Cooperation Alliance (SUCA), consortium qui porte le GPMI, réunit en effet un aréopage varié d’industriels avec des grands noms des télécoms (China Mobile, Tencent), des fabricants d’électronique grand public (Haier, Hisense, TCL, Huawei), des acteurs de la télédiffusion et des équipementiers spécialisés.

Dans le lot, on trouve HiSilicon, filiale de Huawei dédiée aux semi-conducteurs, qui développe ses propres processeurs sur base ARM, et dispose déjà, à son catalogue, d’une puce tout-en-un destinée aux marchés des téléviseurs connectés affichant sa compatibilité avec le GPMI, la V660. D’après la SUCA, deux autres puces dotées de la nouvelle interface sont attendues en 2025.

L’alliance SUCA s’est par ailleurs félicitée en novembre dernier d’avoir obtenu le SVID (Standard or Vendor ID) par lequel l’USB Implementers Forum valide la compatibilité de la connectique avec ses propres normes.

Un connecteur dédié au marché chinois ?

Une connectique bidirectionnelle, à très grande bande passante, avec une alimentation électrique suffisante pour alimenter un ordinateur, une console de jeux ou une set-top box, le tout sur un seul et unique câble : le GPMI a sur le papier de quoi devenir le connecteur idéal… s’il s’impose sur le marché. L’USB Type-C le permet aussi dans un moindre mesure avec l’Alternate Mode du DisplayPort annoncé en 2020 (sur de l’USB4).

Or à ce niveau, la SUCA et les industriels concernés ne font pour l’instant pas beaucoup d’efforts pour que le GPMI rayonne hors de leur marché domestique. Le format semble n’avoir été présenté que sur des événements chinois. Les rares documentations accessibles en ligne (à l’image de ce livre blanc chez HiSilicon, accessible uniquement après avoir rempli le formulaire de contact) mettent par ailleurs en avant la prise en charge d’une norme de protection baptisée ADCP, présentée comme une alternative au HDCP, et fonctionnant à l’aide des algorithmes de chiffrement SM3 et SM4, couramment utilisés en Chine.

Face au HDMI (sous licence) et surtout au DisplayPort (sans redevance), il faudra donc attendre de voir quelle est la logique de diffusion adoptée par la SUCA, et surtout dans quelle mesure elle arrive à fédérer un écosystème complet de produits estampillés GPMI, des téléviseurs aux ordinateurs ou aux cartes graphiques. Tout comme il conviendra d’étudier les performances réelles de la transmission et ses exigences en matière de câbles…

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

Il est pas frais mon poisson ?
Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.

L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.

C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.

Le bon moment pour vendre ?

La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.

Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…

L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…

Un marché déjà en ébullition

Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.

En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.

En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.

L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.

Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Bubble or not?
Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Microsoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.

Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.

Espoirs douchés dans le Nord

La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intention aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.

Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.

De Quaëdypre à Jakarta

Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).

En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.

Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.

L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.

Tout va bien d’après Microsoft

Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :

« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».

Microsoft, une boussole du marché de l’IA ?

Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.

Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?

Batterie externe : attention à « l’arnaque » des mAh

Non, je ne ferai pas un T@LC de ton dessin @Flock !
Batterie externe : attention à « l’arnaque » des mAh

Votre smartphone a une batterie de 4 000 mAh et vous pensez qu’avec une batterie externe de 20 000 mAh, vous allez pouvoir le charger cinq fois ? Oubliez tout de suite, ce ne sera jamais le cas. Le problème ne vient pas que des pertes, mais de l’imprécision des mAh dans ce genre de situation (et ce n’est pas toujours mieux avec les Wh), on vous explique.

Dans un précédent article, nous avons posé les bases du fonctionnement du courant électrique, en expliquant notamment ce qu’étaient les mAh et les Wh. Aujourd’hui, nous allons nous attarder un peu plus sur les mAh (milliampère heure), une unité de charge électrique.

Petit rappel sémantique : l’Ah (ampère heure) n’est pas dans le Système international, mais cette unité est tout de même largement utilisée, d’autant qu’elle est en lien direct avec une autre unité du SI cette fois : le Coulomb, en hommage au physicien Charles-Augustin Coulomb. Larousse précise que 1 C est « équivalant à la quantité d’électricité transportée en une seconde par un courant d’un ampère ». Avec 3 600 secondes dans une heure, 3600 coulombs valent donc 1 Ah. Simple et il n’y a pas de piège.

Quand les Ah se marient avec les V, cela donne des Wh

Revenons aux Ah, qui permet donc de mesurer une quantité de charges électriques, ni plus ni moins. Il ne faut pas confondre les Ah avec le Wh (watt-heure) qui est une unité d’énergie, on parle de quantité d’énergie stockée. Il existe néanmoins une relation très simple entre Ah et Wh : Ah x V = Wh.

En clair, pour passer d’une quantité de charges électriques (Ah) à une quantité d’énergie (Wh), on multiplie le premier élément par la tension (V pour Volt). Corollaire, connaitre les Ah d’une batterie ne permet pas de déduire sa « capacité » en Wh si on ne connait pas sa tension.

Une batterie de 10 000 mAh sous 3,7 volts donnera 37 Wh. Une batterie de 10 000 mAh sous 5 volts donnera 50 Wh. Avez-vous remarqué que nous avons répété deux fois la phrase, sans mettre un « ou » pour passer de 3,7 à 5 volts ? Il y a une raison : on ne crée pas de la « capacité » simplement en augmentant la tension (cela se saurait, croyez-moi…).

On simplifie par l’exemple, avec une batterie de 20 000 mAh

Prenons un exemple concret d’une batterie externe de 20 000 mAh que nous utilisons lors de déplacements. Cela veut-il forcément dire que l’on a 100 Wh avec une tension de 5 volts (20 000 mAh x 5 volts) ? Bien évidemment… que non. Il faut regarder le détail (s’il est donné).

Dans notre cas, c’est 20 000 mAh sous 3,6 volts, soit 72 Wh. Le fabricant donne une autre valeur : 5 000 mAh sous 14,4 volts, soit toujours 72 Wh, jusqu’ici tout va bien. Les 14,4 volts ne sont pas choisi au hasard : c’est exactement 4x 3,6 volts, ce qui permet de garder un rendement maximal et donc d’arriver de nouveau à 72 Wh.

20 000 mAh pour 52 à 72 Wh selon les cas

Sur la boite de la batterie, d’autres valeurs sont données : 12 817 mAh sous 5 volts et 2 606 mAh sous 20 volts, soit respectivement 64 et 52 Wh. La perte est donc quasiment de 30 % dans ce dernier cas. Voici un résumé des chiffres annoncés par le fabricant :

  • 20 000 mAh avec 3,6 volts soit 72 Wh
  • 12 681 mAh avec 5 volts, soit 64 Wh
  • 5 000 mAh avec 14,4 volts, soit 72 Wh
  • 2 606 mAh avec 20 volts, soit 52 Wh

Problème, ces informations ne sont pas du tout présentes sur la fiche du revendeur chez qui nous l’avons achetée. Il est simplement précisé 20 000 mAh et 74 Wh… Oui 74 Wh, alors que le produit que nous avons reçu n’en affiche que 72 Wh. La raison : sur la fiche du revendeur, la tension prise en compte pour calculer les Wh est de 3,7 volts.

Il faudrait plus de transparence de la part des fabricants

Si vous souhaitez savoir combien de fois vous pouvez charger un smartphone et/ou un ordinateur, il faut donc regarder la tension de charge pour connaitre les Wh et comparer à ceux de vos terminaux mobiles. Si vous utilisez la batterie pour charger un ancien smartphone qui ne prend que du 5 volts, alors vous avez 64 Wh. Pour un ordinateur en 20 volts, on descend à 52 Wh. Si par contre votre machine est en 14,4 volts, alors vous avez droit au maximum : 72 Wh.

Communiquer uniquement sur les mAh est trompeur… comme le serait finalement la seule communication des Wh. Dans les deux cas, il faudrait toujours préciser la tension associée. Il faudrait que les fiches produits soient bien plus détaillées, avec au minimum les Wh en fonction de plusieurs tensions différentes, surtout pour des batteries Power Delivery, avec une plage de fonctionnement généralement comprise entre 5 et 20 volts (jusqu’à 48 volts dans la version 3.1).

Bref, on a commandé une batterie de 20 000 mAh et 74 Wh, pour se retrouver avec une 20 000 mAh et 72 Wh, mais « seulement » 52 Wh pour recharger notre ordinateur portable en 20 volts. Si ce dernier point est assez logique, nous n’avions pas moyen de connaitre cette valeur avant de passer commande, dommage.

Et encore, on parle ici de capacité théorique, dans la pratique, il y a toujours des pertes supplémentaires à prendre en compte. C’est parfaitement logique, mais à considérer lorsqu’il s’agit de choisir une batterie externe, surtout si vous avez besoin d’une quantité minimum de mAh/Wh.

100 Wh max en avion, ça fait combien de mAh ? Ça dépend…

Dans les avions, la limite pour embarquer une batterie est fixée en Wh, pour toutes les raisons que nous venons de détailler. Air France rappelle que les « batteries de rechange et batteries externes de moins de 100 Wh » peuvent être embarqué en cabine (mais pas en soute), sans accord préalable, alors que ce dernier sera nécessaire pour une batterie entre 100 et 160 Wh.

On parle aussi parfois de batterie de 27 000 mAh maximum pour une simple raison : les batteries lithium ont une tension de 3,6 ou 3,7 suivant les technologies, soit un maximum de… 99,9 Wh en 3,7 volts, juste en dessous des 100 Wh.

Mais là encore, ce n’est pas une règle et seuls les Wh comptent. Par exemple, Anker propose une batterie de 27 650 mAh et affirme qu’elle « répond aux exigences de la TSA (< 100 Wh) pour être emportée dans les avions comme bagage à main ». Le fabricant annonce, en effet, une capacité de 99,54 Wh, signifiant que la tension de base de la batterie est de 3,6 volts.

☕️ #LIDD : « Le Big Bang à portée de téléscope »

« Campagnes d’observation « grand format », méthodes d’analyse des données novatrices, développements théoriques tous azimuts » : le Journal du Centre national pour la recherche scientifique revient sur la nouvelle « ère de précision » de l’astrophysique et de la cosmologie. Elles permettraient de « percer tous les mystères du cosmos. Y compris celui de ses origines », c’est-à-dire le Big Bang.

Il y a tout d’abord le nouveau catalogue Cosmicflow (.pdf), avec la position et la vitesse de 56 000 galaxies, qui a permis de « cartographier les bassins d’attraction gravitationnelle de notre univers proche ». Les analyses semblent confirmer le modèle cosmologique standard : « il y a 13,8 milliards d’années, notre Univers a émergé d’un état extrêmement chaud et dense qui, sous l’effet de l’expansion, s’est ensuite refroidi et structuré, laissant petit à petit apparaître le gigantesque réseau de galaxies que l’on peut observer aujourd’hui ».

Euclid espace
Voie lactée et galaxies voisines par le satellite Gaia

Les scientifiques cherchent aussi à cartographier l’univers local en étudiant la vitesse d’un échantillon de Galaxie. Problème, il y a de très nombreux paramètres et hypothèses à confirmer. Les chercheurs utilisent donc une méthode d’inférence probabiliste : « Fondée sur l’intelligence artificielle, elle consiste à engendrer numériquement d’innombrables configurations et à assortir chacune d’elles d’une probabilité de compatibilité avec les observations ».

Le CNRS s’attaque ensuite aux paramètres du modèle standard, à l’inflation de l’Univers, aux soubresauts quantiques, à la toile cosmique et à la recherche du fond diffus gravitationnel. Un long format à lire pour les amateurs d’astronomie et d’origines de l’Univers.

Pourquoi le géant maritime français CMA CGM investit autant dans l’IA

Et les Mistral Gagnants
Pourquoi le géant maritime français CMA CGM investit autant dans l’IA

CMA CGM tire tous azimuts sur l’intelligence artificielle. L’armateur de porte-containers français vient d’investir 100 millions d’euros dans la start-up française Mistral, avec qui il travaillait déjà. Mais cela n’a rien d’exclusif : CMA CGM exploite aussi les algorithmes d’OpenAI, Google, Microsoft, Salesforce… comme nous l’expliquait Séverine Grégoire.

Hier, le géant français du transport maritime CMA CGM et la start-up française d’intelligence artificielle Mistral ont annoncé un partenariat de 100 millions d’euros, comme le rapporte Reuters. Rodolphe Saadé, patron de l’armateur, s’intéresse depuis longtemps à l’intelligence artificielle. Fin 2023, il lançait Kyutai avec deux partenaires de choix : Xavier Niel et Eric Schmidt (ancien patron de Google).

Un partenariat sur cinq ans, avec un accent sur la partie média

« Ce partenariat sur cinq ans se concentrera en particulier sur la branche « médias » du conglomérat [suite au rachat de la branche média d’Altice, ndlr], qui détient la chaîne de télévision BFM TV ou le journal La Tribune, ainsi que sur le service client des activités logistiques et maritimes du groupe », expliquent nos confrères. Pour la partie média, il sera notamment question de « la vérification des faits ».

Dans le cadre de ce partenariat, des « employés de Mistral travailleront au siège de CMA CGM à Marseille ». Le groupe possède dans ses locaux un incubateur de start-up sur l’IA : Ze Box. Ce n’est pas la première fois que CMA CGM se lance dans l’IA, elle l’utilise depuis longtemps pour la gestion de sa flotte et de ses équipes.

CMA CGM a déjà un partenariat de cinq ans avec Google

Nous avions rencontré à Marseille Séverine Grégoire (responsable du département IA chez CMA CGM) fin janvier pour une présentation des travaux de l’armateur de porte-conteneurs. Elle expliquait que la roadmap du groupe sur l’intelligence artificielle tournait « autour de trois piliers principaux que sont les opérations, les clients et évidemment les collaborateurs ».


Il reste 63% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Avec iOS 18.4, d’anciennes applications supprimées réapparaissent

L’arrivée d’iOS 18.4 a sonné en Europe le top départ pour le bouquet de services Apple Intelligence. Il s’agit de l’une des mises à jour intermédiaires les plus touffues jamais proposées pour iPhone. Du moins pour les personnes ayant un modèle compatible, car l’IA de la pomme est réservée aux modèles les plus récents : iPhone 15 Pro et tous les iPhone 16 (classique, Pro et 16e).

Comme signalé par MacRumors, de nombreux fils de discussion sont apparus sur Reddit (ici, , ou encore ) ainsi que sur les propres forums d’Apple pour évoquer un drôle de souci : d’anciennes applications supprimées sont de retour.

L’origine du problème n’est pas encore comprise, mais il s’agit probablement d’un bug introduit par le système. Les applications réinstallées avaient été supprimées il y a plusieurs mois, voire il y a plusieurs années. Le problème ne semble pas une conséquence de la fonction Téléchargements automatique, qui permet normalement de répercuter les installations faites sur d’autres appareils. Des utilisateurs affirment ainsi que leur iPhone est le seul appareil Apple qu’ils possèdent.

Au sein de l’équipe, nous avons pu observer ce comportement sur un appareil : deux applications supprimées il y a longtemps, réinstallées et présentes dans le dossier « Ajouts récents ». Sur d’autres iPhone de la rédaction, tout semblait normal.

Précisions que l’appareil concerné n’est pas jailbreaké et n’a jamais utilisé de boutique alternative. Il a été utilisé pour tester les bêtas d’iOS 18.4 et le problème ne s’est manifesté qu’en fin de cycle, avec la première Release Candidate ou la version finale. Il ne semble cependant pas lié à la phase bêta, car les témoignages évoquent principalement l’installation de la mise à jour en usage courant.

Quoi qu’il en soit, le problème n’est pas très grave, puisqu’il suffit de supprimer les quelques applications éventuellement de retour. Il faut simplement jeter un œil et vérifier que de vieux fantômes ne sont pas revenus hanter votre téléphone.

France Télévisions : l’audiovisuel public face aux défis de l’IA générative

Smart TV
France Télévisions : l’audiovisuel public face aux défis de l’IA générative

Déployé dans les prochains jours, le portail medIAgen permettra bientôt aux quelque 9 000 salariés du groupe France Télévisions d’utiliser l’intelligence artificielle générative dans leurs travaux quotidiens. L’occasion d’essayer de mieux comprendre comment, et pourquoi, l’audiovisuel public aborde le sujet de l’IA, entre enjeux d’usages, de coûts et de responsabilités…

En gestation depuis deux ans, le projet s’apprête à être déployé à grande échelle au sein du groupe France Télévisions. « L’ensemble des salariés auront accès à un portail dans lequel ils pourront utiliser gratuitement Mistral, Claude, Llama ou ChatGPT dans leur dernière version en date, avec la garantie que les données qu’ils soumettront ou les documents qu’ils uploaderont resteront uniquement au niveau de leur compte personnel », explique à Next Frédéric Brochard, directeur des technologies de France Télévisions.

Bientôt une IA générative pour tous les salariés

Ce projet, baptisé medIAgen, constitue la réponse de l’audiovisuel public face à la vague des usages grand public associés à l’intelligence artificielle, intervenue depuis le lancement de ChatGPT fin 2022. « On voit déjà en interne qu’une part significative de trafic pointe vers les solutions d’IA générative, or comme toutes les entreprises, nous faisons face à des problématiques de coûts et de sécurité. On ne peut pas laisser fuiter nos données internes et il n’est pas possible de prendre une licence individuelle à ChatGPT pour tout le monde. Nous avons donc pris le parti de proposer un accès sécurisé, avec une solution dont le coût va se révéler inférieur à 5 ou 6 euros par individu, alors qu’on donne accès en illimité à quatre LLM », précise Romuald Rat, directeur du Techlab de France Télévisions.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Donald Trump accorde de nouveau 75 jours pour la vente TikTok

Fin janvier, dans les premières heures suivant son investiture, Donald Trump signait un décret pour accorder 75 jours afin de mettre en place la vente ou l’interdiction de TikTok. Le 47ᵉ président des États-Unis vient d’accorder de nouveau 75 jours à la plateforme.

Il affirme que son administration a « fait d’énormes progrès » dans ce dossier, mais qu’un accord « nécessite plus de travail pour s’assurer que toutes les approbations nécessaires sont signées ». « Nous espérons continuer à travailler de bonne foi avec la Chine, qui, je le comprends, n’est pas très satisfaite de nos tarifs réciproques », ajoute le président. La Chine a pour rappel répondu du tac au tac avec 34 % de taxe sur les importations des États-Unis.

« Nous ne voulons pas que TikTok disparaisse », réaffirme Donald Trump. Plusieurs personnalités et sociétés sont sur les rangs, résume le Parisien : « le « Project Liberty » de l’entrepreneur Frank McCourt, propriétaire de l’Olympique de Marseille, le youtubeur MrBeast ». Citons également Perplexity AI, Amazon, Blackstone, Microsoft, Walmart…

TikTok
❌