Vue normale

Tout savoir sur l’USB… quel bordel !

17 décembre 2025 à 10:41
Universal Serial Brainfuck
Tout savoir sur l’USB… quel bordel !

L’USB est un connecteur universel que l’on retrouve partout, à commencer par les ordinateurs et smartphones. 25 ans que cette norme évolue, mais en assurant toujours la rétrocompatibilité… ce qui n’est pas toujours facile. Rien que pour le format de connecteur Type-C (réversible), on se retrouve avec un document explicatif de 439 pages. Next a plongé dedans, voici ce qu’il faut en retenir.

L’USB, tout le monde connait. C’est un format universel utilisé pour des souris, des claviers, du stockage… Cette norme est capable d’assurer des échanges de données jusqu’à plusieurs dizaines de Gb/s et, dans le même temps, de la charge rapide jusqu’à 240 watts. La promesse est simple, universelle, mais la réalité est bien plus compliquée.

Voyez ce premier papier comme l’introduction d’un long dossier concernant les câbles USB avec au moins un connecteur Type-C à une des extrémités. Nous allons ici exposer la théorie et les recommandations de l’USB-IF en charge de ce protocole. Il s’agit de détailler les bonnes pratiques que tous les fabricants sont censés mettre en œuvre.

Nous verrons par la suite que c’est loin d’être le cas puisqu’on trouve encore aujourd’hui dans le commerce des câbles USB non conformes et potentiellement dangereux. Comme avec les chargeurs USB, il y a aussi les fausses promesses, malheureusement impossibles à vérifier avant d’avoir le produit entre les mains et du matériel spécialisé pour le tester.

Les câbles USB ont également un ennemi invisible (leur résistance interne) que nous expliquerons et analyserons dans la suite de notre dossier. Enfin, nous avons retrouvé dans un tiroir un câble USB aux performances absolument catastrophiques. Il transforme le 5 volts en 3 volts et nous l’avons même fait chauffer à plus de 100 °C ! Prudence, vous pouvez aussi en avoir un du genre qui traine chez vous, sans pouvoir l’identifier facilement. Nous avons identifié le nôtre par hasard.

Débits et charge : 25 ans d’évolution de l’USB

La première version de l’USB va fêter ses 30 ans, mais il a vraiment pris son envol au début des années 2000 avec l’USB 2.0, encore aujourd’hui largement utilisé dans le monde. En l’espace de deux décennies, les débits ont explosé et ont été multipliés par plus de 160 et même 250 avec le mode asymétrique de l’USB4 v2.0, qui permet d’atteindre 120 Gb/s.

Voici un résumé de l’historique des débits (avec le nom commercial entre parenthèses) :

  • USB 1.0 : 1.5 Mb/s (Low Speed)
  • USB 1.1 : 12 Mb/s (Full Speed)
  • USB 2.0 : 480 Mb/s (High Speed)
  • USB 3.0 : 5 Gb/s (SuperSpeed)
  • USB 3.1 : 10 Gb/s (SuperSpeed+)
  • USB 3.2 Gen 2×2 : 20 Gb/s (SuperSpeed+)
  • USB4 : 40 Gb/s
  • USB4 v2.0 : 80 Gb/s

Nous en avons déjà parlé plusieurs fois, mais l’USB permet aussi de charger des appareils et des batteries, avec une puissance qui a elle aussi fortement augmenté au fil des années. Entre l’USB 2.0 et la dernière version de la norme Power Delivery (PD), la puissance de charge a été multipliée par 100.

Arrivé il y a une dizaine d’années, Power Delivery (suite de Battery Charging alias BC) permet de transmettre plus de puissance électrique en USB. On passe de quelques watts en USB 2.0 et 3.0 à 100 watts via Power Delivery et jusqu’à 240 watts dans la dernière version. Adieu les 5 volts historiques, il est possible de monter jusqu’à 20 volts avec jusqu’à 48 volts à partir de PD 3.1. Dans tous les cas, le courant est limité à 5 ampères.

Voici le détail des puissances électriques :

  • USB 2.0 : 2,5 W (5 V et 500 mA)
  • USB 3.0 et 3.1 : 4,5 W (5 V et 900 mA)
  • USB BC 1.2 : 7,5 W (5 V et 1.5 A)
  • USB Type-C 1.2 : 15 W (5 V et 3 A)
  • USB PD 2.0 et 3.0 : 100 W (20 V et 5 A)
  • USB PD 3.1 : 240 W (48 V et 5 A)

Type-A, Type-B et Type-C : trois formats de connecteurs

Il existe aussi plusieurs connecteurs. Les Type-A et Type-B étaient les premiers arrivés, avec des déclinaisons mini et micro. Ces derniers sont plus petits que les connecteurs standards sans fonctionnalités supplémentaires, nous ne nous attarderons donc pas dessus.

Le Type-A sert généralement aux « hosts », c’est-à-dire les ordinateurs et les alimentations (chargeurs). Le Type-B sert aux « devices », à savoir les périphériques comme les imprimantes et les disques durs externes. Pour d’autres périphériques comme les claviers et souris, le câble USB est généralement attaché, avec un port Type-A pour le brancher à l’ordinateur. Le format micro USB Type-B (en forme de trapèze) a longtemps équipé les smartphones Android.

Tout ce petit monde est doucement mais surement remplacé par le connecteur Type-C, d’autant plus avec l’Europe qui l’impose un peu partout : ordinateurs portables, routeurs et bornes Wi-Fi, batteries externes, etc. Pour simplifier quasiment tout ce qui se recharge et qui ne nécessite pas plus de 240 watts (il y a des exceptions).

Le connecteur Type-C est réversible (contrairement au Type-A dont on retourne parfois plusieurs fois le connecteur avant de pouvoir l’insérer…) et s’utilise aussi bien pour les « hosts » que les « devices ». Alors que les Type-A et Type-B permettent d’éviter de se tromper par des formats physiques incompatibles, le Type-C utilise une détection et une protection électronique pour déterminer qui est le « host » (auparavant connecteur Type-A) et qui est le « device » (ancien Type-B).

Ugreen propose une petite photo de famille, tandis que SilverStone ajoute les versions de la norme USB supportées par les différents connecteurs :


Comment assurer 25 ans de rétrocompatibilité

Au fil des années et de la montée en débit, les connecteurs ont évolué. Laissons de côté l’USB 1.x, à la durée de vie trop courte, pour débuter avec l’USB 2.0 lancé en 2000. Peu importe le connecteur (Type-A ou Type-B), il y a quatre broches et autant de fils dans les câbles. Deux pour l’échange des données, D+ et D-, et deux autres pour le courant électrique, Vbus pour le + 5 V et GND pour la masse.

Avec l’USB 3.0 (annoncé en 2008), cinq nouvelles broches sont apparues. Deux paires pour le SuperSpeed (alias SS) et une dernière pour la masse. La rétrocompatibilité est de mise. Le format du connecteur Type-A reste le même avec des broches supplémentaires à l’intérieur du connecteur, tandis que le Type-B grossit un peu pour permettre d’ajouter les broches supplémentaires. Idem avec le micro-B en USB 3.0 qui a le trapèze d’origine et un petit bloc supplémentaire à côté.

On peut donc utiliser un câble USB 2.0 dans un connecteur USB 3.x, mais on se limite alors aux performances de l’USB 2.0. Même chose avec un câble USB 3.X dans un emplacement USB 2.0. Pour profiter du SuperSpeed, il faut à la fois un câble et des connecteurs compatibles.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

SSD, mémoire vive : pénurie, mon amour…

17 décembre 2025 à 08:03
Finalement, l’amour à un prix : cher !
SSD, mémoire vive : pénurie, mon amour…

Fortes tensions : c’est le terme à la mode quand il s’agit de parler de puces mémoire, aussi bien pour les SSD que la mémoire vive. Les demandes explosent du côté des professionnels sur les GPU avec de grosses quantités de mémoire vive, à cause de l’intelligence artificielle. La situation pourrait s’aggraver avec maintenant une volonté de faire des « AI SSD ».

Face à cette situation, Micron (connu au travers de sa marque Crucial) a décidé de sortir du marché grand public, aussi bien pour la mémoire vive que les SSD. C’est un coup de tonnerre important dans un marché dominé par trois acteurs pour la fabrication des puces : SK hynix, Samsung et Micron donc.

Samsung ne bouge pas, SK hynix renforce sa production…

Les yeux se tournaient d’ailleurs vers Samsung pour voir ce qu’il allait faire. Un porte-parole du fabricant a tordu le cou aux rumeurs, affirmant à Wccftech que celle sur « l’abandon progressif des SSD S-ATA ou d’autres SSD est fausse ».

Toujours à nos confrères, SK hynix affirme continuer à produire massivement de la mémoire HBM, dont raffolent les GPU et les autres puces taillées pour l’IA. Le fabricant de puces ajoute néanmoins qu’il « étend activement sa capacité de production à travers de nouveaux projets de fabrication ».

…et prépare des « AI SSD » avec NVIDIA

Dans les projets de SK hynix, il y aurait des « AI SSD », développés conjointement avec NVIDIA, c’est en tout cas ce que rapporte le média Chosun. Nos confrères se basent sur une déclaration du vice-président de l’entreprise, Kim Cheon-seong lors de la conférence Artificial Intelligence Semiconductor Future Technology.

Il serait question d’un SSD dont les performances seraient 10 fois supérieures à celles des modèles traditionnels. Il serait commercialisé sous le nom de « Storage Next » pour NVIDIA et « AI-N P » (pour AI NAND Performances) du côté de SK hynix. Un prototype est attendu pour l’année prochaine. « Les deux sociétés ont estimé que les IOPS, qui désignent le nombre d’opérations d’entrée/sortie par seconde, pourraient atteindre 100 millions en 2027 », ajoutent nos confrères.

Des précédents avec les SSD Optane

Ce n’est pas la première fois que les fabricants se lancent dans des SSD avec des performances supérieures pour le monde professionnel et pour répondre à des besoins spécifiques. Intel l’a fait par exemple avec les SSD Optane à base de mémoire 3D Xpoint (une technologie abandonnée en 2022). La latence était plus faible et l’endurance plus élevée que sur les SSD classiques. Ils se positionnaient entre la mémoire vive et le SSD.

Un point pour finir sur la situation à venir. Kingston est assez peu optimiste pour les prochaines semaines. Cameron Crandall (responsable SSD pour les datacenters chez Kingston) en a parlé lors du podcast The Full Nerd Network. Il prévoit que, selon TechPowerUp, la situation devrait encore s’aggraver dans les 30 prochains jours, « entraînant une hausse des prix des SSD par rapport aux niveaux actuels », ajoutent nos confrères.

SK hynix est encore moins optimiste et prévoit une pénurie jusqu’en 2028, comme le rapporte Hardware & Co. Une chose est sûre : le prix de la mémoire s’envole en cette période de fin d’année… À moins que la bulle de l’IA n’explose (ou n’implose) avant ?

Les conséquences pourraient être bien visibles pour les consommateurs. Les ordinateurs portables pourraient par exemple redescendre à 8 Go de mémoire vive seulement, alors que 16 Go sont généralement un minimum, comme le rapporte Les Numériques. 16 Go est d’ailleurs le seuil minimum de mémoire imposé par Microsoft pour certifier un PC Copilot+.

« Après près de deux ans de calme relatif, le marché des disques durs (HDD) montre à nouveau des signes de stress », explique Tom’s Hardware. Nos confrères reprennent un rapport de Digitimes Asia qui annonce une hausse de 4 % des prix. Selon nos confrères, c’est symptôme d’un changement important de paradigme, qui modifie « toute la chaîne d’approvisionnement informatique ».

Laissons passer les fêtes de fin d’année, écouler les stocks et il sera temps de refaire un point de situation à la rentrée, aussi bien sur le stockage que sur la mémoire vive.

1 669 MW : l’EPR de Flamanville passe à 100 % de puissance… mais le chemin est encore long

16 décembre 2025 à 15:37
Extended Power à Retardement
1 669 MW : l’EPR de Flamanville passe à 100 % de puissance… mais le chemin est encore long

L’EPR de Flamanville est monté à 100 % de sa capacité ce week-end. Les tests vont continuer, mais une lourde opération de maintenance est déjà programmée pour septembre 2026 : 350 jours d’arrêt pour notamment remplacer le couvercle de la cuve, une petite pièce de… 100 tonnes. Le réacteur a déjà vu les délais et son coût exploser dans les grandes largeurs.

Vendredi, l‘ASNR (Autorité de sûreté nucléaire et de radioprotection) donnait son accord « pour le passage du réacteur EPR de Flamanville à un niveau de puissance supérieur à 80 % de sa puissance nominale ». En clair, le réacteur peut monter jusqu’à 100 % de sa puissance maximale de fonctionnement. On est encore loin d’une mise en production pérenne.

L’EPR a produit 1 669 MW de puissance électrique brute

Au début de l’année, le réacteur avait eu le droit de dépasser les 25 % de puissance. L’ASNR avait ensuite procédé à des inspections, sans mettre « en évidence d’élément susceptible de remettre en cause la possibilité de poursuivre la montée en puissance du réacteur ». Le réacteur avait pour rappel produit ses premiers électrons en décembre 2024, après avoir obtenu l’autorisation de mise en service quelques mois auparavant. Le réacteur avait alors produit 100 MW de puissance électrique, loin des plus de 1 600 MW prévus.

Dans la foulée de l’autorisation, EDF a poussé les curseurs. Dimanche 14 décembre 2025, la pleine puissance a été atteinte à 11h37 se félicite l’entreprise : « le réacteur de Flamanville 3 […] a produit 1 669 MW de puissance électrique brute ».

On parle de puissance brute, en opposition à la puissance nette qui est celle injectée dans le réseau. EDF rappelle que la puissance nucléaire d’un réacteur correspond à la quantité totale de chaleur produite dans le cœur du réacteur par la fission nucléaire ; à ne pas confondre avec la fusion, qui est en cours de développement. La « chaleur sert à produire de la vapeur qui fera tourner la turbine. Elle est exprimée en MW thermiques (MWth) ».

Principe de fonctionnement : chaleur -> turbine -> électricité

Quand on parle de puissance électrique brute, c’est la puissance maximale en sortie de turbine, qui « entraîne un alternateur chargé de convertir l’énergie mécanique en électricité ». Dans la pratique, un « réacteur nucléaire consomme une partie de l’électricité qu’il produit pour ses propres besoins de fonctionnement (pompes, systèmes de ventilation, circuits de sûreté…) ».

Cette montée en puissance devait avoir lieu plus tôt dans l’année, mais un problème détecté en juin a repoussé l’échéance de plusieurs mois : « l’unité de production n°3 de Flamanville a été mise à l’arrêt dans le cadre des essais de mise en service du réacteur. Suite à des analyses, le réacteur de Flamanville est maintenu à l’arrêt pour intervenir sur des soupapes de protection du circuit primaire principal ». Tout est rentré dans l’ordre fin octobre.

Attention, le réacteur est en phase de test, la production de masse de manière pérenne n’est pas encore là. Il est question de « tester les matériels à pleine puissance, réaliser des relevés et vérifier leur bon fonctionnement ». Sur les réacteurs nucléaires, le rodage est long. Au cours des prochaines semaines, « la puissance du réacteur sera amenée à varier pour poursuivre les essais à différents paliers de puissance et une intervention sera réalisée sur un poste électrique interne ».

Nouveau couvercle de 100 tonnes en 2026

L’EPR va aussi avoir droit à des travaux de plus grande envergure avec le remplacement du couvercle de la cuve, une pièce de 100 tonnes et 6 mètres de diamètre. Cette opération se fera lors du premier arrêt pour rechargement du réacteur, prévu pour septembre 2026. Elle doit durer la bagatelle de 350 jours, quasiment une année complète. Le démarrage ne devrait donc pas avoir lieu avant fin 2027.

En 2017, l’ASNR avait expliqué que cette « anomalie concerne le fond et le couvercle de la cuve. L’acier de ces composants n’a pas la composition chimique attendue. Au cours de leur fabrication par forgeage, l’usine Creusot Forge d’Areva NP n’a pas suffisamment éliminé une zone qui contient naturellement un excès de carbone […]. Cette zone se retrouve donc au centre des pièces finales ».

Comme nous l’avons déjà expliqué, l’Autorité considère que, sur la base de ces analyses techniques, « les caractéristiques mécaniques du fond et du couvercle de la cuve sont suffisantes au regard des sollicitations auxquelles ces pièces sont soumises, y compris en cas d’accident ». Il fallait compter environ 7 ans pour construire un nouveau couvercle, l’ASNR avait donc donné son feu vert jusqu’à fin 2024 en attendant que la pièce soit disponible. La date limite a ensuite été repoussée.

Pour la cuve, la revue technique était arrivée à la conclusion que « l’anomalie ne remet pas en cause l’aptitude au service ». Pierre-Franck Chevet, président de l’ASNR en 2017, affirmait qu’« on peut se prononcer favorablement sur l’utilisation pérenne du fond de cuve ». Si la cuve était à changer, les coûts et les délais auraient explosé… enfin davantage de ce qu’ils sont déjà.

Les calculs et les comptes ne sont pas bons

Le réacteur a pour rappel été mis en marche après pas moins de 17 ans de travaux (12 ans de retard sur le calendrier initial) et une explosion des coûts… c’est peu de le dire. De 3 milliards d’euros, l’addition est passée à… plus de 20 milliards d’euros.

Dans un nouveau rapport publié au début de l’année, la Cour des comptes affirmait que « les calculs effectués par la Cour aboutissent à une rentabilité médiocre pour Flamanville 3, inférieure au coût moyen pondéré du capital de l’entreprise, sur la base d’un coût total de construction estimé à environ 23,7 milliards d’euros (intérêts intercalaires compris) ». En 2020 déjà, la Cour tirait à boulet rouge sur le nucléaire français.

Récemment, RTE appelait à accélérer les usages électriques (voitures, datacenters, hydrogène) afin d’assurer un meilleur équilibre entre consommation et production d’électricité. La raison, selon RTE : une consommation « atone » depuis la pandémie de Covid-19 alors que la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. La mise en marche de l’EPR de Flamanville va encore augmenter la capacité de production de la France.

☕️ Google arrête les rapports personnalisés des fuites de vos données sur le dark web

16 décembre 2025 à 08:04

Depuis des années (les premiers signalements sur notre compte remontent étonnamment à 2016) Google pouvait surveiller le Dark Web pour récupérer des informations « sur les violations de données ayant divulgué vos informations ».

Cette fonctionnalité, Google en a officiellement parlé pour les abonnés One en 2023, avant de l’ouvrir à tous fin 2024. Un an plus tard, Google annonce mettre « fin au rapport sur le dark Web ». Un message est envoyé aux utilisateurs concernés et une page support a été mise en ligne.

Dès le 15 janvier 2026, la recherche de nouvelles violations sur le dark Web sera arrêtée. Un mois plus tard, le 16 février 2026, « l’outil de rapport sur le dark Web ne sera plus disponible ». Toutes les données liées seront alors supprimées.

« Bien que le rapport fournisse des informations générales, les retours ont montré qu’il ne proposait pas d’étapes concrètes à suivre. Nous apportons ce changement pour nous concentrer sur des outils qui vous fournissent des procédures plus claires et concrètes afin de protéger vos informations en ligne. Nous continuerons à surveiller les menaces en ligne et à vous défendre contre elles, y compris sur le dark Web. Nous développerons également des outils pour vous aider à vous protéger ainsi que vos informations personnelles », avance Google comme justification.

Il n’en reste pas moins que c’était une fonctionnalité pratique. Rien qu’en 2025, nous avons eu une dizaine de notifications de la part de Google. Il fallait créer un profil de surveillance avec les nom, date de naissance, adresse email et numéro de téléphone que l’on souhaitait surveiller.

Le rapport n’indiquait évidemment pas le mot de passe en entier, mais seulement les premiers caractères, permettant de savoir s’il avait fuité en clair ou non. Dans les rapports que nous avons reçus, plusieurs fois des mots de passe en clair apparaissaient. Un service ne doit pour rappel jamais stocker un mot de passe en clair en théorie.

☕️ Galileo : suivez en direct le 5ᵉ lancement d’Ariane 6 demain matin

16 décembre 2025 à 07:00

Demain, à 6h01, Ariane 6 devrait décoller si tout se passe comme prévu pour sa mission VA266. Ce sera le « cinquième vol du lanceur lourd européen Ariane 6, dans sa configuration à deux boosters (Ariane 62) ». C’est la première fois que Galileo volera sur Ariane 6. Galileo est, pour rappel, le système de positionnement par satellite, concurrent du GPS américain.

À bord de cette mission, le 14ᵉ lancement opérationnel pour la constellation Galileo, les satellites « SAT 33 et SAT 34 seront placés sur une orbite moyenne (MEO) à environ 22 922 km d’altitude. Leur séparation interviendra 3 heures et 55 minutes après le décollage. Tous deux rejoindront ensuite progressivement leur orbite opérationnelle finale à 23 222 km d’altitude », explique Arianespace.

Ce sera donc le 5ᵉ lancement pour Ariane 6 et son 4ᵉ vol commercial (358ᵉ lancement opéré par Arianespace). En 2025, Arianespace aura donc réalisé sept lancements : quatre avec Ariane 6 et trois avec Vega C. Cette mission VA266 sera retransmise en direct sur ESA WebTV et la chaine ESA sur YouTube (à partir de 5h35). 

Pour rappel, SpaceX est à une centaine de lancements rien que pour Starlink cette année (c‘est plus que les années précédentes), avec plus de 2 300 satellites déployés en 2025, plus de 10 000 depuis le début.

Inclusion numérique : comment Orange veut connecter les Africains grâce à l’IA

15 décembre 2025 à 13:25
Next ngir jël ndam li !
Inclusion numérique : comment Orange veut connecter les Africains grâce à l’IA

L’Afrique compte plus de 1,5 milliard d’habitants, mais le continent est parfois laissé pour compte des évolutions numériques. Un problème que rencontre par exemple l’ICANN qui peine à inclure des représentants dans certains comités de haut vol sur la gouvernance d’Internet. Le principal problème étant la langue.

Le problème de la langue change d’échelle à la lumière d’un chiffre. Selon l’Unesco, « avec une estimation allant de 1 500 à 3 000 langues, l’Afrique constitue un véritable foyer de richesse linguistique et culturelle ». On parle de langues vernaculaires (parlées au sein d’une communauté) et véhiculaires (entre les populations). Un des employés d’Orange originaire du Tchad précise que le pays compte près de 20 millions d’habitants pour 120 langues. Cette richesse linguistique entraine des complications en matière d’inclusion numérique.

« La langue est une barrière »

Lors du salon OpenTech 2025 d’Orange, nous avons échangé avec les équipes de l’opérateur qui adapte des grands modèles de langues et développe des agents pour inclure une part bien plus importante de ses clients africains dans le numérique.


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La 2G vit ses derniers mois, mais 2,66 millions de terminaux l’utilisent encore

15 décembre 2025 à 08:05
Chérie ça va couper !
La 2G vit ses derniers mois, mais 2,66 millions de terminaux l’utilisent encore

Au dernier décompte, il restait encore 2,66 millions de cartes SIM 2G seulement en service, dont 1,57 million dans des terminaux pour des services de type voix, SMS et Internet mobile. Dans trois ans, ce sera au tour de la 3G, encore utilisée par 2,99 millions de terminaux.

La 2G est en train de vivre ses derniers instants. À partir de mars 2026, elle sera progressivement éteinte par Orange. Bouygues Telecom et SFR feront de même à partir de fin 2026. Free ne communique pas officiellement sur la 2G, mais l’opérateur n’a pas de réseau en propre (il en a eu un pendant cinq mois seulement fin 2022), il passe par un contrat d’itinérance (renouvellé à plusieurs reprises) avec Orange.

Alors que la tension monte entre les usagers (santé, ascenseurs, alarmes, voitures…) d’un côté et les opérateurs de l’autre, l’Arcep a mis en place un Observatoire trimestriel des cartes SIM utilisées dans les terminaux compatibles avec la 2G et la 3G uniquement.

L’Arcep compte les cartes SIM 2G et 3G… sauf celles dans les véhicules

Le premier observatoire a été publié en septembre, sur des données de juin 2025. Il restait alors encore 5,9 millions de terminaux en circulation, dont 2,8 millions seulement en 2G et donc en fin de vie dans un an maximum. Aujourd’hui, il en reste encore respectivement 5,61 millions, soit une baisse de 4,8 % en trois mois (285 000 de moins), et 2,66 millions (140 000 de moins en trois mois).

L’Arcep distingue deux cas de figure. D’un côté les terminaux pour des usages voix, SMS et Internet mobile (en particulier des téléphones mobiles et des tablettes de clients). De l’autre, les cartes SIM pour des services Machine to Machine (MtoM)… mais à l’exception des « cartes SIM montées par les constructeurs automobiles dans les véhicules » qui ne sont donc pas comptabilisées.

Voici le bilan :

  • Cartes SIM 2G seulement (voix/SMS/internet) : 1,57 million (- 60 000 en trois mois)
  • Cartes SIM 2G/3G (voix/SMS/internet) : 1,05 million (- 20 000 en trois mois)
  • Total (voix/SMS/internet) : 2,62 millions (- 80 000 en trois mois)
  • Cartes SIM 2G (MtoM) : 1,09 million (- 130 000 en trois mois)
  • Cartes SIM 2G/3G (MtoM) : 1,90 million (- 70 000 en trois mois)
  • Total (MtoM) : 2,99 millions (- 200 000 en trois mois)

« À l’aune des calendriers annoncés d’extinction de la technologie 2G sur les réseaux des opérateurs, il est attendu que la dynamique de décroissance de ces parcs s’intensifie dans les prochains mois », explique (ou espère ?) le régulateur des télécoms.

Il ajoute qu’il sera attentif « aux actions mises en œuvre par les opérateurs pour accélérer la transition vers des terminaux compatibles avec les technologies 4G ou 5G à l’approche des échéances d’extinction des technologies 2G puis 3G ». L’Arcep propose une page dédiée à la fermeture des réseaux 2G et 3G ici.

Rendez-vous fin 2028 pour l’extinction de la 3G

L’Arcep explique que, fin septembre, « le nombre de cartes SIM dans des terminaux pour des services Machine to Machine compatibles uniquement avec les technologies 2G et 3G est de 3 millions d’unités », ce qui représente environ 12 % « du parc des cartes SIM dans ce type de terminal ».

En France, la 3G a droit à un sursis, mais son acte de décès est déjà prononcé. Orange et SFR arrêteront cette technologie à partir de fin 2028, tandis que Bouygues Telecom a pour le moment l’intention de pousser plus loin, jusqu’à fin 2029.

De son côté, Free arrête à partir d’aujourd’hui sa 3G. Comme nous l’avons déjà expliqué, l’opérateur indique désormais sur sa fiche standardisée d’information : « Service accessible en itinérance 2G/3G sur le réseau de l’opérateur historique partenaire ».

Free passe donc par Orange pour la 2G et la 3G, lui permettant ainsi de réaffecter une partie de ses fréquences de la 3G pour améliorer débits et couverture de la 4G… au grand dam de Bouygues Telecom qui était encore une fois vent debout contre la prolongation de l’itinérance de Free sur le réseau d’Orange.

☕️ Orange signe un accord engageant pour racheter les 50 % manquants de MasOrange

15 décembre 2025 à 07:07

Il y a un peu plus d’un mois, Orange annonçait avoir conclu un accord non engageant pour racheter au fonds britannique Lorca les 50 % qu’il détient de l’opérateur espagnol MasOrange. Orange passe la seconde, avec un accord engageant cette fois.

Les conditions financières pour récupérer les 50 % manquants du « premier opérateur sur le marché espagnol en nombre de clients » sont les mêmes, à savoir 4,25 milliards d’euros en numéraire. Pour Orange, l’Espagne est le deuxième marché en Europe, après la France.

La finalisation de cette transaction est maintenant prévue pour le premier semestre 2026. Orange deviendra alors le propriétaire exclusif de l’opérateur espagnol aux 31 millions de clients sur le mobile et 7,1 millions de clients sur le fixe.

Ce rachat s’inscrit dans la nouvelle stratégie « Lead the future » lancée il y a trois ans. Son objectif : se recentrer sur son cœur de métier en Europe, à savoir les télécoms et la cyberdéfense.

MasOrange y contribue, notamment avec l’arrivée de l’ex-patron de l’ANSSI Guillaume Poupard comme Chief Trust Officer chargé de la « confiance et souveraineté ».

☕️ Eutelsat lève 1,5 milliard d’euros et l’État devient le premier actionnaire

15 décembre 2025 à 06:50

Comme prévu, Eutelsat a effectué une levée de fonds, mais plus importante que prévue. Alors qu’il était question de 1,35 milliard d’euros au mois de juin, elle est finalement de 1,5 milliard d’euros. L’État aussi revoit sa participation à la hausse avec 749,3 millions d’euros au lieu de 717 millions annoncés.

« La participation de l’État au capital d’Eutelsat est désormais de 29,65 %, ce qui en fait le premier actionnaire », explique le ministère de l’Économie et des Finances. Les actionnaires de référence de l’entreprise que sont Bharti Space (17,88 %), le Gouvernement britannique (10,89 %), CMA CGM (7,46 %), et le Fonds Stratégique de Participations (4,99 %) ont également participé. Le flottant est de 29,13 %.

Cette levée de fonds doit permettre le « développement d’Eutelsat dans le domaine des constellations LEO, segment stratégique pour les télécommunications de demain et dont le marché connaît un fort développement ». Un segment où Starlink de SpaceX est déjà en place et sur lequel Amazon Leo (ex-Kuiper) se prépare aussi, au grand dam des syndicats.

Le ministère explique d’ailleurs que cette manne financière servira aux « investissements dans sa constellation en orbite basse (LEO) et la future constellation européenne souveraine IRIS² », ou Infrastructure de Résilience et d’Interconnexion Sécurisée par Satellites.

IRIS² sera le « le premier réseau de satellites multi-orbitaux en Europe ». Cette constellation sera « constituée d’environ 300 satellites et devrait voir le jour en 2030 », rappelle le CNES. Elle fournira une « infrastructure de communication sécurisée aux organismes et agences gouvernementales de l’UE ».

Le gouvernement assure la promotion d’Eutelsat et rappelle que le groupe « se distingue à ce titre par sa position unique au niveau mondial : il est aujourd’hui le seul opérateur à combiner une flotte en orbite géostationnaire (GEO) et une constellation en orbite basse (LEO), lui conférant un avantage technologique et stratégique sans équivalent ».

On a testé 12 chargeurs USB à moins de 10 euros… et on a eu encore plus peur !

12 décembre 2025 à 14:04
Et paf le chargeur
On a testé 12 chargeurs USB à moins de 10 euros… et on a eu encore plus peur !

Sur les marketplaces d’AliExpress, d’Amazon et de Cdiscount, on trouve pléthore de chargeurs USB à moins de 10 euros. Nous en avons commandé plus d’une dizaine pour les analyser de fond en comble… et on n’a pas été déçus du voyage. Les fausses promesses sont bien réelles, comme les dangers.

Dans la première partie de notre dossier, nous avons brièvement présenté notre protocole et testé des chargeurs vendus entre 10 et 20 euros. Le résultat a été tout sauf brillant, avec un modèle dont la température a grimpé à plus de 120 °C sur le plastique extérieur, des chargeurs « Xiaomi » qui n’en étaient pas, des puissances fantaisistes annoncées par les fabricants, etc.

Faire pire semblait difficile, mais les chargeurs vendus à moins de 10 euros relèvent le défi… Sur les 12 nouveaux modèles testés, deux ont rendu l’âme, dont un a même pris feu. Sur les quatre vendus par AliExpress à moins de 5 euros, aucun n’est conforme à sa description.

Avant de vous plonger dans le détail de nos tests, on ne peut que vous conseiller de lire le récapitulatif de notre dossier sur les chargeurs USB, surtout si vous n’êtes pas familier avec les notions de charges rapides, de watts, de baisse de tension, de chauffe, etc.

Chargeur USB C 65W 5 Ports à 8,99 euros : 15 W, pas plus

Le chargeur n’a pas de marque, il est vendu par HuaNingJin sur Amazon pour 8,99 euros, avec la référence « Chargeur USB C 65W 5 Ports avec Technologie PD20W/QC3.0 ».

Sur le chargeur, il est simplement indiqué « 3U + 2PD », certainement pour 3 USB Type-A et deux USB Type-C en Power Delivery (alias PD), avec une référence 55-3C3. Sur la fiche produit : « Puissance élevée 65W avec 5 ports USB : Chargeur multi-embouts incluant PD20W + QC3.0 + PD15W + Double Port 3.1A pour une charge ultra-rapide simultanée sur plusieurs appareils ».

Lors de nos tests, impossible de détecter et donc d’utiliser les protocoles Power Delivery (PD) ou Quick Charge (QC), ni de monter au-dessus de 5 V. Quant à l’affirmation des 65 W avec un courant de 3,1 A, nous n’en avons pas vu la couleur.

La charge s’arrêtait automatiquement à 14 ou 15 watts maximum. De plus, la consommation à la prise était élevée (jusqu’à 24 % de plus que la puissance envoyée en USB) avec des baisses de tensions : 4,57 V au lieu de 5 V à 13 watts.

Nos relevés thermiques indiquent que le boitier en plastique s’approche des 70 °C… avec une charge de moins de 15 watts, pour rappel !

Chargeur USB C 65W 5 Ports avec Technologie PD20W/QC3.0
Chargeur USB C 65W 5 Ports avec Technologie PD20W/QC3.0
Chargeur USB C 65W 5 Ports avec Technologie PD20W/QC3.0

Chargeur USB C 65W 3 Ports : 9 W et attention danger sur le 220 V

Ce modèle porte la référence Chargeur USB C 65W 3 Ports Prise Rapide avec PD+QC 3.0A sur le site d’Amazon. Il est proposé par le revendeur HuangQiGuangGao pour 6,99 euros. Sur le boîtier, il est simplement mentionné AR-892 comme référence. Selon nos constatations, il n’est pas compatible Power Delivery et ne dépasse pas 9 W en charge (avec 5 V maximum).


Il reste 89% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

#Nextpresso Test d’un boitier « sans outil » USB Type-C à 10 Gb/s pour SSD M.2, à 15 euros

12 décembre 2025 à 12:37
C'est green ? Super green ! Non, Ugreen !
#Nextpresso Test d’un boitier « sans outil » USB Type-C à 10 Gb/s pour SSD M.2, à 15 euros

Simplicité et rapidité pour moins de 15 euros ? C’est en effet la promesse du boîtier USB Ugreen CM400 dans lequel vous pouvez installer un SSD M.2 (NVMe/PCIe).

Il y a peu, nous avions testé une clé USB de 16 To vendue 5 euros. C’était évidemment une arnaque (surtout pour ce prix), avec un firmware modifié pour faire croire que les données étaient bien écrites. Dans ce nouveau Nextpresso, on vous propose de tester une vraie solution pour sauvegarder vos données en USB.

Il s’agit d’un petit boîtier USB 3.2 Type-C à 10 Gb/s pour SSD au format M.2 avec une interface NVMe (PCIe). Il est de la marque Ugreen, porte la référence CM400 et il est vendu 15 euros sur Amazon. La fiche technique affirme qu’il « ne nécessite pas d’outil » pour l’installation. Voyons cela.

Ouverture et installation du SSD sans outil, vraiment ?

Le boîtier en lui-même est une simple coque en aluminium, avec un contour souple en silicone. Le silicone peut s’enlever, c’est une surcouche qui permet de protéger un peu le boîtier en cas de chute. À l’intérieur, on retrouve un « tiroir » que l’on peut sortir d’une simple pression sur une des extrémités.

Il s’agit en fait d’un bouton en plastique monté sur des ressorts. L’ouverture est donc très simple et, lors de nos manipulations, nous n’avons pas eu d’ouverture intempestive.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La CNIL condamne Ledger sans publier la décision : un juge ordonne de la recevoir

12 décembre 2025 à 10:39

« C’est une première : Ledger doit dévoiler sa sanction CNIL non publique », titre l’Informé. Dévoiler à un juge pour le moment, pas publiquement.

L’affaire remonte à 2020 quand des pirates avaient récupéré une partie de la base de données clients de l’entreprise française de portefeuilles de crypto-monnaies Ledger. Elle avait été publiée quelques mois plus tard, comme l’avait annoncé la société sur X. Une seconde fuite avait suivie en 2021.

Il y a un an, nous apprenions que Ledger était condamnée par la CNIL à 750 000 euros d’amende pour ne pas avoir « mis en place des mesures de sécurité adéquates pour protéger ses données privées ». Nous n’avons pas plus de détails puisque la CNIL avait décidé de ne pas publier sa décision.

Dans la liste des sanctions de la CNIL, on ne trouve en effet pas le nom de Ledger associé aux 750 000 euros d’amende administrative. Par contre, en date du 10 octobre, il est question d’une « société commercialisant des portefeuilles de cryptomonnaie », avec deux griefs : « Défaut de sécurité des données » et « Durée de conservation ». 750 000 euros d’amende administrative. Il s’agit donc de Ledger.

Avec les données des clients dans la nature, des campagnes de phishing ont été lancées, avec pertes et fracas pour certaines victimes. « Plusieurs ont décidé d’attaquer l’entreprise dès juin 2021 », explique L’informé. Alors que le jugement devait être rendu début 2025, la sanction de la CNIL est tombée entre temps, relançant la machine judiciaire.

Des plaignants souhaitaient en effet y avoir accès pour connaitre les détails de l’enquête de la CNIL, tandis que Ledger (sans surprise) refusait catégoriquement. Au terme d’une bataille judiciaire racontée par l’Informé, le juge ordonne que Ledger lui transmette – à lui seul – la version confidentielle de la décision et une autre expurgée d’éléments sensibles pour l’entreprise, avec des justifications. À voir ce qu’en fera ensuite le juge.

Courrier papier frauduleux adressé à un client de Ledger

On notera que le phishing des clients de Ledger n’en finit pas des années plus tard. Les attaques se sont déplacées de la boite email à la boite aux lettres physiques, avec de faux courriers à entête plus vrais que nature, doublés de la mise en place d’un vrai faux site pour piéger les (anciens) clients de Ledger.

Epic gagne en grande partie son appel contre Apple, qui sauve sa « commission »

12 décembre 2025 à 07:43
Epic gagne en grande partie son appel contre Apple, qui sauve sa « commission »

Deux annonces importantes pour Epic Games ces dernières heures. Tout d’abord, Fortnite est de retour sur le Google Play aux États-Unis. Epic et Google continuent de travailler pour faire valider leur accord. Toujours aux États-Unis, Apple perd en grande partie son appel contre Epic, mais gagne quand même la possibilité de faire payer des commissions « raisonnables ».

Epic et Google toujours main dans la main

Via un message sur X, Fortnite annonce le retour de son jeu dans le Google Play aux États-Unis. Les smartphones Android peuvent donc de nouveau le télécharger via la boutique officielle. Le mois dernier, Google avait proposé au juge des modifications en profondeur du Play Store, avec le soutien d’Epic.

Ce retour fait « suite au respect par Google de l’injonction du tribunal. Nous continuons de collaborer avec Google afin d’obtenir l’approbation du tribunal pour notre accord », explique Epic Games. Tim Sweeney (cofondateur et CEO d’Epic) lance un « grand merci à Google pour son soutien exceptionnel ». Fortnite reste toujours disponible dans l’Epic Games Store partout dans le monde.

Apple vs Epic : la cour d’appel confirme en « grande partie »

Changeons de crémerie pour aller sur les iPhone. Comme l’explique Engadget, « la 9e Cour d’appel des États-Unis a en grande partie confirmé une décision antérieure pour outrage au tribunal concernant les frais qu’Apple prélevait sur les systèmes de paiement tiers ». Ce n’est pas une victoire sur toute la ligne pour autant et Apple sauve une partie de ses revenus.

En effet, la décision va néanmoins dans le sens d’Apple sur un point important pour l’entreprise : « les juges ont décidé d’annuler la décision interdisant à Apple de percevoir des commissions sur ces paiements externes ». TechCrunch (qui publie aussi la décision dans son intégralité) ajoute que cette décision permet à Apple de « demander aux développeurs de ne pas rendre les liens vers leurs systèmes de paiements plus grands ou plus visibles que ceux d’Apple ».

Voici le détail de la décision :

  • « Apple peut interdire aux développeurs de placer des boutons, liens ou autres dans des polices plus visibles, des tailles plus grandes, en plus grande quantité et à des endroits plus visibles que ceux utilisés par Apple,
  • Apple peut interdire aux développeurs d’utiliser un langage qui enfreint ses conditions générales de contenu, si de telles normes existent,
  • Apple n’est pas expressément empêchée d’exclure les développeurs participant aux programmes VPP et NPP,
  • Apple n’est pas empêchée d’imposer une commission ou des frais sur les achats effectués par les consommateurs dans une application iOS en dehors de l’Apple Store. »

La commission doit être « raisonnable », précise Reuters, sans définir ce qui est raisonnable… Tim Sweeney se félicite dans tous les cas, affirmant ainsi que les développeurs vont éviter de payer des « giant junk fees » (frais abusifs exorbitants, en VF).

2020 – 2025 : cinq ans de procédures

Les débuts de cette bataille juridique remontent pour rappel en 2021, quand la juge Yvonne Gonzalez Rogers ordonnait à Apple de supprimer ses règles « interdisant aux développeurs d’informer les utilisateurs des alternatives au système d’achat intégré d’Apple ».

En mai dernier, Apple se prenait de plein fouet les foudres de la juge qui affirmait qu’Apple avait « délibérément choisi de ne pas se conformer à l’injonction de la Cour » et qu’un de ses vice-présidents avait menti sous serment. Quelques semaines plus tard, la justice refusait à Apple un sursis en attendant que l’appel ait lieu.

Fortnite est, pour rappel, de nouveau disponible sur l’App Store iOS depuis mai dernier. Tim Sweeney affirme que, depuis son retour, « Fortnite est devenu le deuxième jeu iOS le plus téléchargé aux États-Unis en 2025 ».

Après cinq ans de bataille judiciaire, le jeu phare d’Epic est donc disponible dans les boutiques officielles sur Android et iOS aux États-Unis.

On a testé 12 chargeurs USB à moins de 20 euros… et on s’est fait peur !

11 décembre 2025 à 14:50
Chaud devant !
On a testé 12 chargeurs USB à moins de 20 euros… et on s’est fait peur !

Sur les marketplaces des plateformes comme AliExpress, Amazon et Cdiscount, on trouve pléthore de chargeurs USB à moins de 20 euros. Que valent-ils vraiment d’un point de vue technique ? Nous en avons testé plus d’une dizaine. Entre fausses promesses et vrais risques, vous ne regarderez plus jamais votre chargeur comme avant !

Charger son smartphone, sa tablette, son ordinateur ou n’importe quel produit avec un port USB est très facile : on branche, ça charge. Le côté « universel » de l’Universal Serial Bus (USB) tient bien sa promesse. Par contre, ça se complique rapidement quand on veut « des watts », c’est-à-dire de la charge rapide.

Nous avons acheté sur les marketplaces d’AliExpress, d’Amazon et de Cdiscount plus d’une vingtaine de chargeurs pour vérifier les promesses. Dans cette deuxième partie, attaquons nos expérimentations avec les modèles les plus chers (entre 10 et 20 euros), dont le prix n’est pas forcément gage de qualité.

Demain, on se retrouvera pour la troisième et dernière partie avec de nouveau 12 chargeurs, mais à moins de 10 euros cette fois-ci.

En attendant, seule une petite poignée de chargeurs de cette première sélection s’en sortent correctement. Et par s’en sortir correctement, on entend éviter que le boîtier ne dépasse les 80 °C, et être capable de tenir la puissance de charge annoncée, rien de plus !

Notre protocole de test (version express)

Nous détaillerons plus longuement le protocole dans un prochain article, mais voici de premières informations sur nos outils et notre méthodologie. Pour vérifier les types de charges rapides supportées, nous utilisons le testeur PowerZ KM003C.

Pour tester la charge comme en condition réelle, on utilise la plateforme DL24P d’Atorch, qui peut absorber jusqu’à 180 watts (W). C’est moins que la puissance maximale du protocole Power Delivery (240 W), mais largement suffisant pour nos tests.

Nous avons toujours utilisé les deux mêmes câbles USB pour l’ensemble de nos tests : un certifié 240 W en Type-C vers Type-C (50 cm) et un autre de bonne facture avec un connecteur Type-A et un autre Type-C (1 m). Nous verrons dans un prochain dossier qu’un câble USB peut avoir des conséquences importantes.

Toutes les mesures sont réalisées au moins deux fois pour vérifier qu’il n’y a pas d’incohérence, sauf la montée en charge de 30 minutes pour le relevé de la température qui n’est fait qu’une seule fois. Nous avons validé le fonctionnement avec un chargeur de 140 W et une ancienne référence de chez Anker que nous avions au labo (qui tiennent leurs promesses, eux).

Commençons avec un chargeur Qoltec qui a obtenu de bons résultats. Ne vous habituez pas, cela va vite changer…

Qoltec 50132 30W : PD à 30 W confirmé et bonne tenue des tensions


Il reste 95% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

11 décembre 2025 à 11:06
IA plus qu’à !
[Édito] Et si on arrêtait avec cette hypocrisie autour de l’IA ?

L’intelligence artificielle est un outil largement utilisé, qui inquiète autant qu’elle fascine. Elle provoque des échanges musclés entre internautes, qui ont parfois bien du mal à se comprendre. Une des causes : la sémantique. L’arrivée des grands modèles de langage et des chatbots a rebattu les cartes et exacerbé les tensions. Ceux qui l’utilisent y réfléchissent certainement à deux fois avant de le dire.

Il y a un peu plus d’un an, nous avions publié un édito sur l’intelligence artificielle, avec une question en trame de fond : est-elle intelligente ou artificielle ? Une chose est sûre, la réponse n’est pas binaire. C’est les deux à la fois et cela varie suivant les points de vue.

De l’algorithme aux intelligences artificielles puis aux IA génératives

La frontière entre algorithmes et IA est de plus en plus poreuse, tandis que la notion même d’intelligence artificielle est mouvante. Un rappel important : l’intelligence artificielle n’est pas nouvelle, loin de là puisqu’elle a plus de 75 ans. Citons, par exemple, l’article « L’ordinateur et l’intelligence » d’Alan Turing en 1950, dans lequel il est question du fameux test de Turing.

Le premier logiciel d’intelligence artificielle remonte à 1956 avec le Logic Theorist : « Il réalise tout seul des démonstrations de théorèmes mathématiques », expliquait le CEA. En 1957, le psychologue Frank Rosenblatt invente le premier logiciel d’apprentissage grâce à un neurone : le Perceptron. Il y a ensuite les « hivers de l’IA » dans les années 70/80 et 80/90. L’explosion de l’intelligence artificielle est arrivée avec la montée en puissance des ordinateurs et surtout des GPU particulièrement à l’aise avec ce genre de calculs.

Il y a déjà plus de quatre ans, soit avant l’arrivée des IA génératives, Alexei Grinbaum (physicien et philosophe) expliquait que le terme IA « désigne un comportement produit par une machine dont on peut raisonnablement estimer que, s’il avait été le fruit d’une action humaine, il aurait exigé de l’intelligence de la part de l’agent concerné […] L’apprentissage machine n’est qu’un outil d’IA parmi d’autres mais, en pratique, ces deux termes sont de plus en plus fréquemment synonymes ». Aujourd’hui tout se mélange sous une seule appellation : IA.

Ceux qui étaient généralement présentés comme des algorithmes ont donc été promus au rang d’intelligence artificielle. Pour distinguer les nouvelles IA – ou systèmes, un terme moins marketing mais plus adapté – « capables de créer des contenus (texte, code informatique, images, musique, audio, vidéos, etc.) », on parle d’intelligences artificielles génératives, rappelle la CNIL. Ces différences ne sont pas toujours comprises.

Cachez ces avantages que je ne saurais voir

Sur les réseaux sociaux et dans de nombreuses discussions, la question de son utilisation cristallise les échanges, peu importe le projet ou presque. Faut-il ou non l’utiliser ? Faut-il clouer au pilori les personnes qui le font ? Y a-t-il une bonne et une mauvaise catégorie d’intelligence artificielle ? Les débats sont nombreux, les peurs et les incompréhensions aussi, tout comme les avantages. Il ne faut pas les oublier. Ce n’est pas une généralité pour autant. Sur LinkedIn par exemple, les discussions autour de l’IA sont souvent différentes, plus apaisées et dans l’(auto)congratulation.

Régulièrement, ceux qui reconnaissent utiliser l’intelligence artificielle se font prendre à partie publiquement. D’autres l’utilisent sans le dire et passent à travers les mailles du filet de la polémique. On arrive dans une situation absurde où ceux qui cachent la vérité ou mentent – volontairement ou par omission – s’en sortent mieux que ceux qui l’indiquent.

L’intelligence artificielle permet des améliorations importantes dans de nombreux domaines, y compris la santé, l’automatisation de tâches fastidieuses ou répétitives afin de « consacrer davantage de temps à des tâches plus créatives ou plus centrées sur l’humain », des opérations de sauvetage (notamment en milieu hostile), la prédiction de défaillances techniques, la lutte contre le changement climatique, etc.

Pour la Commission européenne aussi, cela ne fait pas de doute : « Les technologies de l’IA apportent de nombreux avantages à la société et à l’économie ». Ils sont rarement mis en avant et, quand c’est le cas, ils finissent trop souvent ensevelis sous des montagnes de critiques. Quand ils ressortent dans la bouche de certains professionnels, c’est souvent pour finir lynchés dans les commentaires. Les exemples sont nombreux.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ En France, 80 % des abonnements sur le fixe passent par la fibre

11 décembre 2025 à 08:00

Chaque trimestre, le régulateur des télécoms publie son observatoire du marché des services fixes à haut et très haut débit : « Fin septembre 2025, la France compte 26,3 millions d’abonnements à la fibre optique, soit 80 % du nombre total d’abonnements internet à usage fixe », soit 610 000 de plus en trois mois.

Le déploiement de la fibre aussi va bon train puisqu’elle couvre désormais 93,5 % des locaux. 430 000 locaux supplémentaires ont été rendus raccordables à la fibre, un chiffre en baisse trimestre après trimestre (le pic était fin 2020). Une chute logique : seules les lignes difficiles/coûteuses restent à raccorder, soit environ 3 millions.

Voici le détail :

  • 220 000 dans les RIP (Réseaux d’Initiative Publique), reste 1 410 000,
  • 30 000 dans les AMEL (appels à manifestation d’engagements locaux), reste 75 000,
  • 20 000 dans les zones très denses, reste 470 000.

Comme toujours, tous les détails se trouvent sur le site de l’Arcep. Vous pouvez également consulter une carte des déploiements fibre sur Ma connexion Internet.

Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

11 décembre 2025 à 07:32
C’est la samba des dollars
Qualcomm se renforce dans RISC-V avec Ventana, Intel dans l’IA avec SambaNova

En l’espace de quelques jours, deux rachats par des géants des puces ont été annoncés. Le premier concerne Qualcomm qui se renforce dans l’architecture ouverte RISC-V avec le rachat de Ventana. Le deuxième avec Intel qui aurait signé un accord (non engageant) avec SambaNova, une start-up à la mode dans le monde de l’IA.

Qualcomm veut renforcer ses cœurs Oryon avec RISC-V

Dans le but d’approfondir son expertise dans les processeurs RISC-V, Qualcomm vient d’annoncer le rachat de Ventana Micro Systems. « L’équipe de Ventana viendra compléter le développement en cours de Qualcomm sur RISC-V et ses CPU Oryon », explique l’entreprise dans un communiqué. Oryon est pour rappel le nom de ses cœurs CPU, aussi bien pour les smartphones que les ordinateurs portables Arm.

Ventana a été fondée en 2018 et fait partie du comité de pilotage technique de RISC-V. Elle a lancé son premier processeur en 2023 : Veyron. Il est gravé avec une technologie 5 nm, dispose de 16 cœurs et fonctionne jusqu’à 3,6 GHz. Veyron 2 est prévu pour début 2026 avec jusqu’à 32 cœurs, puis ce sera au tour de Veyron 3.

Qualcomm a pour rappel lancé en 2023 une alliance autour de RISC-V avec quatre autres géants : Robert Bosch GmbH, Infineon Technologies AG, Nordic Semiconductor et NXP Semiconductors. Le but est de développer une alternative libre et ouverte à Arm, avec qui Qualcomm a de nombreux différends.

Pour rappel, l’architecture RISC-V propose un jeu d’instructions ouvert et libre, de 32 à 128 bits. Chacun peut y ajouter ses propres instructions et elle peut prendre en charge un très grand nombre de cœurs, ce qui est particulièrement utile dans un monde où l’IA règne en maitre ou presque.

Un accord entre Intel et SambaNova ?

Dans le même temps, Intel aurait trouvé un accord avec SambaNova pour la racheter, c’est du moins ce qu’affirment des sources à Wired. « Le détail des conditions n’est pas connu. L’accord n’est pas contraignant, ce qui signifie qu’il n’est pas encore finalisé et pourrait être dissout sans pénalité », expliquent nos confrères.

Nous parlions de SambaNova récemment, à l’occasion de l’OVH Summit, qui faisait la part belle à l’intelligence artificielle et à l’inférence. C’était en effet une des principales annonces de l’hébergeur : la mise à « disposition de nouvelles infrastructures IA avec SambaNova ».

L’hébergeur « déploiera de nouveaux accélérateurs dédiés à l’inférence à grande échelle (RDU), avec des offres de très grande capacité de calcul en utilisation « low latency » et « batch », permettant des cas d’usage demandant de la performance pour la parallélisation de threads à l’échelle ».

Liaison dangereuse de Lip-Bu Tan, le CEO d’Intel

En 2021, SambaNova avait levé 676 millions de dollars via SoftBank, Temasek et GIC. « Ils viennent rejoindre les investisseurs existants BlackRock, Intel Capital, Google Ventures, Walden International et WRVI. Au total, la start-up a levé 1 Md$ pour une valorisation estimée à 5 Md$ », expliquait Le Monde Informatique.

SambaNoba et Intel se connaissent très bien par l’intermédiaire de… Lip-Bu Tan. Il est à la fois le CEO d’Intel et le président (chairman) de SambaNova. Aucune des parties prenantes n’a souhaité répondre à nos confrères.

Reuters rappelle qu’une histoire similaire s’est déjà déroulée l’été dernier, avec la start-up Rivos dont Lip-Bu Tan est aussi président. Lip-Bu Tan avait proposé à Intel de racheter Rivos, « mais il n’avait pas eu de chance. Le conseil a déclaré à Tan qu’il avait un conflit en représentant à la fois les intérêts de Rivos et ceux d’Intel, et qu’il manquait d’une stratégie en matière d’intelligence artificielle pour justifier un accord », ont affirmé des sources à nos confrères.

C’est finalement Meta qui aurait remporté la mise, faisant grimper les enchères. Reuters n’a pas pu calculer le montant que le CEO d’Intel a personnellement gagné en tant qu’actionnaire de Rivos. Néanmoins, toujours selon nos confrères, la société de capital-risque de Lip-Bu Tan (Walden Catalyst) parle d’un « remarquable succès ».

Ce n’est pas la première fois que les multiples casquettes de Lip-Bu Tan font parler. En août, Donald Trump avait carrément appelé à la démission le nouveau CEO d’Intel suite à une lettre du sénateur républicain de l’Arkansas Tom Cotton. Il y posait « des questions sur les liens du nouveau CEO Lip-Bu Tan avec des entreprises chinoises et une récente affaire pénale impliquant son ancienne société Cadence Design ».

Quelques jours plus tard, le même président des États-Unis vantait l‘« histoire incroyable » du CEO d’Intel et ne parlait plus de démission. Pour nos confrères américains, « le CEO d’Intel avait réussi à courtiser le président Trump ».

Intel vs Europe : 20 ans de procédure, une amende divisée par 4

10 décembre 2025 à 16:01
On s’était dit rdv dans (2x) 10 ans
Intel vs Europe : 20 ans de procédure, une amende divisée par 4

1,06 milliard d’euros en 2009, puis 376 millions en 2023 et maintenant 237 millions d’euros. Intel multiplie les pourvois depuis près de 20 ans. L’entreprise reste condamnée pour abus de position dominante, mais elle parvient à diviser son amende par 4,4. L’affaire n’est pas forcément encore terminée car un nouveau pourvoi est possible.

Vous connaissez la série à rallonge Santa Barbara ? En Europe, nous en avons une version maison avec la condamnation par Intel à une amende de la Commission européenne pour abus de position dominante. Entre 2009 et 2025, les allers-retours sont nombreux avec la Cour de justice de l’Union européenne.

2009 : amende de 1,06 milliard d’euros de la Commission

Marty, prépare la DeLorean, nous allons en avoir vraiment besoin. L’affaire du jour remonte aux années 2000 avec des plaintes de son concurrent AMD (2000, 2003 et 2006) contre Intel pour des faits qui se sont déroulés entre 2002 et 2007.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[Dossier] Dans l’enfer des chargeurs USB pas chers chez AliExpress, Amazon et Cdiscount

10 décembre 2025 à 11:01
Au feu les pompiers…
[Dossier] Dans l’enfer des chargeurs USB pas chers chez AliExpress, Amazon et Cdiscount

Nous avons acheté 24 chargeurs USB à moins de 20 euros chez AliExpress, Amazon et Cdiscount. Nous avons ensuite vérifié si les caractéristiques techniques annoncées étaient réelles. Résultats des courses : les mensonges sont nombreux et moins de 50 % des chargeurs tiennent leurs promesses. Un chargeur a atteint 127 °C, un autre a pris feu.

Tous les chargeurs ne se valent pas, loin de là ! Fin octobre, l’UFC-Que Choisir tirait la sonnette d’alarme sur la qualité des matériaux et la résistance mécanique. Chez Next, nous testons depuis plusieurs semaines des chargeurs vendus via la plateforme chinoise AliExpress, mais aussi via deux géants en France : Amazon (société américaine) et le français Cdiscount (Groupe Casino). Ils le sont en quasi-totalité via les marketplaces (donc des vendeurs tiers).

Quand on a perdu son chargeur initial ou que l’on souhaite en avoir un de plus dans sa chambre, son salon ou sa cuisine, en acheter un en ligne peut paraître pratique. Mais que valent-ils vraiment d’un point de vue technique ? Nous en avons testé plus d’une vingtaine. Entre fausses promesses et vrais risques, vous ne regarderez plus jamais votre chargeur comme avant !

Commençons par un tour d’horizon global de la situation, peu reluisante. Dans de prochaines actualités, nous publierons le détail de chaque chargeur, avec les différents protocoles de charge rapide supportés, la puissance qu’il est capable de tenir en fonction des tensions et nous mesurerons enfin la montée en température avec 30 minutes de charge à la puissance maximale. Mais déclarons-le d’emblée : le tableau est peu reluisant.

La température à laquelle peut monter un chargeur est un élément important, mais impossible à deviner avant de l’acheter et de le tester. Elle dépend des composants de l’appareil, de sa conception, de sa qualité de fabrication, des plastiques, etc. Dans tous les cas, ayez conscience que cela peut chauffer fort et rapidement. Soyez donc toujours prudents !

120 watts selon le fabricant, 10 watts selon nos mesures


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

SVOM : un sursaut gamma vieux de 13 milliards d’années « illumine » l’Univers

10 décembre 2025 à 08:07
Lumos !
SVOM : un sursaut gamma vieux de 13 milliards d’années « illumine » l’Univers

Le satellite SVOM a détecté le 5ᵉ sursaut gamma le plus lointain jamais enregistré. Il est vieux de 13 milliards d’années et a donc été émis quand l’Univers n’avait que 730 millions d’années environ. Il permet d’en apprendre davantage sur le fonctionnement de notre Univers.

L’observatoire spatial SVOM (acronyme de Space-based multi-band astronomical Variable Objects Monitor) a été lancé en juin 2024 à bord d’une fusée Longue Marche 2C (il est en orbite à 625 km). C’est une mission franco-chinoise dont le but est de détecter des sursauts gamma.

Il s’agit généralement des traces laissées par un cataclysme galactique : l’explosion d’une étoile supermassive. Nous avons pour rappel déjà détaillé la mission SVOM et les sursauts gamma. Des informations sur SVOM sont aussi disponibles sur le site officiel.

Détection en mars, une alerte envoyée dans la demi-heure

Quelques mois après le début des opérations scientifiques, l’Observatoire de Paris annonce la « détection d’un sursaut gamma causé par une supernova qui a explosé il y a 13 milliards d’années […] Ce sursaut gamma a donc explosé au cœur de l’ère de la réionisation, alors que l’Univers n’avait que 730 millions d’années ». Les photons ont ainsi voyagé pendant 13 milliards d’années avant de nous arriver. Cet évènement est identifié sous la référence GRB 250314A : GRB pour Gamma-Ray Bursts et 250314 pour la date de détection, le 14 mars 2025. Parfois les scientifiques savent être efficaces.

L’observatoire de Paris ajoute que « GRB 250314A est le 3ᵉ sursaut gamma le plus lointain dont la distance a été déterminée par spectroscopie ». Le CEA précise pour sa part que, toutes méthodes confondues, c’est le « 5ᵉ GRB le plus lointain identifié. Le précédent GRB à très haut redshift (z > 7) avait été identifié il y a de cela environ 12 ans ! ».

Alerte générale ! Des télescopes du monde entier regardent, y compris le JWST

Il retrace aussi la diffusion d’une alerte par les scientifiques en mars dernier. Moins de 30 minutes après la détection de l’événement (et sa confirmation), « une circulaire pour alerter l’ensemble de la communauté » est envoyée. Ce type d’alerte permet aux observatoires et satellites d’observer la même région du ciel s’ils le peuvent. 19 circulaires ont ainsi été émises.

Dans les heures qui suivent, « l’observatoire spatial Neil Gehrels Swift et le satellite Einstein Probe, pointent leurs instruments vers la source. Une contrepartie X est localisée par le détecteur X a bord du Swift. Le Nordic Optical Telescope (NOT) découvre la contrepartie proche infrarouge dans la boîte d’erreur donnée par Swift. Les observations d’Einstein Probe confirment même la nature transitoire de la contrepartie X, un indice clé en faveur d’une rémanence du sursaut gamma ».

C’est le sursaut « le plus précis en termes de la lumière qu’on a récoltée et des mesures qu’on a faites », explique à l’AFP Bertrand Cordier (via Radio Canada), responsable scientifique du projet SVOM au Commissariat à l’énergie atomique et aux énergies alternatives (CEA).

Le CEA ajoute (via son institut de recherche sur les lois fondamentales de l’Univers, Irfu) que, « 110 jours après la découverte par SVOM, JWST [James Webb Space Telescope, ndlr] est allé chercher la galaxie hébergeant ce sursaut. Les premières analyses photométriques suggèrent qu’il pourrait être associé à une supernova issue de l’effondrement gravitationnel violent d’une étoile massive en fin de vie ressemblant fortement aux supernovas locales du même type. Ce résultat pourrait indiquer une étonnante continuité dans les processus d’explosion d’étoiles massives (> 20 masses solaires), depuis les débuts de l’Univers jusqu’à aujourd’hui ».

Le CEA ajoute qu’une nouvelle observation du JWST est « déjà programmée dans 9 mois [et] devrait confirmer la disparition de la supernova ».

« Illuminer tous les plans entre nous et le sursaut gamma »

Selon Radio Canada, Bertrand Cordier voudrait accélérer les collaborations internationales pour les prochaines détections (il en espère une ou deux par an avec SVOM). En mars, « il s’est écoulé 17 heures avant que le Très Grand Télescope (VLT), au Chili, ne se détourne. Pendant ce temps, l’intensité a décru. L’objectif, c’est d’être encore plus efficace. Si on arrive plus tôt, alors on aura des meilleures données ».

Vous vous demandez peut-être à quoi tout cela peut servir ? Nous l’expliquions dans cet article : une approche est d’utiliser « ces événements comme des sondes. Quand elles explosent, elles vont illuminer tous les plans entre nous et le sursaut gamma. C’est du coup une information considérable pour avoir les paramètres physiques de l’univers quand il était très jeune. C’est le seul moyen quasiment d’avoir l’information sur l’univers à ces moments-là et de voir peut-être ces premières générations étoiles ».

Le site officiel de SVOM y va aussi de sa comparaison : les sursauts gamma sont la « manifestation d’une explosion gigantesque, ces flashs de lumière sont considérés comme les éléments les plus brillants et les plus riches en énergie depuis le Big Bang. Ce sont des événements rares à l’échelle d’une galaxie et pourtant il serait possible d’en observer en moyenne une dizaine par jour ».

❌