Vue normale

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


17 décembre 2025 à 15:45
C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

Le « 141 core », symbole de la radicalisation écofasciste

17 décembre 2025 à 13:01
Couchers de soleil et saluts nazis
Le « 141 core », symbole de la radicalisation écofasciste

Depuis plusieurs mois, le nombre « 141 » est brandi sur les réseaux sociauxInstagram et TikTok en têtecomme symbole de défense de la nature. Une tendance largement récupérée par l’extrême droite qui, pour l’autrice Stephanie Lamy, charrie un mélange d’idéologies radicales parfois concurrentes, du néonazisme à la mouvance anti-tech.

À chaque chiffre sa lettre de l’alphabet. A priori, rien de plus simple pour décoder ce que signifie «141» , un nombre présent ces derniers mois sur de nombreuses vidéos en ligne,  Instagram et TikTok en tête. «1-4-1 » devient ainsi « a-d-a », abréviation d’anti-deforestation action (« action contre la déforestation »). Utilisé comme symbole de protection de la forêt et de la nature dans son ensemble, celui-ci accompagne des contenus à l’esthétique bien particulière.

Ici, un jeune homme se filme profitant d’une randonnée en montagne, comme seul au monde. Là, des paysages verdoyants se succèdent, entrecoupés de scènes de pollution environnementale. En fond sonore, les mêmes morceaux reviennent en boucle : des mélodies et remix foutraques tantôt survitaminés, tantôt mélancoliques et oppressants façon post-punk soviétique.

Diffusé largement grâce à la nature très consensuelle de son message, le phénomène a désormais un nom qui lui est propre : le 141 core. «Ce que l’on nomme esthétique ou core, ce sont des codes visuels récurrents qui forment un certain type d’imagerie, explique le vulgarisateur Wherldo, spécialisé dans les tendances du genre. On prend une base et on la décline, comme le chromecore qui reprend la texture du même nom pour en recouvrir le monde. Cela s’inscrit dans un contexte de surconsommation d’images induite par le fonctionnement des réseaux sociaux. »

Les codes du 141 core se diffusent sur Tiktok – capture d’écran Next

Avec le 141 core, on a donc affaire à une iconographie bucolique, où la montagne et les forêts sont glorifiées. « Je pense que les gens cherchent une connexion avec la nature et ce, depuis la période du Covid-19 qui nous en a privé pendant un temps. » Difficile cependant d’en quantifier la viralité, certaines vidéos ne cumulant que quelques dizaines de vues, d’autres plusieurs centaines de milliers. Et si là encore il est compliqué de retracer son origine, sa popularisation semble liée au débat concernant le report de l’application du Règlement européen contre la déforestation et la dégradation des forêts (RDUE).

Mais au contraire d’autres tendances,«le 141 core se détache aujourd’hui d’une ligne purement esthétique pour prendre une dimension plus idéologique, observe Wherldo. De par son accessibilité, il participe à la popularisation d’idées nauséabondes comme le néonazisme. »


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

17 décembre 2025 à 11:02
Jeu de dupes ?
Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

Le ministère de l’Intérieur a confirmé il y a quelques jours une fuite de données. Des pirates ont revendiqué l’attaque, affirmant avoir des informations sur des millions de personnes, issues notamment des fichiers TAJ et FPR. Le ministre de l’Intérieur, Laurent Nunez, a confirmé ce matin que ces bases avaient bien été consultées et que des fiches avaient été volées.

Un ou des pirates ont revendiqué l’attaque contre le ministère de l’Intérieur. Une personne, se faisant appeler « Indra », a relancé brièvement BreachForums, qui avait disparu suite à plusieurs arrestations, aussi bien aux États-Unis qu’en France. Le message revendiquait l’attaque, précisait qu’il s’agissait d’une vengeance pour l’arrestation de ses « amis » et que la fuite était bien plus grave que ce que l’on pensait. Les pirates affirmaient ainsi posséder des informations sur plus de 16 millions de personnes, dont quantité d’informations provenant des fichiers TAJ (Traitement d’antécédents judiciaires) et FPR (Fichier des personnes recherchées).

Officiellement, le ministère de l’Intérieur, Laurent Nunez, a confirmé dans un premier temps qu’une attaque avait bien eu lieu contre des services de messagerie. Les mesures de sécurité avaient en conséquence été relevées et des rappels d’hygiène numérique faits aux forces de l’ordre. La fuite est cependant plus grave qu’initialement reconnu.

« Quelques dizaines de fiches »

Ce matin, Laurent Nunez a donné de nouvelles informations à Franceinfo, lors de l’émission de 8h30. « On a fait l’objet d’une intrusion malveillante il y a quelques jours ». Il a confirmé que des accès ont été obtenus à partir de « certaines boites professionnelles ». De là, « l’individu ou le groupe d’individus […] a pu consulter un certain nombre de fichiers importants pour nous, notamment le traitement des antécédents judiciaires, et procéder à un certain nombre d’extractions ».

Le ministre évoque « quelques dizaines d’extractions », mais pas les « millions de données » revendiquées dans le message sur BreachForums. Cependant, Laurent Nunez indique en même temps que l’on « ne connait pas l’ampleur des compromissions », faisant relativiser le nombre d’extractions donné.

De plus, le ministère ne peut « absolument pas dire si cela va compromettre des enquêtes », mais affirme que l’incident « ne met pas en danger la vie de nos compatriotes ». Autre affirmation : aucune demande de rançon n’aurait été reçue. Ce qui irait d’ailleurs dans le sens du message des pirates, qui indiquaient attendre que la France les contacte.

Laurent Nunez reconnait que « des imprudences » ont été commises et le scénario d’attaque laisse effectivement penser que de l’ingénierie sociale a été utilisée pour piéger une ou plusieurs personnes. Les accès récupérés (sous forme de mots de passe en clair dans des échanges e-mails) auraient alors servi à accéder aux applications métiers et bases de données, dont le TAJ et le FPR. « On a saisi la CNIL aussi, la Commission nationale de l’informatique et des libertés, comme la loi nous l’impose. Et puis il y a eu une enquête administrative que j’ai demandée, sur laquelle on travaille », a ajouté le ministre.

L’ampleur de la fuite reste à déterminer

La grande question est désormais de savoir quelle crédibilité accorder aux affirmations du ou des pirates. Si la menace est avérée, alors une grande partie du TAJ et du FPR serait dans la nature, avec des conséquences potentiellement catastrophiques pour la France.

La situation n’est cependant pas claire. Le message du ou des pirates a été publié initialement le 13 décembre. Un ultimatum était donné à la France, qui a jusqu’au 20 décembre pour contacter le groupe à une adresse tutanota indiquée dans l’avertissement. Indra insistait en outre sur l’aspect vengeance de l’attaque, pour l’arrestation des membres du groupe ShinyHunters.

Cependant, si l’on en croit SaxX, les ShinyHunters (avec qui il assure être en contact) se seraient « désolidarisés » de ce Indra ayant attaqué le ministère de l’Intérieur, dont on ne sait rien de plus à l’heure actuelle. Il pourrait s’agir, comme le suppose SaxX, d’une menace étatique étrangère ayant pris l’apparence d’un groupe cybercriminel « classique ».

Trop peu de preuves à ce stade

La situation est d’autant plus floue que les experts ne sont pas d’accord sur l’ampleur de la menace. Pour Baptiste Robert par exemple, le ou les pirates n’ont pas exfiltré l’intégralité du TAJ et du FPR. Preuve en serait l’usage de termes trop génériques employés dans ce contexte.

Le chercheur en sécurité soulignait également hier soir que les pirates avaient publié sur leur chaine Telegram une capture montrant le portail de connexion CHEOPS avec l’adresse de la chaine en identifiant et les mots « WE ARE STILL HERE » (« Nous sommes toujours là ») dans le mot de passe. Selon lui, cette capture ne prouve rien, car l’utilisateur n’est pas authentifié. « Si c’est un moyen d’essayer de faire pression en vue d’une éventuelle négociation, c’est particulièrement mal fait », a indiqué Baptiste Robert.

Il y aurait ainsi bien compromission, récupération d’accès et consultation des données, mais aucune preuve d’une extraction conséquente des données.

Tout savoir sur l’USB… quel bordel !

17 décembre 2025 à 10:41
Universal Serial Brainfuck
Tout savoir sur l’USB… quel bordel !

L’USB est un connecteur universel que l’on retrouve partout, à commencer par les ordinateurs et smartphones. 25 ans que cette norme évolue, mais en assurant toujours la rétrocompatibilité… ce qui n’est pas toujours facile. Rien que pour le format de connecteur Type-C (réversible), on se retrouve avec un document explicatif de 439 pages. Next a plongé dedans, voici ce qu’il faut en retenir.

L’USB, tout le monde connait. C’est un format universel utilisé pour des souris, des claviers, du stockage… Cette norme est capable d’assurer des échanges de données jusqu’à plusieurs dizaines de Gb/s et, dans le même temps, de la charge rapide jusqu’à 240 watts. La promesse est simple, universelle, mais la réalité est bien plus compliquée.

Voyez ce premier papier comme l’introduction d’un long dossier concernant les câbles USB avec au moins un connecteur Type-C à une des extrémités. Nous allons ici exposer la théorie et les recommandations de l’USB-IF en charge de ce protocole. Il s’agit de détailler les bonnes pratiques que tous les fabricants sont censés mettre en œuvre.

Nous verrons par la suite que c’est loin d’être le cas puisqu’on trouve encore aujourd’hui dans le commerce des câbles USB non conformes et potentiellement dangereux. Comme avec les chargeurs USB, il y a aussi les fausses promesses, malheureusement impossibles à vérifier avant d’avoir le produit entre les mains et du matériel spécialisé pour le tester.

Les câbles USB ont également un ennemi invisible (leur résistance interne) que nous expliquerons et analyserons dans la suite de notre dossier. Enfin, nous avons retrouvé dans un tiroir un câble USB aux performances absolument catastrophiques. Il transforme le 5 volts en 3 volts et nous l’avons même fait chauffer à plus de 100 °C ! Prudence, vous pouvez aussi en avoir un du genre qui traine chez vous, sans pouvoir l’identifier facilement. Nous avons identifié le nôtre par hasard.

Débits et charge : 25 ans d’évolution de l’USB

La première version de l’USB va fêter ses 30 ans, mais il a vraiment pris son envol au début des années 2000 avec l’USB 2.0, encore aujourd’hui largement utilisé dans le monde. En l’espace de deux décennies, les débits ont explosé et ont été multipliés par plus de 160 et même 250 avec le mode asymétrique de l’USB4 v2.0, qui permet d’atteindre 120 Gb/s.

Voici un résumé de l’historique des débits (avec le nom commercial entre parenthèses) :

  • USB 1.0 : 1.5 Mb/s (Low Speed)
  • USB 1.1 : 12 Mb/s (Full Speed)
  • USB 2.0 : 480 Mb/s (High Speed)
  • USB 3.0 : 5 Gb/s (SuperSpeed)
  • USB 3.1 : 10 Gb/s (SuperSpeed+)
  • USB 3.2 Gen 2×2 : 20 Gb/s (SuperSpeed+)
  • USB4 : 40 Gb/s
  • USB4 v2.0 : 80 Gb/s

Nous en avons déjà parlé plusieurs fois, mais l’USB permet aussi de charger des appareils et des batteries, avec une puissance qui a elle aussi fortement augmenté au fil des années. Entre l’USB 2.0 et la dernière version de la norme Power Delivery (PD), la puissance de charge a été multipliée par 100.

Arrivé il y a une dizaine d’années, Power Delivery (suite de Battery Charging alias BC) permet de transmettre plus de puissance électrique en USB. On passe de quelques watts en USB 2.0 et 3.0 à 100 watts via Power Delivery et jusqu’à 240 watts dans la dernière version. Adieu les 5 volts historiques, il est possible de monter jusqu’à 20 volts avec jusqu’à 48 volts à partir de PD 3.1. Dans tous les cas, le courant est limité à 5 ampères.

Voici le détail des puissances électriques :

  • USB 2.0 : 2,5 W (5 V et 500 mA)
  • USB 3.0 et 3.1 : 4,5 W (5 V et 900 mA)
  • USB BC 1.2 : 7,5 W (5 V et 1.5 A)
  • USB Type-C 1.2 : 15 W (5 V et 3 A)
  • USB PD 2.0 et 3.0 : 100 W (20 V et 5 A)
  • USB PD 3.1 : 240 W (48 V et 5 A)

Type-A, Type-B et Type-C : trois formats de connecteurs

Il existe aussi plusieurs connecteurs. Les Type-A et Type-B étaient les premiers arrivés, avec des déclinaisons mini et micro. Ces derniers sont plus petits que les connecteurs standards sans fonctionnalités supplémentaires, nous ne nous attarderons donc pas dessus.

Le Type-A sert généralement aux « hosts », c’est-à-dire les ordinateurs et les alimentations (chargeurs). Le Type-B sert aux « devices », à savoir les périphériques comme les imprimantes et les disques durs externes. Pour d’autres périphériques comme les claviers et souris, le câble USB est généralement attaché, avec un port Type-A pour le brancher à l’ordinateur. Le format micro USB Type-B (en forme de trapèze) a longtemps équipé les smartphones Android.

Tout ce petit monde est doucement mais surement remplacé par le connecteur Type-C, d’autant plus avec l’Europe qui l’impose un peu partout : ordinateurs portables, routeurs et bornes Wi-Fi, batteries externes, etc. Pour simplifier quasiment tout ce qui se recharge et qui ne nécessite pas plus de 240 watts (il y a des exceptions).

Le connecteur Type-C est réversible (contrairement au Type-A dont on retourne parfois plusieurs fois le connecteur avant de pouvoir l’insérer…) et s’utilise aussi bien pour les « hosts » que les « devices ». Alors que les Type-A et Type-B permettent d’éviter de se tromper par des formats physiques incompatibles, le Type-C utilise une détection et une protection électronique pour déterminer qui est le « host » (auparavant connecteur Type-A) et qui est le « device » (ancien Type-B).

Ugreen propose une petite photo de famille, tandis que SilverStone ajoute les versions de la norme USB supportées par les différents connecteurs :


Comment assurer 25 ans de rétrocompatibilité

Au fil des années et de la montée en débit, les connecteurs ont évolué. Laissons de côté l’USB 1.x, à la durée de vie trop courte, pour débuter avec l’USB 2.0 lancé en 2000. Peu importe le connecteur (Type-A ou Type-B), il y a quatre broches et autant de fils dans les câbles. Deux pour l’échange des données, D+ et D-, et deux autres pour le courant électrique, Vbus pour le + 5 V et GND pour la masse.

Avec l’USB 3.0 (annoncé en 2008), cinq nouvelles broches sont apparues. Deux paires pour le SuperSpeed (alias SS) et une dernière pour la masse. La rétrocompatibilité est de mise. Le format du connecteur Type-A reste le même avec des broches supplémentaires à l’intérieur du connecteur, tandis que le Type-B grossit un peu pour permettre d’ajouter les broches supplémentaires. Idem avec le micro-B en USB 3.0 qui a le trapèze d’origine et un petit bloc supplémentaire à côté.

On peut donc utiliser un câble USB 2.0 dans un connecteur USB 3.x, mais on se limite alors aux performances de l’USB 2.0. Même chose avec un câble USB 3.X dans un emplacement USB 2.0. Pour profiter du SuperSpeed, il faut à la fois un câble et des connecteurs compatibles.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La directrice du MI6 alerte sur le transfert de pouvoir du politique vers les géants tech

17 décembre 2025 à 09:35

« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.

Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».

Photo de Luke Stackpoole sur Unsplash

Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.

Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».

En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.

Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.

Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

17 décembre 2025 à 08:50
Aussi différent que tout le monde
Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

Mozilla a désormais un nouveau CEO : Anthony Enzor-DeMeo. Il remplace Laura Chambers, qui a dirigé l’entreprise comme CEO par intérim.

Anthony Enzor-DeMeo était arrivé chez Mozilla il y a tout juste un an, pour prendre la tête de Firefox. Dans l’annonce faite ce 16 décembre, il a remercié Laura Chambers pour son « leadership exceptionnel » dans une période charnière pour Mozilla, à qui elle a « apporté clarté, stabilité et concentration ». Nabiha Syed reste à la tête de la fondation depuis le départ de Mitchell Baker en début d’année, et Mark Surman est toujours directeur général de l’entreprise.

Il enchaine rapidement sur ce qu’il présente comme le crédo de l’entreprise : la confiance. « Quand j’ai rejoint Mozilla, il était clair que la confiance allait devenir le problème majeur de la technologie et que le navigateur serait l’endroit où cette bataille allait se dérouler. L’IA remodelait déjà la façon dont les gens recherchent, achètent et prennent des décisions de manière difficile à voir et encore plus à comprendre », indique Anthony Enzor-DeMeo.

Trois grands axes, dont l’IA

« Les gens veulent un logiciel rapide, moderne, mais aussi honnête sur ce qu’il fait », ajoute le nouveau CEO. La confiance doit surpasser tout le reste et Mozilla doit devenir une référence dans le domaine. « Ce n’est pas un slogan », martèle Anthony Enzor-DeMeo.

Il définit les trois grands axes de son règne : chaque produit développé par Mozilla doit donner de l’autonomie (confidentialité, utilisation des données, simplicité des contrôles…), une monétisation transparente et le passage à un écosystème plus large de logiciels de confiance, dont Firefox restera « l’ancre ».

Et que tout le monde soit averti : Firefox va bien évoluer vers un navigateur IA. Des investissements vont être faits en ce sens sur trois ans. Mais le nouveau CEO précise rapidement que ce travail devra « refléter le Manifeste Mozilla » et que tout ce qui touche à l’IA devra pouvoir être désactivé facilement. La différenciation avec le reste de l’industrie se ferait sur les « principes ».

Pas de LLM made in Mozilla à l’horizon

« Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », affirme Anthony Enzor-DeMeo. À The Verge, le CEO indique cependant être conscient de « l’érosion de la confiance » sur l’IA, insistant sur la nécessité pour Mozilla de devenir une référence.

Mais de quelle IA parle-t-on ? Comme le confirme le CEO à nos confrères, Mozilla ne va pas développer son propre LLM. Firefox va surtout s’équiper d’un mode IA qui donnera accès à divers modèles. Certains seront open source, d’autres non, et les principaux acteurs devraient être présents. Aucun modèle en particulier ne sera mis en avant, tout dépendant du choix fait par l’internaute. Reste à voir comment Mozilla arrivera à faire passer son message à faire la différence dans un marché du navigateur en pleine effervescence, l’IA ayant relancé la guerre, avec de nouveaux acteurs comme OpenAI et Perplexity.

SSD, mémoire vive : pénurie, mon amour…

17 décembre 2025 à 08:03
Finalement, l’amour à un prix : cher !
SSD, mémoire vive : pénurie, mon amour…

Fortes tensions : c’est le terme à la mode quand il s’agit de parler de puces mémoire, aussi bien pour les SSD que la mémoire vive. Les demandes explosent du côté des professionnels sur les GPU avec de grosses quantités de mémoire vive, à cause de l’intelligence artificielle. La situation pourrait s’aggraver avec maintenant une volonté de faire des « AI SSD ».

Face à cette situation, Micron (connu au travers de sa marque Crucial) a décidé de sortir du marché grand public, aussi bien pour la mémoire vive que les SSD. C’est un coup de tonnerre important dans un marché dominé par trois acteurs pour la fabrication des puces : SK hynix, Samsung et Micron donc.

Samsung ne bouge pas, SK hynix renforce sa production…

Les yeux se tournaient d’ailleurs vers Samsung pour voir ce qu’il allait faire. Un porte-parole du fabricant a tordu le cou aux rumeurs, affirmant à Wccftech que celle sur « l’abandon progressif des SSD S-ATA ou d’autres SSD est fausse ».

Toujours à nos confrères, SK hynix affirme continuer à produire massivement de la mémoire HBM, dont raffolent les GPU et les autres puces taillées pour l’IA. Le fabricant de puces ajoute néanmoins qu’il « étend activement sa capacité de production à travers de nouveaux projets de fabrication ».

…et prépare des « AI SSD » avec NVIDIA

Dans les projets de SK hynix, il y aurait des « AI SSD », développés conjointement avec NVIDIA, c’est en tout cas ce que rapporte le média Chosun. Nos confrères se basent sur une déclaration du vice-président de l’entreprise, Kim Cheon-seong lors de la conférence Artificial Intelligence Semiconductor Future Technology.

Il serait question d’un SSD dont les performances seraient 10 fois supérieures à celles des modèles traditionnels. Il serait commercialisé sous le nom de « Storage Next » pour NVIDIA et « AI-N P » (pour AI NAND Performances) du côté de SK hynix. Un prototype est attendu pour l’année prochaine. « Les deux sociétés ont estimé que les IOPS, qui désignent le nombre d’opérations d’entrée/sortie par seconde, pourraient atteindre 100 millions en 2027 », ajoutent nos confrères.

Des précédents avec les SSD Optane

Ce n’est pas la première fois que les fabricants se lancent dans des SSD avec des performances supérieures pour le monde professionnel et pour répondre à des besoins spécifiques. Intel l’a fait par exemple avec les SSD Optane à base de mémoire 3D Xpoint (une technologie abandonnée en 2022). La latence était plus faible et l’endurance plus élevée que sur les SSD classiques. Ils se positionnaient entre la mémoire vive et le SSD.

Un point pour finir sur la situation à venir. Kingston est assez peu optimiste pour les prochaines semaines. Cameron Crandall (responsable SSD pour les datacenters chez Kingston) en a parlé lors du podcast The Full Nerd Network. Il prévoit que, selon TechPowerUp, la situation devrait encore s’aggraver dans les 30 prochains jours, « entraînant une hausse des prix des SSD par rapport aux niveaux actuels », ajoutent nos confrères.

SK hynix est encore moins optimiste et prévoit une pénurie jusqu’en 2028, comme le rapporte Hardware & Co. Une chose est sûre : le prix de la mémoire s’envole en cette période de fin d’année… À moins que la bulle de l’IA n’explose (ou n’implose) avant ?

Les conséquences pourraient être bien visibles pour les consommateurs. Les ordinateurs portables pourraient par exemple redescendre à 8 Go de mémoire vive seulement, alors que 16 Go sont généralement un minimum, comme le rapporte Les Numériques. 16 Go est d’ailleurs le seuil minimum de mémoire imposé par Microsoft pour certifier un PC Copilot+.

« Après près de deux ans de calme relatif, le marché des disques durs (HDD) montre à nouveau des signes de stress », explique Tom’s Hardware. Nos confrères reprennent un rapport de Digitimes Asia qui annonce une hausse de 4 % des prix. Selon nos confrères, c’est symptôme d’un changement important de paradigme, qui modifie « toute la chaîne d’approvisionnement informatique ».

Laissons passer les fêtes de fin d’année, écouler les stocks et il sera temps de refaire un point de situation à la rentrée, aussi bien sur le stockage que sur la mémoire vive.

❌