Vue normale

Reçu aujourd’hui — 17 décembre 2025Actualités numériques

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


17 décembre 2025 à 15:45
C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


17 décembre 2025 à 15:45
C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

Meta Is Considering Charging Business Pages To Post Links

Par :msmash
17 décembre 2025 à 15:21
Meta is informing some users that they will soon be restricted in how many link posts they can share each month, unless they pay for its Meta Verified subscription service. As per the notification message: "Starting December 16, certain Facebook profiles without Meta Verified, including yours, will be limited to sharing links in 2 organic posts per month. Subscribe to Meta Verified to share more links on Facebook, plus get a verified badge and additional benefits to help protect your brand." To be clear, right now this is a limited test, so relatively few Pages are impacted. But understandably, a lot of users are also seeking more information on the change, and whether it could be expanded to all Pages. So, Meta's seeking to boost take-up of Meta Verified, in order to make more money out of its subscription option, which, for business users, costs between $14.99 and $499 per month, depending on which package you choose.

Read more of this story at Slashdot.

Test boitier FRACTAL Epoch XL : plus grand, donc mieux ?

17 décembre 2025 à 14:34

On parle aussi boitier ce jour, avec le test de la version XL du boitier Epoch de FRACTAL. Un boitier qui se veut tout simplement être une version XL du Epoch premier du nom. Ainsi, on a plus de place en interne, des ventilateurs plus grands, mais aussi une compatibilité BTF et PZ. Il est à découvrir ici même : Test boitier FRACTAL Epoch XL ou en cliquant sur la source. […]

Lire la suite

Minisforum EOP4A : une carte d’extension PCIe OCuLink

17 décembre 2025 à 15:33

La carte EOP4A de Minisforum complète l’offre de la marque sur le segment OCuLink d’une manière assez inattendue. Je me suis assez longuement gratté la tête pour comprendre pourquoi la marque proposait un tel produit.

Minisforum EOP4A

Minisforum EOP4A

La EOP4A propose de connecter un port PCIe x1, x4, x8 et x16 à un dock OCuLink qui abritera en règle générale une carte graphique externe. Comme Minisforum propose déjà un dock avec le DEG1 qui accueillera celle-ci. Le seul souci, c’est que cette solution n’aura pas vraiment d’intérêt à être externalisée de prime abord. Si une machine propose un port PCIe capable d’accueillir une carte, alors autant monter directement une solution graphique non ?

Deux constats par rapport à cette analyse. D’abord, certains PC et notamment en format Mini-ITX, ne peuvent pas accepter les cartes graphiques les plus imposantes du marché. Elles ne rentrent tout simplement pas dans les châssis. Cette solution permettra de circonvenir à cette problématique de manière temporaire. Elle ajoutera en passant la possibilité de tester des cartes graphiques facilement sur des docks comme le DEG1 pour des pros. Mais aussi et surtout, pour tous ceux qui ont acheté une solution OCuLink avec un boitier externe et une carte dedans, cela ouvre la possibilité de partager un dock avec plusieurs machines : un MiniPC et un engin plus classique.

Minisforum a intégré à sa carte EOP4A un circuit « Redriver » permettant de proposer un signal stable et sans erreur, ne nécessitant pas de pilotes. La carte est proposée à 55€ sur le site du fabricant.

Minisforum EOP4A : une carte d’extension PCIe OCuLink © MiniMachines.net. 2025

Warner Bros Discovery Board Rejects Rival Bid From Paramount

Par :msmash
17 décembre 2025 à 14:45
Warner Bros Discovery's board spurned Paramount Skydance's $108.4 billion hostile takeover bid on Wednesday, calling the offer "illusory" as it accused the studio giant of misleading shareholders about its financing. From a report: Paramount has been in a race with Netflix to win control of Warner Bros, and with it, its prized film and television studios, HBO Max streaming service and franchises like "Harry Potter." After Warner Bros accepted the streaming giant's offer, Paramount launched a hostile offer to outdo that bid. In a letter to shareholders on Wednesday, the Warner Bros board wrote that Paramount had "consistently misled" Warner Bros shareholders that its $30-per-share cash offer was fully guaranteed, or "backstopped," by the Ellison family, led by billionaire and Oracle co-founder Larry Ellison.

Read more of this story at Slashdot.

OpenAI in Talks With Amazon About Investment That Could Exceed $10 Billion

Par :msmash
17 décembre 2025 à 14:09
OpenAI is in discussions with Amazon about a potential investment and an agreement to use its AI chips, CNBC confirmed on Tuesday. From the report: The details are fluid and still subject to change but the investment could exceed $10 billion, according to a person familiar with the matter who asked not to be named because the talks are confidential. The discussions come after OpenAI completed a restructuring in October and formally outlined the details of its partnership with Microsoft, giving it more freedom to raise capital and partner with companies across the broader AI ecosystem. Microsoft has invested more than $13 billion in OpenAI and backed the company since 2019, but it no longer has a right of first refusal to be OpenAI's compute provider, according to an October release. OpenAI can now also develop some products with third parties. Amazon has invested at least $8 billion into OpenAI rival Anthropic, but the e-commerce giant could be looking to expand its exposure to the booming generative AI market. Microsoft has taken a similar step and announced last month that it will invest up to $5 billion into Anthropic, while Nvidia will invest up to $10 billion in the startup.

Read more of this story at Slashdot.

FRACTAL Epoch XL : une version plus grande plus intéressante ?

17 décembre 2025 à 14:22
On se penche ce jour sur un nouveau boîtier par FRACTAL, enfin plutôt sur une nouvelle déclinaison d’un boîtier que nous connaissons déjà, à savoir le Epoch, que nous venons de recevoir dans sa version XL. C’est donc le Epoch XL qui fait la une, une version du boîtier qui se veut un peu plus logeable, compatible E-ATX, qui intègre trois ventilateurs de 140 mm à l’avant et qui est désormais compatible BTF et PZ, afin d’accueillir les cartes mères dont les connecteurs sont placés à l’arrière. Nous testons ce jour la version White, Clear Tint, RGB, qui est proposée à 144,90 euros dans le commerce.

HDMI 2.2 et Ultra96 : une nouvelle étape pour la connectique audio-vidéo

17 décembre 2025 à 12:40

HDMI LA profitera du CES 2026 pour présenter officiellement la norme HDMI 2.2, accompagnée d'un nouveau label baptisé Ultra96. Cette appellation servira à identifier les appareils capables de gérer des débits élevés, répartis en trois modes distincts : 64, 80 et jusqu'à 96 Gbit/s. […]

Lire la suite

Bon Flan : l’écran KTC H27P27 UltraHD à 169€ de Hervé (?)

17 décembre 2025 à 14:50

Avec un cahier des charges spécifique, Hervé m’a demandé de trouver son nouvel écran. Il voulait une diagonale assez compacte et une définition élevée. Je lui ai proposé deux modèles et il a fini par opter pour le KTC H27P27.

Le KTC H27P27 est un 27″ proposé à 169.99€ en promo sur Amazon. C’est une solution assez sobre qui propose une définition UltraHD avec une dalle IPS en 3840 × 2160 à 60 Hz. . Pas le modèle le plus performant du monde mais un affichage suffisant pour la grande majorité des usages. Avec des bordures fines, il est pensé pour pouvoir être utilisé en duo et proposer un affichage juste.

KTC H27P27

KTC H27P27

Sa couverture de couleur est à 95% de la gamme DCI-P3 et 99% de la gamme sRGB avec une colorimétrie calibrée en usine et de grands angles de vision. Le KTC H27P27 propose une fixation de type VESA pour pouvoir le monter sur un pied ou lui accrocher un MiniPC.

Sa connectique comprend trois entrées avec deux HDMI 2.0 et un DisplayPort 1.4 en plus d’un port casque Jack 3.5 mm stéréo.

Bref, le KTC H27P27 est un bon « petit » écran de 27 pouces abordable et efficace actuellement à 169.99€ sur Amazon avec deux ans de garantie et une livraison rapide.

Voir l’offre chez Amazon

En lice, qui n’a pas été retenu, un écran dans les mêmes contraintes de diagonale en UltraHD, le Dell 27 Plus S2725QC. Vendu 200€ plus cher il affiche toujours en 3840 x 2160 pixels avec une dalle IPS qui monte à 120 Hz compatible Freesync. Il propose également une colorimétrie à 99% de la zone sRGB mais se distingue avec quelques atouts.

 

D’abord une connectique USB Type-C en plus de deux ports USB Type-C et Type-A escamotables en façade, une gestion des entrées en espaces de travail très complète, des agencements d’angles et d’orientation plus complets et des enceintes embarquées. Avec deux entrées HDMI et le DisplayPort en USB Type-C il proposera également trois entrées vidéo mais plus de sotie casque.

Vendu 368.82€ avec un petit « -3% » en ce moment, c’est une alternative un peu différente qui correspond peut-être plus à une solution de bureau à associer avec un portable.

Voir l’offre sur Amazon

D’autres alternatives de 27″ Ultra HD existent :

LG 27UP650K-W 27″ Ultrafine UHD 4K IPS Monitor à 214.95€ : intéressant mais livré après Noël

AOC Gaming U27G4R – 27″ UHD 160 Hz à 269.90€

LG 27US500  27″ UHD HDR10 IPS à 198.58€

Bon Flan : l’écran KTC H27P27 UltraHD à 169€ de Hervé (🍮) © MiniMachines.net. 2025

Le « 141 core », symbole de la radicalisation écofasciste

17 décembre 2025 à 13:01
Couchers de soleil et saluts nazis
Le « 141 core », symbole de la radicalisation écofasciste

Depuis plusieurs mois, le nombre « 141 » est brandi sur les réseaux sociauxInstagram et TikTok en têtecomme symbole de défense de la nature. Une tendance largement récupérée par l’extrême droite qui, pour l’autrice Stephanie Lamy, charrie un mélange d’idéologies radicales parfois concurrentes, du néonazisme à la mouvance anti-tech.

À chaque chiffre sa lettre de l’alphabet. A priori, rien de plus simple pour décoder ce que signifie «141» , un nombre présent ces derniers mois sur de nombreuses vidéos en ligne,  Instagram et TikTok en tête. «1-4-1 » devient ainsi « a-d-a », abréviation d’anti-deforestation action (« action contre la déforestation »). Utilisé comme symbole de protection de la forêt et de la nature dans son ensemble, celui-ci accompagne des contenus à l’esthétique bien particulière.

Ici, un jeune homme se filme profitant d’une randonnée en montagne, comme seul au monde. Là, des paysages verdoyants se succèdent, entrecoupés de scènes de pollution environnementale. En fond sonore, les mêmes morceaux reviennent en boucle : des mélodies et remix foutraques tantôt survitaminés, tantôt mélancoliques et oppressants façon post-punk soviétique.

Diffusé largement grâce à la nature très consensuelle de son message, le phénomène a désormais un nom qui lui est propre : le 141 core. «Ce que l’on nomme esthétique ou core, ce sont des codes visuels récurrents qui forment un certain type d’imagerie, explique le vulgarisateur Wherldo, spécialisé dans les tendances du genre. On prend une base et on la décline, comme le chromecore qui reprend la texture du même nom pour en recouvrir le monde. Cela s’inscrit dans un contexte de surconsommation d’images induite par le fonctionnement des réseaux sociaux. »

Les codes du 141 core se diffusent sur Tiktok – capture d’écran Next

Avec le 141 core, on a donc affaire à une iconographie bucolique, où la montagne et les forêts sont glorifiées. « Je pense que les gens cherchent une connexion avec la nature et ce, depuis la période du Covid-19 qui nous en a privé pendant un temps. » Difficile cependant d’en quantifier la viralité, certaines vidéos ne cumulant que quelques dizaines de vues, d’autres plusieurs centaines de milliers. Et si là encore il est compliqué de retracer son origine, sa popularisation semble liée au débat concernant le report de l’application du Règlement européen contre la déforestation et la dégradation des forêts (RDUE).

Mais au contraire d’autres tendances,«le 141 core se détache aujourd’hui d’une ligne purement esthétique pour prendre une dimension plus idéologique, observe Wherldo. De par son accessibilité, il participe à la popularisation d’idées nauséabondes comme le néonazisme. »


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Kingston met en garde : les prix des SSD devraient à leur tour augmenter nettement à présent

Les prix de la DRAM sont devenus totalement fous, et ce n'est pas Cameron Crandall, responsable chez Kingston des SSD pour data centers qui va dire le contraire. Pour reprendre ses propres mots, "il n'a jamais vu cela en 29 ans de carrière dans le milieu", et le souci c'est que même si le démarrage...

Uber and DoorDash Try To Halt NYC Law That Encourages Tipping

Par :BeauHD
17 décembre 2025 à 13:00
An anonymous reader quotes a report from the New York Times: Two of the largest food-delivery app companies have made a last-ditch effort to overturn tipping laws in New York City that go into effect in January just as its next mayor, who has been highly critical of the companies and the app industry, takes office. Tips to delivery workers have plummeted since some food-delivery apps switched to showing the tipping option only after a purchase had been completed; that change came after New York City established the country's first minimum pay-rate for the workers in 2023. The new laws will require the apps to suggest a minimum tip of 10 percent at checkout, though customers can contribute more or less, or nothing at all. Two of the app companies, DoorDash and Uber, filed a joint federal lawsuit in the Southern District of New York late last week targeting the City Council legislation, arguing that the new rules violated the First Amendment by requiring them to "speak a government-mandated message" and exceeded the Council's authority. Although tipping will be optional under the law, the companies wrote in the suit that a "mandated pre-delivery 10 percent tip suggestion" would cause customers to use the app less because they were suffering from "tipping fatigue." "Lessened engagement would result in fewer orders," the suit said.

Read more of this story at Slashdot.

Framework de mauvaise foi avec l’augmentation de la mémoire

17 décembre 2025 à 12:53

Après avoir critiqué Dell et Apple pour faire leur beurre sur la disette imposée de mémoire vive, Framework annonce à son tour une augmentation de la mémoire vive dans ses options de DDR5. Hausse qui s’associe avec une mise à jour des conditions de ventes de ses machines.

Chez Framework on estimait le 9 décembre que des entités comme Dell et Apple surfacturaient l’augmentation de la mémoire. Ce qui n’est franchement pas un scoop et qui fait partie intégrante des schémas de commercialisation de ces entreprises. Si la crise actuelle accentue le phénomène, tout le catalogue de Dell et d’Apple sont pensés dans ce sens.

Framework indiquait que son passage de 16 à 32 Go de DDR5 ne coutait que 80$ le 9 décembre. Tout en mettant en avant le fait que ce tarif ne vous offrirait qu’une seule barrette de 16 Go depuis un engin vide chez Dell. Et qu’il vous en couterait le double pour en avoir deux. Je ne vais pas revenir en détail sur les stratégies de chacun, mais cela me parait un peu difficile de comparer Dell, Apple et Framework. 

Tout le monde sait, depuis toujours, qu’appeler un conseiller Dell permet de réduire sa facture d’achat significativement. Les entreprises qui contactent le service client pour acheter quelques machines à l’année bénéficient de réductions et le calcul des composants secondaires est souvent lié à cela. Doubler « gratuitement » sa mémoire vive est un « geste commercial » assez classique chez Dell. Du moins, ça l’était.

Depuis le Apple M1, la mémoire vive est intégrée directement sur le SOC

Depuis le Apple M1, la mémoire vive est intégrée directement sur le SOC

Apple de son côté embarque directement la mémoire vive dans ses puces et cela rend cette comparaison très étrange. L’impact de l’augmentation de la mémoire et des tensions d’approvisionnement est forcément très différent. Apple achète en amont de la fabrication de ses SoC. Et la marque choisit des grades de mémoire très élevés. Elle n’intègre évidemment que le très haut de gamme dans ses puces pour ne pas générer de couteux déchets de production ou de pannes à moyen terme. Là où un autre constructeur peut tolérer des barrettes défectueuses, Apple ne laissera rien passer. Imaginez vous acheter de la mémoire un peu moins haut de gamme, la monter sur une série de quelques milliers de puces et découvrir ensuite des erreurs en sortie de chaine. Le coût de fabrication d’un SoC Apple avec cette mémoire défectueuse embarquée serait catastrophique. Framework de son côté peut simplement renvoyer les barrettes qui posent un éventuel souci en SAV. 

Enfin, les volumes des trois entités sont totalement différents. Les chiffres de Framework ne sont pas connus, mais Dell a distribué 10.3 millions de PC au troisième trimestre 2025. Apple, 6.8 millions. Je doute fortement que l’impact d’une pénurie de mémoire soit le même pour les trois entités. Je ne suis pas là pour défendre Dell ou Apple mais s’ils ont décidé une augmentation de la mémoire vive, c’est en anticipant probablement le scénario que va connaitre toute l’industrie en 2026. Ils le font peut être plus rapidement que d’autres tout simplement parce qu’ils vendent plus que d’autres. C’est par ailleurs lié à leur position particulière dans un calcul permettant de lisser les tarifs pour ne pas avoir à changer les prix en permanence1. Tout simplement parce que pour Dell comme pour Apple, il est difficile de proposer des devis et des contrats professionnels avec des tarifs qui fluctuent. 

Ainsi Framework achète sa mémoire avec plus de souplesse que Dell ou Apple, peut changer de fournisseur/fabricant et même utiliser des grossistes au besoin. Son appétit n’est pas tout à fait le même en quantité. Dell et Apple ont dû signer des engagements sur une période plus longue pour obtenir l’approvisionnement nécessaire à leur fonctionnement. Et leurs fournisseurs n’ont évidemment pas décidé de leur faire un cadeau en se basant sur le cours du jour pour déterminer leurs contrats à long terme. S’ils savent que les prix vont monter à l’avenir, ils vont anticiper un tarif moyen sur l’année 2026.

augmentation de la mémoire

Une augmentation de la mémoire vive pour tout le monde

Au final Framework monte donc le prix de ses composants à son tour mais uniquement pour les options. La marque a dû sécuriser un assez gros stock de DDR5 avant la hausse qu’elle conservera au prix d’avant la hausse pour ses machines pré-équipées. Comme la marque n’écoule pas 10.3 millions de PC par trimestre comme Dell, ce qui veut dire 3.43 millions de PC par mois entre juillet en septembre, ou 114 333 PC par jour, chaque jour pendant trois mois, elle peut se le permettre. Si elle avait la même distribution que Dell, Apple ou un autre acteur du TOP 10 des vendeurs de PC mondiaux, elle serait dans le même bain.

D’ailleurs ce n’est qu’une question de temps avant que la marque soit obligée d’augmenter tous les tarifs de ses composants mémoire. Le fait que ses composants n’augmentent pas dans ses portables va les rendre plus séduisants et son stock va disparaitre plus vite. Et le constructeur en est pleinement conscient puisqu’il a déjà modifié ses conditions générales de vente pour éviter que de petits malins achètent des portables Framework avec des options mémoire vive et puissent les renvoyer sans cette même mémoire. Désormais il faudra renvoyer la machine telle qu’elle a été livrée, options comprises, pour bénéficier d’un remboursement.

Pour suivre le DDRGate

Framework de mauvaise foi avec l’augmentation de la mémoire © MiniMachines.net. 2025

[Bon plan] Écran 27" AOC 4K 160Hz / FHD 320Hz à 227,99€ livré !

Excellent cumul de promotions en ce 17 décembre 2025 pour celui qui ne dirait pas non à un écran gaming Dual Mode. L'AOC U27G4R est l'un d'eux, et il est disponible uniquement aujourd'hui à un prix encore jamais vu.Il s'agit donc d'un écran ayant une diagonale de 27 pouces et une dalle IPS pouvant p...

Intel Compute Runtime 25.48.36300.8 Brings More Performance Optimizations & Xe3 Fixes

17 décembre 2025 à 11:12
Intel this week released their last planned feature update to their open-source Compute Runtime for 2025. The Intel Compute Runtime 25.48.36300.8 delivers the latest OpenCL and Level Zero performance optimizations, Xe3 workarounds, and other fixes for those on Intel integrated and discrete graphics hardware...
❌