Vue lecture

Hop, l’UFC Que Choisir et 20 organisations s’insurgent contre la fin de Windows 10

Tout le monde sous Vista et on n'en parle plus
Hop, l’UFC Que Choisir et 20 organisations s’insurgent contre la fin de Windows 10

L’association Halte à l’obsolescence programmée (HOP), l’UFC-Que Choisir et 20 autres organisations ou entreprises lancent un appel à pétition autour de la question de la fin programmée du support de Windows 10. Si leur texte s’adresse en premier lieu à Microsoft, à qui sont réclamés cinq ans supplémentaires de mises à jour, il vise aussi et surtout à sensibiliser l’opinion publique à une possible réponse réglementaire.

À un mois de l’échéance, est-il encore vraiment temps de tirer la sonnette d’alarme ? C’est a priori l’avis des 22 cosignataires d’une pétition baptisée « Non à la taxe Windows », officiellement lancée mardi 16 septembre, pour appeler au maintien des mises à jour de sécurité non payantes de Windows 10 jusqu’en 2030.

Le texte rappelle la fin programmée du support de Windows 10 (sorti pour mémoire en juillet 2015), fixée depuis deux ans au 14 octobre 2025. Une date régulièrement rappelée par l’éditeur, qui en profite pour inciter les utilisateurs à passer vers la dernière version en date de son environnement, et invite ceux dont la machine ne serait pas compatible avec les exigences de Windows 11 à renouveler leur matériel, de préférence au profit d’une machine compatible avec les fonctions d’IA Copilot+.

Paie, passe à la caisse ou tremble ?

À défaut, l’éditeur prévoit des options, payantes ou assorties de certaines obligations d’usage de ses produits, pour prolonger de un à trois ans le support de Windows 10. Une possibilité d’extension que les signataires voient comme un argument à charge pour dénoncer le « hold-up numérique » dont se rendrait coupable Microsoft. Puisque des mises à jour seront distribuées aux souscripteurs de ces options, pourquoi ne pas en faire profiter l’ensemble du parc Windows 10 ?

Les auteurs de la pétition reprennent à leur compte le chiffre, largement repris dans les médias, selon lequel 400 millions de machines dans le monde seraient condamnées à une forme d’impasse, avec d’un côté le renouvellement forcé (et donc la mise au rebut) et de l’autre la perspective de continuer à fonctionner avec une sécurité dégradée faute de correctifs.

À l’appui de leur appel, les 22 premiers cosignataires joignent quelques chiffres censés donner la mesure de l’impact attendu, que ce soit sur le climat ou en termes financiers. « 400 millions d’ordinateurs remplacés, cela représente plus de 70 millions de tonnes de gaz à effet de serre, et l’équivalent du poids de près de 32 000 tours Eiffel de matières premières extraites », écrivent-ils.

L’option permettant de prolonger le support est quant à elle présentée comme une « taxe Windows » dont l’enveloppe pourrait représenter 10,4 milliards d’euros, si l’on compte que 400 millions de machines souscrivent la formule à 30 dollars (soit 26 euros environ) pour un an, et ramènent le chiffre à l’équivalent de 481 000 années de SMIC pour le rendre plus impressionnant. La réalité sera certainement plus nuancée, mais la réalité des cycles de renouvellement en entreprise fait que des millions de machines souscriront probablement le programme ESU (Extended Security Updates), générant de ce fait une manne de revenus pour Microsoft.

Imposer 15 ans de mises à jour par la loi ?

De façon plus concrète, la pétition livre quelques exemples chiffrés, mais anonymes, des conséquences financières attendues dans le secteur public. « HOP a par exemple reçu le témoignage d’un département d’1,3 million d’habitants, pour lequel le remplacement du matériel est estimé à 1,1 million d’euros,
dont un surcoût imprévu de 550 000 €. Une entreprise de service public, qui compte payer les extensions de mise à jour pour ses 48 000 postes incompatibles, devra faire face pour la première année seulement à un coût d’environ 2,5 millions d’euros.
 », expliquent les signataires dans un dossier de presse (PDF).

Et les auteurs d’appeler à médiatiser un maximum le sujet : « Le cas Windows 10 illustre un modèle économique où les grands acteurs du numérique : Profitent de leur position dominante pour imposer de nouvelles rentes. Font peser le coût de leur stratégie sur les ménages, les services publics et
l’environnement. Dissimulent derrière un discours technologique des impacts environnementaux
 ».

En réponse, les instigateurs de la démarche expliquent se réunir sous la coordination de HOP, et joindre leur voix à celle de la coalition européenne Right to repair pour demander la fin de ces pratiques d’obsolescence logicielle.

« Plus généralement, nous défendons l’encadrement légal des pratiques, afin d’assurer la mise à disposition gratuite et sans contrepartie des mises à jour logicielles pendant au moins 15 ans, ainsi que l’obligation d’information des utilisateur·ices sur le passage à un système d’exploitation libre. »

Le rappel est effectivement de circonstance : si la décision de Microsoft place les utilisateurs de Windows 10 face à une forme de mur, des alternatives existent, de Linux Mint à GLF OS en passant par tous les autres grands (ou moins grands) noms de la scène du logiciel libre. Reste à savoir si l’éditeur de Redmond finira par faire les frais de ce passage en force.

La pétition, qui comptait 330 signatures lundi soir avant sa médiatisation, réunissait quelque 4 300 noms mardi à 16h30.

  •  

Hop, l’UFC Que Choisir et 20 organisations s’insurgent contre la fin de Windows 10

Tout le monde sous Vista et on n'en parle plus
Hop, l’UFC Que Choisir et 20 organisations s’insurgent contre la fin de Windows 10

L’association Halte à l’obsolescence programmée (HOP), l’UFC-Que Choisir et 20 autres organisations ou entreprises lancent un appel à pétition autour de la question de la fin programmée du support de Windows 10. Si leur texte s’adresse en premier lieu à Microsoft, à qui sont réclamés cinq ans supplémentaires de mises à jour, il vise aussi et surtout à sensibiliser l’opinion publique à une possible réponse réglementaire.

À un mois de l’échéance, est-il encore vraiment temps de tirer la sonnette d’alarme ? C’est a priori l’avis des 22 cosignataires d’une pétition baptisée « Non à la taxe Windows », officiellement lancée mardi 16 septembre, pour appeler au maintien des mises à jour de sécurité non payantes de Windows 10 jusqu’en 2030.

Le texte rappelle la fin programmée du support de Windows 10 (sorti pour mémoire en juillet 2015), fixée depuis deux ans au 14 octobre 2025. Une date régulièrement rappelée par l’éditeur, qui en profite pour inciter les utilisateurs à passer vers la dernière version en date de son environnement, et invite ceux dont la machine ne serait pas compatible avec les exigences de Windows 11 à renouveler leur matériel, de préférence au profit d’une machine compatible avec les fonctions d’IA Copilot+.

Paie, passe à la caisse ou tremble ?

À défaut, l’éditeur prévoit des options, payantes ou assorties de certaines obligations d’usage de ses produits, pour prolonger de un à trois ans le support de Windows 10. Une possibilité d’extension que les signataires voient comme un argument à charge pour dénoncer le « hold-up numérique » dont se rendrait coupable Microsoft. Puisque des mises à jour seront distribuées aux souscripteurs de ces options, pourquoi ne pas en faire profiter l’ensemble du parc Windows 10 ?

Les auteurs de la pétition reprennent à leur compte le chiffre, largement repris dans les médias, selon lequel 400 millions de machines dans le monde seraient condamnées à une forme d’impasse, avec d’un côté le renouvellement forcé (et donc la mise au rebut) et de l’autre la perspective de continuer à fonctionner avec une sécurité dégradée faute de correctifs.

À l’appui de leur appel, les 22 premiers cosignataires joignent quelques chiffres censés donner la mesure de l’impact attendu, que ce soit sur le climat ou en termes financiers. « 400 millions d’ordinateurs remplacés, cela représente plus de 70 millions de tonnes de gaz à effet de serre, et l’équivalent du poids de près de 32 000 tours Eiffel de matières premières extraites », écrivent-ils.

L’option permettant de prolonger le support est quant à elle présentée comme une « taxe Windows » dont l’enveloppe pourrait représenter 10,4 milliards d’euros, si l’on compte que 400 millions de machines souscrivent la formule à 30 dollars (soit 26 euros environ) pour un an, et ramènent le chiffre à l’équivalent de 481 000 années de SMIC pour le rendre plus impressionnant. La réalité sera certainement plus nuancée, mais la réalité des cycles de renouvellement en entreprise fait que des millions de machines souscriront probablement le programme ESU (Extended Security Updates), générant de ce fait une manne de revenus pour Microsoft.

Imposer 15 ans de mises à jour par la loi ?

De façon plus concrète, la pétition livre quelques exemples chiffrés, mais anonymes, des conséquences financières attendues dans le secteur public. « HOP a par exemple reçu le témoignage d’un département d’1,3 million d’habitants, pour lequel le remplacement du matériel est estimé à 1,1 million d’euros,
dont un surcoût imprévu de 550 000 €. Une entreprise de service public, qui compte payer les extensions de mise à jour pour ses 48 000 postes incompatibles, devra faire face pour la première année seulement à un coût d’environ 2,5 millions d’euros.
 », expliquent les signataires dans un dossier de presse (PDF).

Et les auteurs d’appeler à médiatiser un maximum le sujet : « Le cas Windows 10 illustre un modèle économique où les grands acteurs du numérique : Profitent de leur position dominante pour imposer de nouvelles rentes. Font peser le coût de leur stratégie sur les ménages, les services publics et
l’environnement. Dissimulent derrière un discours technologique des impacts environnementaux
 ».

En réponse, les instigateurs de la démarche expliquent se réunir sous la coordination de HOP, et joindre leur voix à celle de la coalition européenne Right to repair pour demander la fin de ces pratiques d’obsolescence logicielle.

« Plus généralement, nous défendons l’encadrement légal des pratiques, afin d’assurer la mise à disposition gratuite et sans contrepartie des mises à jour logicielles pendant au moins 15 ans, ainsi que l’obligation d’information des utilisateur·ices sur le passage à un système d’exploitation libre. »

Le rappel est effectivement de circonstance : si la décision de Microsoft place les utilisateurs de Windows 10 face à une forme de mur, des alternatives existent, de Linux Mint à GLF OS en passant par tous les autres grands (ou moins grands) noms de la scène du logiciel libre. Reste à savoir si l’éditeur de Redmond finira par faire les frais de ce passage en force.

La pétition, qui comptait 330 signatures lundi soir avant sa médiatisation, réunissait quelque 4 300 noms mardi à 16h30.

  •  

Intel Xeon 6980P "Granite Rapids" Linux Performance One Year Later

Next week marks one year since the launch of the Xeon 6900P series Granite Rapids server processors. Given the occasion and a new server in the lab, here is a look at how Intel's Granite Rapids top-end Xeon 6980P server processors are performing one year after the original introduction with a production-grade server platform as well as incorporating all of the Linux software improvements over the past year.
  •  

Un prototype de GeForce GTX 2080 Ti se montre

Il nous a fallu pas mal de temps pour comprendre cette actualité, pourquoi ? Car probablement, comme nous, vous allez instinctivement penser à la RTX 2080 Ti, qui est une carte que nous connaissons tous bien. Mais voilà, ce prototype qui vient de sortir de chez un réparateur de CG n'est pas une RTX 2080 Ti, mais une GTX 2080 Ti. Les premières cartes qui ont donc apporté le Ray Tracing sur le marché ont failli rester des GTX, mais NVIDIA a, dans son cheminent de création, remplacé le G, par un R, pour indiquer l'arrivée et la prise en charge matériel du Ray Tracing. […]

Lire la suite
  •  

AIDA64 est de retour en version 8.00 : pour quels changements ?

AIDA64, c’est le genre de trousse à outil bien pratique du testeur hardware, intégrant un résumé d’informations système, des benchmarks intégrés de mémoire comme de calcul, de quoi surveiller vos températures — et bien plus encore. Nul doute que vous retrouviez ces scores dans nos colonnes, à savoir...

  •  

The Mac App Flea Market

A search for "AI chat" in the Mac App Store returns dozens of applications sporting black-and-white icons nearly identical to ChatGPT's official logo. OpenAI's ChatGPT desktop application isn't available through the Mac App Store and can only be downloaded from the company's website. The copycat applications use various combinations of "AI," "Chat," and "Bot" in their names, including "AI Chat Bot : Ask Assistant," "AI Chatbot: Chat Ask Assistant," and dozens of similar variations. One application named itself "Al Chatbot" using a lowercase L instead of a capital I in "AI." Additional lookalike icons mimicking Claude, Grok, and Gemini applications also appear in search results.

Read more of this story at Slashdot.

  •  

Découvrez l'état du raccordement à la fibre optique en France

Puisque le rapport 2025 sur l'état de l'Internet en France de l’Arcep vous a intéressés, retrouvons, prenez votre souffle, l’Autorité de Régulation des Communications Électroniques, des Postes et de la distribution de la Presse, pour un nouveau panorama, certes bien moins touffu. L’organisme a publié en fin de semaine dernière son suivi du marché des services fixes à haut et très haut débit du deuxième trimestre... [Tout lire]
  •  

An Unresponsive Public Is Undermining Government Economic Data

An anonymous reader shares a report: Anyone who surveys the public, from marketers to pollsters, struggles nowadays to get people to answer their questions. That phenomenon afflicts crucial government data, making it harder for policymakers and investors to know the true state of the economy. Falling survey participation is an important reason the flagship jobs report released every month by the Bureau of Labor Statistics, part of the Labor Department, has undergone such big revisions recently. This has rippled into the political sphere. On Aug. 1, President Trump fired BLS Commissioner Erika McEntarfer after a particularly large downward revision to jobs for May and June that owed partly to late responses from survey participants. The White House and top administration officials increased their attacks on the BLS last week after the agency published an annual revision suggesting the U.S. added 911,000 fewer jobs over the 12 months through March. The BLS blamed the initial overestimate partly on response rates. [...] One hypothesis is known as survey fatigue: People are being asked to answer too many questionnaires. Jonathan Eggleston, a senior economist at the U.S. Census Bureau, found in a 2024 study that recent participants in that agency's monthly and annual surveys, which are voluntary, were less likely to answer the 2020 census by mail, phone or online, without a knock on the door. Another is the rise of cellphones with caller ID. In the days of landlines, people had to pick up the phone to know who was calling. These days, many decline to answer callers they don't recognize.

Read more of this story at Slashdot.

  •  

Google Releases VaultGemma, Its First Privacy-Preserving LLM

An anonymous reader quotes a report from Ars Technica: The companies seeking to build larger AI models have been increasingly stymied by a lack of high-quality training data. As tech firms scour the web for more data to feed their models, they could increasingly rely on potentially sensitive user data. A team at Google Research is exploring new techniques to make the resulting large language models (LLMs) less likely to 'memorize' any of that content. LLMs have non-deterministic outputs, meaning you can't exactly predict what they'll say. While the output varies even for identical inputs, models do sometimes regurgitate something from their training data -- if trained with personal data, the output could be a violation of user privacy. In the event copyrighted data makes it into training data (either accidentally or on purpose), its appearance in outputs can cause a different kind of headache for devs. Differential privacy can prevent such memorization by introducing calibrated noise during the training phase. Adding differential privacy to a model comes with drawbacks in terms of accuracy and compute requirements. No one has bothered to figure out the degree to which that alters the scaling laws of AI models until now. The team worked from the assumption that model performance would be primarily affected by the noise-batch ratio, which compares the volume of randomized noise to the size of the original training data. By running experiments with varying model sizes and noise-batch ratios, the team established a basic understanding of differential privacy scaling laws, which is a balance between the compute budget, privacy budget, and data budget. In short, more noise leads to lower-quality outputs unless offset with a higher compute budget (FLOPs) or data budget (tokens). The paper details the scaling laws for private LLMs, which could help developers find an ideal noise-batch ratio to make a model more private. The work the team has done here has led to a new Google model called VaultGemma, its first open-weight model trained with differential privacy to minimize memorization risks. It's built on the older Gemma 2 foundation and sized at 1 billion parameters, which the company says performs comparably to non-private models of similar size. It's available now from Hugging Face and Kaggle.

Read more of this story at Slashdot.

  •  

UK's MI5 'Unlawfully' Obtained Data From Former BBC Journalist

Bruce66423 shares a report from The Guardian: MI5 has conceded it "unlawfully" obtained the communications data of a former BBC journalist, in what was claimed to be an unprecedented admission from the security services. The BBC said it was a "matter of grave concern" that the agency had obtained communications data from the mobile phone of Vincent Kearney, a former BBC Northern Ireland home affairs correspondent. The admission came in a letter to the BBC and to Kearney, in relation to a tribunal examining claims that several reporters in Northern Ireland were subjected to unlawful scrutiny by the police. It related to work carried out by Kearney for a documentary into the independence of the Office of the Police Ombudsman for Northern Ireland (PONI). Kearney is now the northern editor at Irish broadcaster RTE. In documents submitted to the Investigatory Powers Tribunal (IPT), MI5 conceded it obtained phone data from Kearney on two occasions in 2006 and 2009. Jude Bunting KC, representing Kearney and the BBC, told a hearing on Monday: "The MI5 now confirms publicly that in 2006 and 2009 MI5 obtained communications data in relation to Vincent Kearney." He said the security service accepted it had breached Kearney's rights under article 8 and article 10 of the European convention on human rights. They relate to the right to private correspondence and the right to impart information without interference from public authorities. "This appears to be the first time in any tribunal proceedings in which MI5 publicly accept interference with a journalist's communications data, and also publicly accept that they acted unlawfully in doing so," Bunting said. He claimed the concessions that it accessed the journalist's data represented "serious and sustained illegality on the part of MI5." Bruce66423 comments: "The good news is that it's come out. The bad news is that it has taken 16 years to do so. The interesting question is whether there will be any meaningful consequences for individuals within MI5; there's a nice charge of 'malfeasance in public office' that can be used to get such individuals into a criminal court. Or will the outcome be like that of when the CIA hacked the US Senate's computers, lied about it, and nothing happened?"

Read more of this story at Slashdot.

  •  

Online Marketplace Fiverr To Lay Off 30% of Workforce In AI Push

Fiverr is laying off 250 employees, or about 30% of its workforce, as it restructures to become an "AI-first" company. "We are launching a transformation for Fiverr, to turn Fiverr into an AI-first company that's leaner, faster, with a modern AI-focused tech infrastructure, a smaller team, each with substantially greater productivity, and far fewer management layers," CEO Micha Kaufman said. Reuters reports: While it isn't clear what kinds of jobs will be impacted, Fiverr operates a self-service digital marketplace where freelancers can connect with businesses or individuals requiring digital services like graphic design, editing or programming. Most processes on the platform take place with minimal employee intervention as ordering, delivery and payments are automated. The company's name comes from most gigs starting at $5 initially, but as the business grew, the firm has introduced subscription services and raised the bar for service prices. Fiverr said it does not expect the job cuts to materially impact business activities across the marketplace in the near term and plans to reinvest part of the savings in the business.

Read more of this story at Slashdot.

  •  

OpenAI's First Study On ChatGPT Usage

An anonymous reader quotes a report from Ars Technica: Today, OpenAI's Economic Research Team went a long way toward answering that question, on a population level, releasing a first-of-its-kind National Bureau of Economic Research working paper (in association with Harvard economist David Denning) detailing how people end up using ChatGPT across time and tasks. While other research has sought to estimate this kind of usage data using self-reported surveys, this is the first such paper with direct access to OpenAI's internal user data. As such, it gives us an unprecedented direct window into reliable usage stats for what is still the most popular application of LLMs by far. After digging through the dense 65-page paper, here are seven of the most interesting and/or surprising things we discovered about how people are using OpenAI today. Here are the seven most interesting and surprising findings from the study: 1. ChatGPT is now used by "nearly 10% of the world's adult population," up from 100 million users in early 2024 to over 700 million users in 2025. Daily traffic is about one-fifth of Google's at 2.6 billion GPT messages per day. 2. Long-term users' daily activity has plateaued since June 2025. Almost all recent growth comes from new sign-ups experimenting with ChatGPT, not from established users increasing their usage. 3. 46% of users are aged 18-25, making ChatGPT especially popular among the youngest adult cohort. Factoring in under-18 users (not counted in the study), the majority of ChatGPT users likely weren't alive in the 20th century. 4. At launch in 2022, ChatGPT was 80% male-dominated. By late 2025, the balance has shifted: 52.4% of users are now female. 5. In 2024, work vs. personal use was close to even. By mid-2025, 72% of usage is non-work related -- people are using ChatGPT more for personal, creative, and casual needs than for productivity. 6. 28% of all conversations involve writing assistance (emails, edits, translations). For work-related queries, that jumps to 42% overall, and 52% among business/management jobs. Furthermore, the report found that editing and critiquing text is more common than generating text from scratch. 7. 14.9% of work-related usage is dealt with "making decisions and solving problems." This shows people don't just use ChatGPT to do tasks -- they use it as an advisor or co-pilot to help weigh options and guide choices.

Read more of this story at Slashdot.

  •  

Ryzen 5 7400 : le retour du grand n'importe quoi chez AMD ?

Voilà qui ne nous avait pas manqué et semble malheureusement de retour chez AMD. Nous garderons le conditionnel dans cette actualité car le processeur n'est pas encore officiel sur le site d'AMD, mais à en croire le célèbre comparateur de prix en ligne coréen Danawa, AMD serait en train d'ajouter (e...

  •  

Les besoins de l’IA continuent de tendre le marché du stockage

Trendforce, cabinet spécialisé dans la surveillance du marché informatique, tire la sonnette d’alarme. Le stockage, après les circuits graphiques, est la nouvelle victime des serveurs montés pour piloter les besoins des diverses Intelligence Artificielles actuelles.

L’onde de choc est déjà visible, les prix du stockage ont augmenté depuis cet été. Qu’il s’agisse de solutions mécaniques ou de SSD, plusieurs sociétés ont pris les devants en ajoutant une belle poignée d’euros à leurs tarifs. Et cela ne devrait pas s’arrêter. 

C’est le résultat d’une combinaison totalement anormale par rapport au marché classique. On a d’abord un élément délirant qui est la force d’achat des sociétés qui conçoivent ces IA. Alimentées par des dizaines de milliards de dollars de capital risque, ces sociétés ne sont absolument pas rentables et ne cherchent pas à l’être pour le moment. L’argent coule à flot et ils l’investissent au maximum pour devenir l’IA la plus performante possible. Cela passe par des achats de circuits graphiques au de gamme destinés aux calculs mais également par des capacités de stockage très importantes composées de SSD et de HDD. Avec un portefeuille qui déborde littéralement de dollars, ces compagnies sont prêtes à acheter à tous les prix pour sécuriser leur développement. Laissant derrière elles très loin des sociétés plus classiques qui doivent produire quant à elles un bilan comptable positif en début d’année.

Pour se donner une idée de l’impact de la construction de Data Center aux US. Voici un schéma de Bloomberg qui montre que très bientôt la construction de nouveaux centres de données dépassera à elle seule la totalité des constructions de bureaux dans le pays.

Quand une société qui développe une IA annonce un prix d’achat au Gigaoctet plus élevé qu’un acteur classique du marché, ce dernier passe au second plan. Ce dernier ne peut pas se permettre de surenchérir d’un point de vue financier comme d’un point de vue marketing. À la différence d’une société qui développe une IA, l’acheteur traditionnel a des produits à vendre ou à rentabiliser. 

La seconde raison est liée aux faibles investissements du marché sur le secteur du disque mécanique ces dernières années. En large perte de vitesse face aux SSD pour les particuliers comme pour les professionnels, l’industrie du stockage a surtout travaillé des produits spécialisés. Laissant de côté la production de masse des disques durs. À tel point que la production est clairement à la traine.

Ce délai est assimilable d’un point de vue économique à de la rareté. Et qui dit rareté dit augmentation des tarifs. En creux, on comprend que si un client fait un effort sur le prix, peut-être que son délai de réception pourrait se raccourcir. Mettez cela en face de sociétés qui ont littéralement des milliards de dollars de disponible pour investir et qui doivent impérativement le faire pour suivre leur logique économique et vous avez un problème. Si vous avez d’un côté un client prêt à payer un stockage particulier et adapté à son besoin spécifique à un tarif délirant. Et de l’autre une chaine de production plus généraliste qui vise un secteur plus large mais capable d’être réorientée vers un marché plus rentable. Le calcul est rapide.

Western Digital annonce une augmentation de ses tarifs qui fait suite à une demande sans précédent des produits de toutes les capacités de sa production. Il rejoint ici SanDisk qui a déjà augmenté son stockage de 10% en moyenne. Micron, de son côté, a totalement gelé des prix qui étaient jusqu’alors mécaniquement à la baisse en continu à cause du gain en densité régulier de ses productions. Et a même augmenté certains de ses composants NAND de 20 à 30%.

Les fabricants vont sans doute se servir de cette nouvelle manne d’argent frais pour développer des produits de stockage sur mesures pour leurs clients IA. Mais en attendant, la folie de ces développements pousse ce marché à acheter tout ce qui est compatible. Et si la solution doit passer par des mélanges de SSD et de disques mécaniques pour fonctionner, pas de soucis pour investir là-dedans. Les entreprises de services dans les nuages et autres gros consommateurs de stockage classiques vont devoir se rabattre sur des composants plus onéreux et continuer à alimenter la crise de ce marché. Et cela sans compter le risque que la bulle de l’investissement  IA n’éclate enfin, que les robinets du financement magique ne soient coupés. Les investissements des fabricants de stockage dans des lignes de production spécifiques pouvant alors ne plus être rentabilisées.

Mauvaise nouvelle, ce constat fait pour le marché du stockage va probablement se répéter de la même manière pour la mémoire vive…

En fin de course, cela pourrait poser également de véritables problèmes aux fabricants d’ordinateur personnels. Il est très difficile de vendre un ordinateur sans stockage. Si la production délaisse ce secteur devenu moins rentable, c’est pourtant ce qui risque d’arriver. Avec tous les effets de spéculation qui en découleront. Il sera difficile pour les marques d’augmenter leurs tarifs pour un stockage équivalent. Les constructeurs se retrouveraient donc avec des choix compliqués. Le premier étant de recourir à des stockages de plus faibles capacités ou moins performants et donc un peu plus délaissés par les appétits d’ogre du reste du marché. L’autre est d’attendre de nouvelles générations de produits annexes, comme des processeurs, des affichages ou des circuits graphiques, pour construire des machines dont le mélange de composants produira un nouveau prix. Une technique qui permet en général de « noyer le poisson » du surcoût lié à un composant. 

Les besoins de l’IA continuent de tendre le marché du stockage © MiniMachines.net. 2025

  •  

IA : les sous-traitants de Google ont licencié 200 salariés demandant de meilleures conditions

Intelligence pas très artificielle
IA : les sous-traitants de Google ont licencié 200 salariés demandant de meilleures conditions

Plus de 200 personnes qui évaluaient et modéraient les résultats des modèles d’IA générative de Google ont été licenciées alors qu’elles se battaient pour obtenir de meilleures conditions de travail et des augmentations de salaires. Le conflit se passe chez les sous-traitants de Google (notamment chez GlobalLogic, filiale d’Hitachi) qui ont pour tâche de filtrer les résultats erronés.

Depuis l’avènement des modèles de langage et de leur utilisation dans tous les produits d’IA générative, les entreprises comme Google ont redoublé le recours à la sous-traitance du travail de la donnée, que ça soit dans des pays comme le Venezuela, le Kenya, le Brésil, Madagascar où la France, avec des situations bien différentes. Ce système maintient « les dépendances économiques historiques et génère des inégalités qui s’ajoutent à celles héritées du passé », exposent les sociologues Antonio Casilli, Paola Tubaro, Maxime Cornet, Clément Le Ludec, Juana Torres-Cierpe et Matheus Viana Braz.

Après avoir utilisé des « travailleurs du clic », les entreprises d’IA génératives ont cherché à faire appel à des « experts » susceptibles, théoriquement, de mieux évaluer les réponses de leurs modèles qui hallucinent et génèrent toujours des réponses problématiques et ainsi améliorer les réponses des produits boostés à l’IA générative comme AI Overviews.

Ainsi, des entreprises comme TuringAI ou Toloka se sont lancées dans ce marché. Du côté de chez Google, c’est essentiellement GlobalLogic qui fournit cette main d’œuvre depuis 2023. Filiale d’Hitachi, cette entreprise a embauché des évaluateurs qui doivent noter et modérer des contenus créés par les modèles de Google. Mais, comme l’explique le Guardian, ces travailleurs se plaignent de pressions énormes, d’exposition à des contenus violents et de salaires peu élevés.

Des experts payés au lance-pierre pour évaluer des contenus parfois très violents sans en être informés

Contactés sur LinkedIn et recrutés pour leurs connaissances spécialisés et leurs diplômes de master ou même de thèse sur des postes aux intitulés vagues comme « analyste en rédaction », des enseignants et des rédacteurs techniques se retrouvent, aux États-Unis, à être payé entre 16 dollars et 21 dollars de l’heure pour ces évaluations de contenus parfois extrêmement violents ou sexuels.

« J’ai été choqué que mon travail implique de traiter des contenus aussi pénibles », explique au Guardian Rachael Sawyer, qui travaille en tant qu’ « évaluatrice généraliste » depuis mars 2024. « Non seulement parce que je n’ai reçu aucun avertissement et qu’on ne m’a jamais demandé de signer de formulaire de consentement lors de mon intégration, mais aussi parce que ni le titre ni la description du poste ne mentionnaient la modération de contenu ».

En décembre dernier, TechCrunch expliquait que les évaluateurs experts de GlobalLogic avaient reçu la consigne (venue de Google) de répondre même sur des questions se trouvant en dehors de leur champ de compétence.

Des licenciements dans un contexte de conflit social

Wired raconte que l’entreprise employait depuis une dizaine d’années des évaluateurs généralistes. Et en 2023, Google a demandé à GlobalLogic d’embaucher des « super » évaluateurs pour ses IA génératives et notamment pour AI Overviews. De 25 « super » évaluateurs en 2023, l’entreprise serait montée à près de 2 000 récemment.

Mais GlobalLogic et les autres sous-traitants seraient en train de brusquement licencier leurs évaluateurs, explique Wired. 200 personnes auraient été licenciées sans préavis lors d’au moins deux vagues au mois d’août dernier.

Interrogé par Wired, Ricardo Levario, l’un des évaluateurs licenciés et ancien enseignant dans le Texas, explique que les problèmes ont commencé quand GlobalLogic a elle-même fait appel à des sous-traitants. Les super évaluateurs de GlobalLogic étaient payés entre 28 et 32 dollars de l’heure, mais ses sous-traitants payent maintenant entre 18 et 22 dollars de l’heure pour le même travail.

Ricardo Levario raconte à Wired la construction d’un mouvement social interne à GlobalLogic notamment à travers un groupe WhatsApp après que certains aient forgé des liens sur les espaces sociaux numériques laissés à disposition par Google. Ce mouvement a notamment abouti à la création de la branche des évaluateurs d’IA au sein du syndicat de Google. En réaction, l’entreprise a interdit l’utilisation des espaces sociaux pendant les heures de travail.

Ricardo Levario a envoyé une plainte à la maison-mère Hitachi, en tant que lanceur d’alerte. Suite à cet envoi, il a été convoqué à un entretien à distance quatre jours après durant lequel il a été licencié au bout de cinq minutes.

Alors que les outils basés sur l’IA générative comme Overview montrent régulièrement leurs limites, le travail de ces évaluateurs permet néanmoins aux entreprises du secteur d’éviter les enjeux les plus problématiques et de faire croire que leurs produits sont des outils doués d’une intelligence artificielle qui ne déclament pas des horreurs à leurs utilisateurs. « En tant qu’évaluateurs, nous jouons un rôle extrêmement important, car les ingénieurs, entre le code et tout le reste, n’ont pas le temps de peaufiner le bot et d’obtenir les commentaires dont ils ont besoin », explique Alex, une évaluatrice généraliste interrogée par Wired. « Nous sommes comme les sauveteurs en mer sur la plage : nous sommes là pour veiller à ce qu’il n’arrive rien de grave ».

  •  

IA : les sous-traitants de Google ont licencié 200 salariés demandant de meilleures conditions

Intelligence pas très artificielle
IA : les sous-traitants de Google ont licencié 200 salariés demandant de meilleures conditions

Plus de 200 personnes qui évaluaient et modéraient les résultats des modèles d’IA générative de Google ont été licenciées alors qu’elles se battaient pour obtenir de meilleures conditions de travail et des augmentations de salaires. Le conflit se passe chez les sous-traitants de Google (notamment chez GlobalLogic, filiale d’Hitachi) qui ont pour tâche de filtrer les résultats erronés.

Depuis l’avènement des modèles de langage et de leur utilisation dans tous les produits d’IA générative, les entreprises comme Google ont redoublé le recours à la sous-traitance du travail de la donnée, que ça soit dans des pays comme le Venezuela, le Kenya, le Brésil, Madagascar où la France, avec des situations bien différentes. Ce système maintient « les dépendances économiques historiques et génère des inégalités qui s’ajoutent à celles héritées du passé », exposent les sociologues Antonio Casilli, Paola Tubaro, Maxime Cornet, Clément Le Ludec, Juana Torres-Cierpe et Matheus Viana Braz.

Après avoir utilisé des « travailleurs du clic », les entreprises d’IA génératives ont cherché à faire appel à des « experts » susceptibles, théoriquement, de mieux évaluer les réponses de leurs modèles qui hallucinent et génèrent toujours des réponses problématiques et ainsi améliorer les réponses des produits boostés à l’IA générative comme AI Overviews.

Ainsi, des entreprises comme TuringAI ou Toloka se sont lancées dans ce marché. Du côté de chez Google, c’est essentiellement GlobalLogic qui fournit cette main d’œuvre depuis 2023. Filiale d’Hitachi, cette entreprise a embauché des évaluateurs qui doivent noter et modérer des contenus créés par les modèles de Google. Mais, comme l’explique le Guardian, ces travailleurs se plaignent de pressions énormes, d’exposition à des contenus violents et de salaires peu élevés.

Des experts payés au lance-pierre pour évaluer des contenus parfois très violents sans en être informés

Contactés sur LinkedIn et recrutés pour leurs connaissances spécialisés et leurs diplômes de master ou même de thèse sur des postes aux intitulés vagues comme « analyste en rédaction », des enseignants et des rédacteurs techniques se retrouvent, aux États-Unis, à être payé entre 16 dollars et 21 dollars de l’heure pour ces évaluations de contenus parfois extrêmement violents ou sexuels.

« J’ai été choqué que mon travail implique de traiter des contenus aussi pénibles », explique au Guardian Rachael Sawyer, qui travaille en tant qu’ « évaluatrice généraliste » depuis mars 2024. « Non seulement parce que je n’ai reçu aucun avertissement et qu’on ne m’a jamais demandé de signer de formulaire de consentement lors de mon intégration, mais aussi parce que ni le titre ni la description du poste ne mentionnaient la modération de contenu ».

En décembre dernier, TechCrunch expliquait que les évaluateurs experts de GlobalLogic avaient reçu la consigne (venue de Google) de répondre même sur des questions se trouvant en dehors de leur champ de compétence.

Des licenciements dans un contexte de conflit social

Wired raconte que l’entreprise employait depuis une dizaine d’années des évaluateurs généralistes. Et en 2023, Google a demandé à GlobalLogic d’embaucher des « super » évaluateurs pour ses IA génératives et notamment pour AI Overviews. De 25 « super » évaluateurs en 2023, l’entreprise serait montée à près de 2 000 récemment.

Mais GlobalLogic et les autres sous-traitants seraient en train de brusquement licencier leurs évaluateurs, explique Wired. 200 personnes auraient été licenciées sans préavis lors d’au moins deux vagues au mois d’août dernier.

Interrogé par Wired, Ricardo Levario, l’un des évaluateurs licenciés et ancien enseignant dans le Texas, explique que les problèmes ont commencé quand GlobalLogic a elle-même fait appel à des sous-traitants. Les super évaluateurs de GlobalLogic étaient payés entre 28 et 32 dollars de l’heure, mais ses sous-traitants payent maintenant entre 18 et 22 dollars de l’heure pour le même travail.

Ricardo Levario raconte à Wired la construction d’un mouvement social interne à GlobalLogic notamment à travers un groupe WhatsApp après que certains aient forgé des liens sur les espaces sociaux numériques laissés à disposition par Google. Ce mouvement a notamment abouti à la création de la branche des évaluateurs d’IA au sein du syndicat de Google. En réaction, l’entreprise a interdit l’utilisation des espaces sociaux pendant les heures de travail.

Ricardo Levario a envoyé une plainte à la maison-mère Hitachi, en tant que lanceur d’alerte. Suite à cet envoi, il a été convoqué à un entretien à distance quatre jours après durant lequel il a été licencié au bout de cinq minutes.

Alors que les outils basés sur l’IA générative comme Overview montrent régulièrement leurs limites, le travail de ces évaluateurs permet néanmoins aux entreprises du secteur d’éviter les enjeux les plus problématiques et de faire croire que leurs produits sont des outils doués d’une intelligence artificielle qui ne déclament pas des horreurs à leurs utilisateurs. « En tant qu’évaluateurs, nous jouons un rôle extrêmement important, car les ingénieurs, entre le code et tout le reste, n’ont pas le temps de peaufiner le bot et d’obtenir les commentaires dont ils ont besoin », explique Alex, une évaluatrice généraliste interrogée par Wired. « Nous sommes comme les sauveteurs en mer sur la plage : nous sommes là pour veiller à ce qu’il n’arrive rien de grave ».

  •  

Un mystérieux prototype d'Intel Arc A750 en 16 Go de GDRR6 512-bits se montre

Lancée comme une carte graphique milieu de gamme, l'Intel Arc A750 n'avait rien de révolutionnaire à sa sortie : 8 Go de GDDR6 sur un bus 256-bit, des perfs correctes pour le prix, mais pas réellement de succès, en raison de pilotes pas des plus efficaces. Toutefois, nous étions sur une vraie carte graphique, comme la Intel Arc A770 d'ailleurs. Mais les bleus avaient peut-être d'autres plans pour ce modèle, en atteste ce prototype qui refait surface. […]

Lire la suite
  •