Vue normale

Aujourd’hui — 3 avril 2025Actualités numériques

Air Conditioning, Not Data Centers, Driving Global Energy Demand Growth

Par : msmash
3 avril 2025 à 23:00
Air conditioning will contribute more to rising global energy demand than data centers through 2030, according to an International Energy Agency. While attention has focused on computing power consumption, the IEA projects data centers will account for less than 10% of increased energy demand by 2030, significantly less than space cooling requirements. Global cooling degree days, a measure of air conditioning need, were 6% higher in 2024 than 2023 and 20% above the long-term average for the first two decades of the century. China, India and the United States saw particularly sharp increases. Air conditioning represented 7% of global electricity consumption in 2022, with some U.S. regions reporting that cooling can comprise over 70% of residential energy use during peak periods. The number of air conditioning units worldwide could nearly triple from fewer than 2 billion in 2016 to approximately 6 billion by 2050, creating a growing challenge for power grids.

Read more of this story at Slashdot.

US Stock Markets See Worst Day Since Covid Pandemic

Par : BeauHD
3 avril 2025 à 22:42
U.S. stock markets suffered their worst day since the Covid pandemic after Donald Trump announced sweeping new tariffs, triggering a global selloff and wiping out $470 billion in value from tech giants Apple and Nvidia. From a report: The tech-heavy Nasdaq fell 6%, while the S&P 500 and the Dow dropped 4.8% and 3.9%, respectively. [...] Meanwhile, the US dollar hit a six-month low, going down at least 2.2% on Thursday morning compared with other major currencies and oil prices sank on fears of a global slowdown. Though the US stock market has been used to tumultuous mornings over the last few weeks, US stock futures -- an indication of the market's likely direction -- had plummeted after the announcement. Hours later, Japan's Nikkei index slumped to an eight-month low and was followed by falls in stock markets in London and across Europe. Multiple major American business groups have spoken out against the tariffs, including the Business Roundtable, a consortium of leaders of major US companies including JP Morgan, Apple and IBM, which called on the White House to "swiftly reach agreements" and remove the tariffs. "Universal tariffs ranging from 10-50% run the risk of causing major harm to American manufacturers, workers, families and exporters," the Business Roundtable said in a statement. "Damage to the US economy will increase the longer the tariffs are in place and may be exacerbated by retaliatory measures."

Read more of this story at Slashdot.

Intel, TSMC Tentatively Agree To Form Chipmaking Joint Venture

Par : msmash
3 avril 2025 à 22:20
Intel and Taiwan Semiconductor Manufacturing Co. have reached a preliminary agreement to form a joint venture operating Intel's chipmaking facilities, with TSMC taking a 20% stake, The Information reports [non-paywalled source]. Intel and other U.S. semiconductor companies would hold the majority of shares in the proposed venture. Instead of capital investment, TSMC has discussed sharing chipmaking methods and training Intel personnel. The talks face internal opposition from some Intel executives concerned about widespread layoffs and the abandonment of Intel's own technology, according to the report. The deal could help TSMC neutralize a struggling competitor while potentially giving Taiwan more leverage with the U.S. administration, which recently imposed tariffs on Taiwanese goods excluding chips.

Read more of this story at Slashdot.

Microsoft's Miniature Windows 365 Link PC Goes On Sale

Par : msmash
3 avril 2025 à 21:43
An anonymous reader shares a report: Microsoft's business-oriented "Link" mini-desktop PC, which connects directly to the company's Windows 365 cloud service, is now available to buy for $349.99 in the US and in several other countries. Windows 365 Link, which was announced last November, is a device that is more easily manageable by IT departments than a typical computer while also reducing the needs of hands on support.

Read more of this story at Slashdot.

Oracle Tells Clients of Second Recent Hack, Log-In Data Stolen

Par : msmash
3 avril 2025 à 19:08
An anonymous reader shares a report: Oracle has told customers that a hacker broke into a computer system and stole old client log-in credentials, according to two people familiar with the matter. It's the second cybersecurity breach that the software company has acknowledged to clients in the last month. Oracle staff informed some clients this week that the attacker gained access to usernames, passkeys and encrypted passwords, according to the people, who spoke on condition that they not be identified because they're not authorized to discuss the matter. Oracle also told them that the FBI and cybersecurity firm CrowdStrike are investigating the incident, according to the people, who added that the attacker sought an extortion payment from the company. Oracle told customers that the intrusion is separate from another hack that the company flagged to some health-care customers last month, the people said.

Read more of this story at Slashdot.

Climate Crisis On Track To Destroy Capitalism, Warns Top Insurer

Par : msmash
3 avril 2025 à 18:20
The climate crisis is on track to destroy capitalism, a top insurer has warned, with the vast cost of extreme weather impacts leaving the financial sector unable to operate. From a report: The world is fast approaching temperature levels where insurers will no longer be able to offer cover for many climate risks, said Günther Thallinger, on the board of Allianz SE, one of the world's biggest insurance companies. He said that without insurance, which is already being pulled in some places, many other financial services become unviable, from mortgages to investments. Global carbon emissions are still rising and current policies will result in a rise in global temperature between 2.2C and 3.4C above pre-industrial levels. The damage at 3C will be so great that governments will be unable to provide financial bailouts and it will be impossible to adapt to many climate impacts, said Thallinger, who is also the chair of the German company's investment board and was previously CEO of Allianz Investment Management. The core business of the insurance industry is risk management and it has long taken the dangers of global heating very seriously. In recent reports, Aviva said extreme weather damages for the decade to 2023 hit $2tn, while GallagherRE said the figure was $400bn in 2024. Zurich said it was "essential" to hit net zero by 2050.

Read more of this story at Slashdot.

Votre radiateur double tour, vous l'aimez avec un, deux ou trois ventilateurs ?

Depuis plus de 15 ans maintenant, les ventirads "dual tower" trônent au sommet des performances de l'air cooling pour CPU. Avec leurs deux zones d'ailettes distinctes, ils permettent également d'envisager l'utilisation d'un ventilateur, de deux ou même de trois pour les plus motivés. Aujourd'hui nou...

Climate Firm That Partnered With Meta, Microsoft Goes Bankrupt

Par : msmash
3 avril 2025 à 16:53
Climate startup Aspiration, which boasted a roster of celebrity backers and arranged carbon credits for Meta Platforms, Microsoft and other large companies, filed bankruptcy weeks after its co-founder was arrested on fraud charges. From a report: CTN Holdings, as the company is now known, has about $170 million in debt. The goal of the bankruptcy is to sell its assets as quickly as possible in order to repay creditors, chief restructuring officer Miles Staglik said in a court filing. The pool of potential bidders is small and the nature of the CTN's ventures will likely require more cash and "long term horizons before any potential value could be realized for creditors," Staglik said. The bankruptcy was filed after co-founder Joseph Sanberg was charged by federal prosecutors with conspiring to defraud two investor funds of at least $145 million, according to a US Department of Justice announcement earlier this month. The charges involve his personal conduct and don't implicate CTN or its affiliates "in any criminal activity," said Staglik, a managing director at CR3 Partners that's been hired as CTN's restructuring adviser.

Read more of this story at Slashdot.

Intel Refreshes Iconic Brand

Par : msmash
3 avril 2025 à 16:11
Intel has unveiled a refresh of its iconic brand identity, introducing the slogan "That's the power of Intel Inside" to reconnect with consumers and highlight the chipmaker's role in modern computing. The new campaign resurrects the familiar "Intel Inside" theme that helped transform the company into a household name in the 1990s, when Intel's marketing strategy directly targeted consumers rather than system designers. Brett Hannath, Intel's chief marketing officer, said the message reflects the company's belief that its products can unlock potential for employees, customers, consumers and partners. The original "Intel Inside" campaign, launched in 1991, revolutionized tech marketing by making processors a key selling point for PCs with its recognizable sticker and five-note jingle. The strategy helped Intel differentiate itself from competitors like AMD and Cyrix during the PC market explosion.

Read more of this story at Slashdot.

AMD Ryzen 9 9900X3D Impact Of The 3D V-Cache Optimizer Linux Driver

3 avril 2025 à 16:30
Last month I posted benchmarks showing the performance when using the new 3D V-Cache Optimizer driver on Linux using the flagship Ryzen 9 9950X3D. This optimizer driver allows tuning the "amd_x3d_mode" for indicating your preference for the CCD with the higher frequency or larger cache size. For some additional insight into the 3D V-Cache Optimizer driver performance impact on Linux, here are benchmarks looking at the difference while using the AMD Ryzen 9 9900X3D.

[Dossier] Internet, mode d’emploi : fibres optiques et câbles sous-marins (partie 6)

3 avril 2025 à 15:35
We all live in a cable submarine, cable submarine, cable submarine
[Dossier] Internet, mode d’emploi : fibres optiques et câbles sous-marins (partie 6)

Les câbles sous-marins à fibre optique sont les véritable épines dorsales de l’Internet mondial. Ils permettent de relier des pays et des continents, en complément de la fibre optique sur terre (et en l’air). Sur le papier, la solution semble idéale, mais elle a des contraintes techniques, notamment le besoin de répéteurs à intervalles réguliers.

Dans les précédents articles de notre dossier sur le fonctionnement d’Internet, nous avons pu suivre le voyage d’une requête. Nous sommes partis d’une URL, passée à la moulinette du DNS pour trouver l’adresse IP du serveur, puis nous avons utilisé les routes BGP pour le rejoindre. Un peu de peering et de transit via des points d’échange, éventuellement un « détour » par les CDN pour éviter de faire le tour de la Terre pour pas grand-chose, nous voilà à destination. Sur le papier, cela fonctionne bien. Mais en pratique, comment relie-t-on ce petit monde ?

Dans cette sixième partie, nous allons parler du cœur des réseaux. La principale technologie utilisée pour transporter des données est la fibre optique… mais on va commencer par briser un mythe auquel certains sont peut-être encore attachés : la fibre n’est pas le moyen le plus rapide (au sens de la latence) de transmettre des données.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Cooler Master prépare une GeForce RTX 5080 de plus de 8,5cm d'épaisseur !

Vous pensiez que la ASUS GeForce RTX 5080 ROG Astral aurait du mal à être détrônée de la place de plus grosse brique, pardon carte graphique de sa gamme ? Avec ses dimensions de 35,8 cm en longueur, 14,9 cm en hauteur et 7,6 cm en épaisseur, il faut dire qu'elle plaçait la barre très haut ! La carte...

AV1 is Supposed To Make Streaming Better, So Why Isn't Everyone Using It?

Par : msmash
3 avril 2025 à 15:27
Despite promises of more efficient streaming, the AV1 video codec hasn't achieved widespread adoption seven years after its 2018 debut, even with backing from tech giants Netflix, Microsoft, Google, Amazon, and Meta. The Alliance for Open Media (AOMedia) claims AV1 is 30% more efficient than standards like HEVC, delivering higher-quality video at lower bandwidth while remaining royalty-free. Major services including YouTube, Netflix, and Amazon Prime Video have embraced the technology, with Netflix encoding approximately 95% of its content using AV1. However, adoption faces significant hurdles. Many streaming platforms including Max, Peacock, and Paramount Plus haven't implemented AV1, partly due to hardware limitations. Devices require specific decoders to properly support AV1, though recent products from Apple, Nvidia, AMD, and Intel have begun including them. "In order to get its best features, you have to accept a much higher encoding complexity," Larry Pearlstein, associate professor at the College of New Jersey, told The Verge. "But there is also higher decoding complexity, and that is on the consumer end."

Read more of this story at Slashdot.

Intel Updates Linux Patches For Adaptive Sharpness Property, Xe VRAM Self Refresh

3 avril 2025 à 15:24
Two separate patch series updated this week for the open-source Intel Linux graphics driver stack is the still-ongoing work around the DRM sharpness property for the new adaptive sharpening filter with Xe2 Lunar Lake graphics and then separately is the work to bring VRAM Self Refresh (VRSR) over to the modern Xe kernel driver...

Bon Plan : Cat Quest II offert par Epic Games

3 avril 2025 à 15:19

Le store d'Epic Games vous offre le jeu Cat Quest II, vous avez jusqu'au 10 avril, 17 heures, pour l'ajouter ici. Un RPG d'action en open-world qui a pour cadre un royaume imaginaire de chats et de chiens. Dans Cat Quest II, vous pouvez jouer seul ou à deux. Accomplissez les quêtes de ce monde magique, terrassez des monstres et récoltez du butin ! […]

Lire la suite

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

3 avril 2025 à 15:06
DDoS généré pour IA
Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Pour entrainer et tenir à jour leurs intelligences artificielles, les crawlers des entreprises d’IA parcourent le web en permanence et sont suspectés de ne pas respecter les fameux robots.txt censés permettre leur blocage. Leur activité va jusqu’à mettre en péril des sites web de projets de logiciels libres ou toucher fortement les activités de Wikimédia.

Les entreprises qui ont mis en place des IA génératives comme OpenAI, Meta, Anthropic, Mistral ou encore Amazon, Google et Microsoft ont besoin d’indexer des contenus sur le web en permanence pour entrainer leurs grands modèles de langage (LLM), récupérer les nouvelles informations afin que leurs outils soient capables de répondre aux demandes de leurs utilisateurs.

Un trafic difficile à gérer, même pour la fondation Wikimédia

Mais en venant en permanence sur les sites web, ils ajoutent du trafic important à leur bande passante, au point de saturer certains. La fondation Wikimédia a publié un billet pour expliquer à quel point ces robots ont un impact sur ses projets : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants ».

En effet, ces entreprises récupèrent ces contenus à l’aide de « crawlers », des robots d’indexation, ou plutôt ici de récupération de données. OpenAI a officiellement donné le nom de son robot, GPTBot, en aout 2023, suscitant immédiatement la réaction de RSF qui a rapidement invité « tous les médias à configurer leurs sites pour éviter qu’OpenAI ne récupère leur contenu gratuitement ». C’est ce qu’ont fait beaucoup de sites web.

Un blocage pas si efficace

Pour cela, il « suffit » de lister dans le fichier robots.txt de son site les robots dont on ne veut pas. Mais, comme l’ont démontré récemment des chercheuses, certains robots récupèrent des informations de sites qui, pourtant, les ont ajoutés dans leurs listes. De plus, l’outil d’IA générative de Microsoft, Copilot, utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. Un site qui voudrait bloquer l’IA de Microsoft ne serait plus indexé dans le moteur de recherche Bing.

Et, comme on l’a vu récemment, certains sites peuvent être visités 2 millions de fois par un bot en un trimestre. Il est déjà difficile pour des infrastructures comme celles de la Fondation Wikimédia de faire face à cet afflux « artificiel » pour gérer sa bande passante, mais ça l’est encore plus pour des projets qui ont moins de moyens.

Certains expriment leur ras-le-bol

Plusieurs responsables de projets de logiciels libres se sont plaints du problème, expliquait récemment ArsTechnica. Le développeur Xe Iaso a, par exemple, exprimé son ras-le-bol en janvier face au crawler d’Amazon : « À la personne qui gère AmazonBot, veuillez ajouter git.xeserv.us à votre liste de domaines bloqués. Si vous connaissez quelqu’un chez Amazon, merci de lui transmettre ce message et de lui demander de le transmettre à l’équipe d’AmazonBot » alors qu’il avait radicalement bloqué tous les robots dans son fichier robots.txt.

TheLibre.News a aussi recensé plusieurs infrastructures de logiciels libres touchés par ce problème. Le GitLab des développeurs de KDE a, par exemple, été touché par des crawlers ayant des IP détenues par Alibaba, ce qui l’a rendu temporairement inaccessible. L’un des administrateurs systèmes du projet Pagure de Fedora a, lui aussi, constaté un afflux massif de robots de récupération de données venant du Brésil. Il explique avoir décidé de bloquer temporairement toutes les IP brésiliennes pour en venir à bout tout en sachant bien que ce n’était pas une solution de long terme.

Gergely Orosz, qui publie la newsletter The Pragmatic Engineer, explique sur LinkedIn que le site d’un de ses projets personnels qui déclinait a reçu récemment un trafic important « lorsque le crawler AI de Meta et d’autres bots comme Imagesiftbot ont commencé à crawler le site sans réfléchir : ça a poussé le trafic à plus de 700Go par mois » alors qu’il était aux alentours de 100Go par mois un peu avant.

« Le site est hébergé sur Render où 500Go/mois sont inclus, au-delà c’est 30 $ pour 100Go. Ce mois-ci, je paie donc 90 $ pour l’entrainement de ces LLM », commente-t-il. Et lui aussi pointe que « l’ironie est que les robots – y compris Meta ! – ignorent manifestement le fichier robots.txt du site qui leur dit de « s’il vous plait, restez à l’écart » ».

Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, a publié un billet de blog le 17 mars dernier demandant aux entreprises d’IA génératives d’ « arrêter d’externaliser [leur] coûts directement sur [lui] ». « Au lieu de travailler sur nos priorités à SourceHut, j’ai passé entre 20 et 100 % de mon temps à atténuer les crawlers LLM hyper-agressifs », s’y lamente-t-il. Il explique que Source Hut subit des « dizaines de brèves pannes par semaine » et qu’il doit chercher tous les jours de nouvelles solutions pour ne pas voir la situation empirer. Le même jour, son entreprise expliquait que des crawlers de LLM continuaient à provoquer un DDoS sur SourceHut.

Des solutions pour piéger les crawlers d’IA

Elle expliquait avoir décidé de déployer Anubis pour essayer de bloquer les bots des entreprises d’IA. « Ce logiciel présente à certains utilisateurs un défi de preuve de travail qui est résolu par le navigateur de l’utilisateur à l’aide de JavaScript », explique SourceHut. C’est en fait une solution qu’a développé Xe Iaso après avoir publié son raz-le-bol.

D’autres solutions commencent à être développées, notamment en essayant de piéger les IA dans un labyrinthe de liens. Nepenthes, par exemple. Sa documentation explique que le logiciel « fonctionne en générant des séquences infinies de pages, chacune contenant des dizaines de liens, qui retournent simplement dans un piège ». Nepenthes ajoute des petits détails comme un délai ou une fausse apparence de fichiers statiques pour tromper le crawler.

De son côté, Cloudflare a aussi pensé à une solution de labyrinthe, explique-t-elle dans un billet de blog. Celle-ci « utilise du contenu généré par l’IA pour ralentir, embrouiller et gaspiller les ressources des AI Crawlers et d’autres robots qui ne respectent pas les directives « no crawl » ». L’entreprise, connue pour vendre des solutions pour augmenter la sécurité et les performances des sites internet, propose pour le moment à tous ses utilisateurs la possibilité d’activer gratuitement cette fonctionnalité.

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

3 avril 2025 à 15:06
DDoS généré pour IA
Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Pour entrainer et tenir à jour leurs intelligences artificielles, les crawlers des entreprises d’IA parcourent le web en permanence et sont suspectés de ne pas respecter les fameux robots.txt censés permettre leur blocage. Leur activité va jusqu’à mettre en péril des sites web de projets de logiciels libres ou toucher fortement les activités de Wikimédia.

Les entreprises qui ont mis en place des IA génératives comme OpenAI, Meta, Anthropic, Mistral ou encore Amazon, Google et Microsoft ont besoin d’indexer des contenus sur le web en permanence pour entrainer leurs grands modèles de langage (LLM), récupérer les nouvelles informations afin que leurs outils soient capables de répondre aux demandes de leurs utilisateurs.

Un trafic difficile à gérer, même pour la fondation Wikimédia

Mais en venant en permanence sur les sites web, ils ajoutent du trafic important à leur bande passante, au point de saturer certains. La fondation Wikimédia a publié un billet pour expliquer à quel point ces robots ont un impact sur ses projets : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants ».

En effet, ces entreprises récupèrent ces contenus à l’aide de « crawlers », des robots d’indexation, ou plutôt ici de récupération de données. OpenAI a officiellement donné le nom de son robot, GPTBot, en aout 2023, suscitant immédiatement la réaction de RSF qui a rapidement invité « tous les médias à configurer leurs sites pour éviter qu’OpenAI ne récupère leur contenu gratuitement ». C’est ce qu’ont fait beaucoup de sites web.

Un blocage pas si efficace

Pour cela, il « suffit » de lister dans le fichier robots.txt de son site les robots dont on ne veut pas. Mais, comme l’ont démontré récemment des chercheuses, certains robots récupèrent des informations de sites qui, pourtant, les ont ajoutés dans leurs listes. De plus, l’outil d’IA générative de Microsoft, Copilot, utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. Un site qui voudrait bloquer l’IA de Microsoft ne serait plus indexé dans le moteur de recherche Bing.

Et, comme on l’a vu récemment, certains sites peuvent être visités 2 millions de fois par un bot en un trimestre. Il est déjà difficile pour des infrastructures comme celles de la Fondation Wikimédia de faire face à cet afflux « artificiel » pour gérer sa bande passante, mais ça l’est encore plus pour des projets qui ont moins de moyens.

Certains expriment leur ras-le-bol

Plusieurs responsables de projets de logiciels libres se sont plaints du problème, expliquait récemment ArsTechnica. Le développeur Xe Iaso a, par exemple, exprimé son ras-le-bol en janvier face au crawler d’Amazon : « À la personne qui gère AmazonBot, veuillez ajouter git.xeserv.us à votre liste de domaines bloqués. Si vous connaissez quelqu’un chez Amazon, merci de lui transmettre ce message et de lui demander de le transmettre à l’équipe d’AmazonBot » alors qu’il avait radicalement bloqué tous les robots dans son fichier robots.txt.

TheLibre.News a aussi recensé plusieurs infrastructures de logiciels libres touchés par ce problème. Le GitLab des développeurs de KDE a, par exemple, été touché par des crawlers ayant des IP détenues par Alibaba, ce qui l’a rendu temporairement inaccessible. L’un des administrateurs systèmes du projet Pagure de Fedora a, lui aussi, constaté un afflux massif de robots de récupération de données venant du Brésil. Il explique avoir décidé de bloquer temporairement toutes les IP brésiliennes pour en venir à bout tout en sachant bien que ce n’était pas une solution de long terme.

Gergely Orosz, qui publie la newsletter The Pragmatic Engineer, explique sur LinkedIn que le site d’un de ses projets personnels qui déclinait a reçu récemment un trafic important « lorsque le crawler AI de Meta et d’autres bots comme Imagesiftbot ont commencé à crawler le site sans réfléchir : ça a poussé le trafic à plus de 700Go par mois » alors qu’il était aux alentours de 100Go par mois un peu avant.

« Le site est hébergé sur Render où 500Go/mois sont inclus, au-delà c’est 30 $ pour 100Go. Ce mois-ci, je paie donc 90 $ pour l’entrainement de ces LLM », commente-t-il. Et lui aussi pointe que « l’ironie est que les robots – y compris Meta ! – ignorent manifestement le fichier robots.txt du site qui leur dit de « s’il vous plait, restez à l’écart » ».

Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, a publié un billet de blog le 17 mars dernier demandant aux entreprises d’IA génératives d’ « arrêter d’externaliser [leur] coûts directement sur [lui] ». « Au lieu de travailler sur nos priorités à SourceHut, j’ai passé entre 20 et 100 % de mon temps à atténuer les crawlers LLM hyper-agressifs », s’y lamente-t-il. Il explique que Source Hut subit des « dizaines de brèves pannes par semaine » et qu’il doit chercher tous les jours de nouvelles solutions pour ne pas voir la situation empirer. Le même jour, son entreprise expliquait que des crawlers de LLM continuaient à provoquer un DDoS sur SourceHut.

Des solutions pour piéger les crawlers d’IA

Elle expliquait avoir décidé de déployer Anubis pour essayer de bloquer les bots des entreprises d’IA. « Ce logiciel présente à certains utilisateurs un défi de preuve de travail qui est résolu par le navigateur de l’utilisateur à l’aide de JavaScript », explique SourceHut. C’est en fait une solution qu’a développé Xe Iaso après avoir publié son raz-le-bol.

D’autres solutions commencent à être développées, notamment en essayant de piéger les IA dans un labyrinthe de liens. Nepenthes, par exemple. Sa documentation explique que le logiciel « fonctionne en générant des séquences infinies de pages, chacune contenant des dizaines de liens, qui retournent simplement dans un piège ». Nepenthes ajoute des petits détails comme un délai ou une fausse apparence de fichiers statiques pour tromper le crawler.

De son côté, Cloudflare a aussi pensé à une solution de labyrinthe, explique-t-elle dans un billet de blog. Celle-ci « utilise du contenu généré par l’IA pour ralentir, embrouiller et gaspiller les ressources des AI Crawlers et d’autres robots qui ne respectent pas les directives « no crawl » ». L’entreprise, connue pour vendre des solutions pour augmenter la sécurité et les performances des sites internet, propose pour le moment à tous ses utilisateurs la possibilité d’activer gratuitement cette fonctionnalité.

Schrodinger's Economics

Par : msmash
3 avril 2025 à 14:47
databasecowgirl writes: Commenting in The Times on the absurdity of Meta's copyright infringement claims, Caitlin Moran defines Schrodinger's economics: where a company is both [one of] the most valuable on the planet yet also too poor to pay for the materials it profits from. Ultimately "move fast and break things" means breaking other people's things. Or, possibly worse, going full 'The Talented Mr Ripley': slowly feeling so entitled to the things you are enamored of that you end up clubbing out the brains of your beloved in a boat.

Read more of this story at Slashdot.

❌
❌