Vue normale

Reçu — 17 avril 2026 Actualités numériques

Online Personalities and Comedians Overtake TV and Newspapers as Primary News Sources

Par : BeauHD
17 avril 2026 à 23:00
A new Ipsos poll finds Americans are increasingly getting news from online personalities and comedians instead of traditional TV or newspapers. The survey says nearly 70% get news online in a given week, versus 55% from TV and 25% from newspapers, with figures like Joe Rogan, Greg Gutfeld, Sean Hannity, and late-night hosts ranking prominently depending on political leanings. From the Hollywood Reporter: The poll, which was conducted in March, actually found the conservative politicians and cabinet members, including President Trump, were the top news influencers. When politicos were excluded, Joe Rogan led the list, followed by Fox News personalities Greg Gutfeld and Sean Hannity, and then TuckerCarlson and Ben Shapiro. The only three influencers to crack 10 percent were Trump, Rogan, and JD Vance. Among people who voted for Kamala Harris, the top news personalities were late night hosts, led by ABC's Jimmy Kimmel, followed by CBS Late Show host Stephen Colbert, and Daily Show host Jon Stewart. Just under 70 percent of respondents said they get their news online in a given week, compared to 55 percent for TV, and 25 percent for newspapers. [...] Of traditional media outlets, TV dominated, with Fox News, the broadcast networks, and CNN topping the list of sources. Facebook, YouTube and Instagram were the most popular online news sources. "On these platforms opinionated personalities and comedians appear to drown out anyone who would fit in the traditional journalist category," said assistant professor of practice and Jordan Center Executive Director Steven L Herman. "Even in the late 19th century and early 20th centuries, sensationalist and polarizing voices in print and later on air were among the most influential in the political landscape -- such as political satirist Mark Twain and populist Father Charles Coughlin."

Read more of this story at Slashdot.

NIST Limits CVE Enrichment After 263% Surge In Vulnerability Submissions

Par : BeauHD
17 avril 2026 à 22:00
NIST is narrowing how it handles CVEs in the National Vulnerability Database (NVD), saying it will only automatically enrich higher-priority vulnerabilities. "CVEs that do not meet those criteria will still be listed in the NVD but will not automatically be enriched by NIST," it said. "This change is driven by a surge in CVE submissions, which increased 263% between 2020 and 2025. We don't expect this trend to let up anytime soon." The Hacker News reports: The prioritization criteria outlined by NIST, which went into effect on April 15, 2026, are as follows: - CVEs appearing in the U.S. Cybersecurity and Infrastructure Security Agency's (CISA) Known Exploited Vulnerabilities (KEV) catalog. - CVEs for software used within the federal government. - CVEs for critical software as defined by Executive Order 14028: this includes software that's designed to run with elevated privilege or managed privileges, has privileged access to networking or computing resources, controls access to data or operational technology, and operates outside of normal trust boundaries with elevated access. Any CVE submission that doesn't meet these thresholds will be marked as "Not Scheduled." The idea, NIST said, is to focus on CVEs that have the maximum potential for widespread impact. "While CVEs that do not meet these criteria may have a significant impact on affected systems, they generally do not present the same level of systemic risk as those in the prioritized categories," it added. [...] Changes have also been instituted for various other aspects of the NVD operations. These include: - NIST will no longer routinely provide a separate severity score for a CVE where the CVE Numbering Authority has already provided a severity score. - A modified CVE will be reanalyzed only if it "materially impacts" the enrichment data. Users can request specific CVEs to be reanalyzed by sending an email to the same address listed above. - All unenriched CVEs currently in backlog with an NVD publish date earlier than March 1, 2026, will be moved into the "Not Scheduled" category. This does not apply to CVEs that are already in the KEV catalog. - NIST has updated the CVE status labels and descriptions, as well as the NVD Dashboard, to accurately reflect the status of all CVEs and other statistics in real time.

Read more of this story at Slashdot.

Gazing Into Sam Altman's Orb Could Solve Ticket Scalping

Par : BeauHD
17 avril 2026 à 21:00
An anonymous reader quotes a report from Wired: Sam Altman's iris-scanning, humanity-verifying World project announced at an event in San Francisco on Friday that Tinder users around the globe can now put a digital badge on their profiles signaling to potential suitors that they're a real human, provided they've already stared into one of World's glossy white Orbs and allowed their eyes to be scanned. The announcement follows a pilot project for Tinder verification that World previously conducted in Japan. [...] In addition to the Tinder global expansion, Tools for Humanity, the company behind World, announced a number of other consumer and enterprise partnerships on Friday at its Lift Off event in San Francisco. The startup says Tinder users who verify with their World ID will receive five free "boosts," typically a paid feature that increases the number of users who see a profile by up to 10 times for 30 minutes. The videoconferencing platform Zoom also says that users can now require other participants to verify their identity with World before joining a call. Docusign, the contract signing software, will allow users to require World's identity verification technology. Tiago Sada, Tools for Humanity's chief product officer, tells WIRED the company sees major platform partnerships as key to helping World become a mainstream identity-verification technology. Sada said he's especially interested in working with social media companies in the future, and was encouraged to see that Reddit has started testing World as a solution to help users distinguish bots from real people. [...] World is also launching a tool called Concert Kit, which lets artists reserve concert tickets for verified humans, a pitch aimed squarely at the bot-driven scalping problem that critics say has plagued sites like TicketMaster. World will test the feature on the upcoming Bruno Mars World Tour featuring Anderson .Paak, who is scheduled to play a verified-humans-only show under his alias DJ Pee .Wee in San Francisco on Friday night. "The idea that World ID is not just private, but it's one of the most private things you've ever used, that's not obvious," says Sada. "We're just not used to this kind of technology. Many people used to tape their [iPhone's sensor used to enable] Face ID when it came out, then we got used to it."

Read more of this story at Slashdot.

Mozilla 'Thunderbolt' Is an Open-Source AI Client Focused On Control and Self-Hosting

Par : BeauHD
17 avril 2026 à 20:00
BrianFagioli writes: Mozilla's email subsidiary MZLA Technologies just introduced Thunderbolt, an open-source AI client aimed at organizations that want to run AI on their own infrastructure instead of relying entirely on cloud services. The idea is to give companies full control over their data, models, and workflows while still offering things like chat, research tools, automation, and integration with enterprise systems through the Haystack AI framework. Native apps are planned for Windows, macOS, Linux, iOS, and Android. Thunderbolt allows organizations to do the following: - Run AI with their choice of models, from leading commercial providers to open-source and local models - Connect to systems and data: Integrate with pipelines and open protocols, including: deepset's Haystack platform, Model Context Protocol (MCP) servers, and agents with the Agent Client Protocol (ACP) - Automate workflows and recurring tasks: Generate daily briefings, monitor topics, compile reports, or trigger actions based on events and schedules - Work seamlessly across devices with native applications for Windows, macOS, Linux, iOS, and Android - Maintain security with self-hosted deployment, optional end-to-end encryption, and device-level access controls

Read more of this story at Slashdot.

Amazon's New Fire TV Sticks No Longer Support Sideloading

Par : BeauHD
17 avril 2026 à 19:00
Amazon's newest Fire TV Sticks are dropping support for normal sideloading, blocking apps from outside the Amazon Appstore unless the device is registered with developers. Cord Cutters News reports: This week, Amazon announced the upcoming launch of a new Fire TV Stick HD. The new model will run on Amazon's Vega OS, rather than Android, so most streaming apps will be supported, but users won't be add third party apps. Now, on the product page to preorder the new Fire Stick, some Amazon customers are getting a message warning them that the new model won't allow sideloading. Interestingly, not all customers are getting the message, whether signed in to an Amazon account or not. The message, shown in a screenshot below, says: "For enhanced security, this device prevents sideloading or installing apps from unknown sources. Only apps from the Amazon Appstore are available for download." [...] The Fire TV Stick Select, announced in September 2025, also runs on Vega and some customers will see the same message about sideloading on that product page. [...] While Amazon continues to be a "multi-OS company," we should expect that future Fire TV models will also be built with Vega OS, limiting the apps users can access with their streaming devices to those from the Amazon Appstore.

Read more of this story at Slashdot.

OpenAI Starts Offering a Biology-Tuned LLM

Par : BeauHD
17 avril 2026 à 18:00
An anonymous reader quotes a report from Ars Technica: On Thursday, OpenAI announced it had developed a large language model specifically trained on common biology workflows. Called GPT-Rosalind after Rosalind Franklin, the model appears to differ from most science-focused models from major tech companies, which have generally taken a more generic approach that works for various fields. In a press briefing, Yunyun Wang, OpenAI's Life Sciences Product Lead, said the system was designed to tackle two major roadblocks faced by current biology researchers. One is the massive datasets created by decades of genome sequencing and protein biochemistry, which can be too much for any one researcher to take in. The second is that biology has many highly specialized subfields, each with its own techniques and jargon. So, for example, a geneticist who finds themselves working on a gene that's active in brain cells might struggle to understand the immense neurobiological literature. Wang said the company had taken an LLM and trained it on 50 of the most common biological workflows, as well as on how to access the major public databases of biological information. Further training has resulted in a system that can suggest likely biological pathways and prioritize potential drug targets. "We're connecting genotype to phenotype through known pathways and regulatory mechanisms, infer likely structural or functional properties of proteins, and really leveraging this mechanistic understanding," Wang said. To address LLMs' tendencies toward sycophancy and overenthusiasm, OpenAI says it has tuned the model to be more skeptical, so it's more likely to tell you when something is a bad drug target. There was a lot of talk about GPT-Rosalind's "reasoning" and "expert-level" abilities. We were told that the former was defined as being able to work through complex, multi-step processes, while the latter was derived from the model's performance on a handful of benchmarks. Access to GPT-Rosalind is currently limited "due to concerns about the model's potential for harmful outputs if asked to do something like optimize a virus's infectivity," notes Ars. Only U.S.-based organizations can request access at the moment.

Read more of this story at Slashdot.

Un CCD à 36 cœurs Zen 7 et 252 Mo de Cache L3 à l'étude chez AMD, le tout en AM5 ?!

Il va falloir se garder de trop s'emballer, d'autant que la source de la rumeur du jour est le sulfureux Moore's Law Is Dead, mais selon ses sources, AMD serait en train de réfléchir à l'éventualité de faire de Grimlock Ridge un véritable feu d'artifice pour fêter la fin de vie de la plateforme AM5....

Microsoft Increases the FAT32 Limit From 32GB To 2TB

Par : BeauHD
17 avril 2026 à 17:00
Longtime Slashdot reader AmiMoJo writes: Windows has limited FAT32 partitions to a maximum of 32GB for decades now. When memory cards and USB drives exceeded 32GB in size, the only options were exFAT or NTFS. Neither option was well supported on other platforms at first, although exFAT support is fairly widespread now. In their latest blog post, Microsoft announced that the limit for FAT32 partitions is being increased to 2TB. Of course, that doesn't mean that every device that supports FAT32 will work flawlessly with a 2TB partition size, but at least there is a decent chance that older devices with don't support exFAT will now be usable with memory cards over 32GB.

Read more of this story at Slashdot.

Blackview MP20 : le retour des MiniPC Ryzen 3 3300U sur fond de crise

17 avril 2026 à 16:22

Le Blackview MP20 fait partie de cette galaxie de MiniPC construits pour tenter de boucher les fuites du chiffre d’affaires des petites marques. Face à une pénurie de composants qui les affecte énormément, avec des puces difficiles à obtenir tant au niveau de la mémoire vive que des processeurs, certaines marques vont de plus en plus profond dans les tiroirs.

Et ce n’est pas glorieux. Ce Blackview MP20 propose un processeur de 2019 dont les capacités de calcul sont inférieures à un Intel N150. Son circuit graphique est un peu meilleur mais pour une machine à vocation bureautique et multimédia, ce n’est pas franchement l’objectif de ce type de minimachine.

L’AMD Ryzen 3 3300U propose quatre cœurs Zen+ en monothread fonctionnant de 2.1 à 3.5 GHz. Son circuit graphique est un 6 coeurs VEGA à 1.2 GHz. Une puce  qui sera largement suffisante pour des usages simples et classiques de bureautique et de multimédia. Capable de lancer tout type de programme et même assez performante pour les usages classiques de bureautique, web et autres, elle est a priori largement adaptée à un usage complet de PC familial. 

Le seul problème de cette offre c’est son âge. Car en réalité la puce n’offrira pas grand-chose de plus qu’un simple Intel N150… Par contre elle consommera plus. Le TDP de base du 3300U est de 15 watts quand la puce d’Intel reste sur un TDP de base de 6 watts. Rien de surprenant, les deux solutions ne sont pas de la même génération.

Le MiniPC promet un fonctionnement « silencieux » allant de 25 à 35 dB. Son ventilateur pouvant se stabiliser en dessous des 38 dB en cas de tâches exigeantes. Le problème étant que pour ce type de puces, beaucoup de tâches deviennent « exigeantes » en 2026. Ce qui poussera sans doute la ventilation à flirter souvent avec les 3500 tours de sa vitesse de rotation maximale.

Cela fait du Blackview MP20 un MiniPC pas inintéressant au niveau de ses usages mais difficile à conseiller. À moins d’être réellement obligé d’investir et sans autre solution de substitution, cela reste un engin clairement en retrait. On rencontrait des minimachines de ce type jusqu’en 2022. Elles ont disparu très logiquement après la sortie des Alder Lake-N qui rendaient ce type de puce difficile à justifier.

Un Blackview MP20 qui accuse son âge jusque dans sa connectique

Associé à cette base on retrouve deux slots de mémoire vive SO-DIMM DDR4-2666 pouvant évoluer vers 32 Go au maximum. Le stockage est confié à un SSD non détaillé au format M.2 2280. Probablement un SATA3 qui pourra évoluer vers 2 To de capacité au maximum. Le réseau sans fil accuse également son âge avec un module Wi-Fi5 et Bluetooth 4.2.

La connectique est ultra classique. En face avant, on retrouve deux ports USB 3.0 Type-A et un jack audio combo 3.5 mm en plus du bouton de démarrage. À l’arrière, un Ethernet Gigabit, une sortie HDMI 2.0 et un DisplayPort 1.4 se partagent l’espace disponible avec deux ports USB 2.0 Type-A et le jack d’alimentation. À noter l’implantation du port Antivol type Kensington Lock pas très maline sous le port Ethernet Gigabit qui empêchera d’exploiter la prise réseau.

Livré avec 16 Go de DDR4 et 512 Go de stockage sur lequel on retrouvera un système Windows 11, ce Blackview MP20 est proposé à 258.11€ avec 20€ de réduction possible grâce au code SRFR20. Le stock est situé en France et la livraison sera donc rapide. Cela signe encore une fois l’arrivée de MiniPC partis à la pêche aux vieilles références techniques. Pas sûr que cela soit suffisant pour que toutes ces marques noname survivent pendant toute la durée de la crise.

Pour moins cher, je ne peux que vous conseiller de vous pencher sur un MiniPC type HP EliteDesk 800 G4 en refurb à 219€. Ce genre de configuration avec un Core i5-8500, 16 Go de DDR4 et 500 Go de stockage sous Windows 11. Une puce plus puissante, une garantie locale d’un an équivalent et que l’on peut porter àç 2 ans facilement et du matériel qui a fait ses preuves.

 Blackview MP20 : Ryzen 3 3300U – 16 Go / 512 Go – Windows 11
Mini-Score : E

Mini-Score : E

+ évolutions possibles de la mémoire et du stockage

– conception noname
– matériel ancien
– module sans fil dépassé
– connectique basique
– garantie 1 an
– SAV en Europe
– support en Chine
– audible en calculs lourds (38 Db)
– nécessite une réinstallation système
– boitier plastique
– boutique AliExpress récente (3 février 2026)

Blackview MP20 : le retour des MiniPC Ryzen 3 3300U sur fond de crise © MiniMachines.net. 2026

Newly Unsealed Records Reveal Amazon's Price-Fixing Tactics

Par : BeauHD
17 avril 2026 à 16:00
Newly unsealed records in California's antitrust case against Amazon allegedly show the company pressured third-party sellers to raise prices on rival sites like Walmart, Target, and Wayfair so Amazon could maintain the appearance of offering the lowest price. California says Amazon used tools like Buy Box suppression to punish cheaper listings elsewhere. The Guardian reports: [...] In one previously redacted deposition, marked "highly confidential," Mayer Handler, owner of a clothing company called Leveret, testified that he received an email in October 2022 from Amazon notifying him that one of his products was "no longer eligible to be a featured offer" through Amazon's Buy Box. The tech giant, he testified, had suppressed the item, a tiger-themed, toddler's pajama set, because his company was selling it for $19.99 on Amazon, a single cent higher than what his company was offering it for on Walmart. Afterwards, Handler testified, his company "changed pricing on Walmart to match or exceed Amazon's price" or changed the item's product code to try to throw off Amazon's price tracking system. In response to a question from the Guardian, Handler criticized Amazon for tracking prices across the internet and "shadow" blocking his company's products -- tactics which he said were depriving consumers of "lower prices." "Maybe that's capitalism," he wrote. "Or that's a monopoly causing price hikes on the consumer." In another unsealed deposition, Terry Esbenshade, a Pennsylvania garden store supplier, testified in October 2024 that whenever his products lost Amazon's Buy Box because of lower prices elsewhere on the internet, his sales on Amazon would plummet by about 80%. This financial reality forced him to try to raise his products' prices with other retailers elsewhere, he said. In one instance, Esbenshade testified, he discovered that one of his company's better-selling patio tables had "become suppressed" on Amazon. Esbenshade wasn't sure why, he recalled, until someone at Amazon suggested he look at Wayfair, another online retailer that happened to be selling his patio table below Amazon's price. The businessman went online and set up a new minimum advertised price for the table on Wayfair to ensure it was higher than Amazon's. "So that raised the price up, and, voila, my product came back" on Amazon, he said, thanks to the reinstatement of the Buy Box.

Read more of this story at Slashdot.

UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

17 avril 2026 à 15:05
Discrétion assistée par la loi
UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

En 2024, Microsoft et le lobby bruxellois de la tech DigitalEurope ont obtenu que les données de consommation des datacenters de plus de 500 kW récoltées par la Commission européenne ne soient pas rendues publiques. Le consortium Investigate Europe montre que les amendements au texte européen réglementant ces informations sont des reprises quasiment mot pour mot des propositions qu’ils ont faites.

Il y a trois ans, en 2023, l’Union européenne a voulu réviser sa législation sur l’efficacité énergétique et introduire une obligation d’information sur la consommation des data centers qui dépassent les 500 kW de puissance. Mais Microsoft et le lobby bruxellois de la tech DigitalEurope ont réussi à faire intégrer à la Commission des amendements quasiment copiés/collés interdisant toute publication de ces données par l’Europe et ses États membres, a découvert le consortium journalistique Investigate Europe.

Les données sur la consommation des data centers font l’objet d’intenses débats sur leur impact environnemental. Dans leurs rapports environnementaux maison, les grandes entreprises de la tech font leurs arrangements (plus ou moins importants), rendant impossible leur interprétation. Les projets de création de data centers font de plus en plus face à des résistances, mais il est difficile d’objectiver le débat avec le peu d’informations sur la réalité du terrain de ces installations.

Dans ce sens, la volonté exprimée par une première version du texte de révision aurait pu grandement aider l’information du public sur le sujet. En effet, le texte prévoyait un inventaire des informations sur les data centers de plus de 500 kW situés en Europe comportant au moins leur localisation et des indicateurs de performance sur la consommation d’énergie, la valorisation de la chaleur résiduelle, la consommation d’eau et l’utilisation d’énergies renouvelables. Et, selon cette première version, la Commission devait rendre publique cette base de données sous forme agrégée.

Ensuite, comme le prévoit le processus, la Commission a recueilli les commentaires des parties concernées et notamment des différents lobbys. Ainsi, Microsoft [PDF] et le lobby DigitalEurope (dont les membres sont par exemple Meta, CapGemini, Microsoft, NVIDIA ou encore Google) [PDF] ont tous deux proposé un amendement pour classifier les informations concernant les data centers.

Des propositions d’amendements adoptées mot pour mot

Et, dans l’article 5 du texte final, ces amendements ont été adoptés quasiment mot pour mot. Ainsi, le texte prévoit, comme le demandaient Microsoft et DigitalEurope, que « les informations relatives aux centres de données, qui sont soumises au droit de l’Union et au droit national en matière de protection des secrets d’affaires et de confidentialité, ne doivent pas être rendues publiques. L’article 12, paragraphe 3, exige en outre que la base de données européenne soit accessible au public sous forme agrégée. Il est donc nécessaire de veiller à ce que les indicateurs clés de performance et les autres informations communiquées à la base de données européenne restent confidentiels ».

A aussi été ajouté que « la Commission et les États membres concernés préservent la confidentialité de toutes les informations et de tous les indicateurs clés de performance relatifs aux centres de données individuels qui sont communiqués à la base de données conformément à l’article 3. Ces informations sont considérées comme des informations confidentielles touchant aux intérêts commerciaux des exploitants et des propriétaires de centres de données », comme le demandaient les entreprises de la tech mot pour mot ou presque.

Nos confrères expliquent que les États membres de l’Union européenne ont aussi été vivement encouragés par la Commission à refuser toute demande d’accès à ces informations dans un email envoyé début 2025 [PDF].

Selon le chercheur en droit de l’environnement de l’université d’Opole, Jerzy Jendrośka, consulté par Investigate Europe, cette clause de confidentialité pourrait violer les règles de transparence édictées par la Convention d’Aarhus. « En vingt ans, je ne me souviens pas d’un cas similaire », explique-t-il, « Cela ne semble manifestement pas conforme à la convention ».

UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

17 avril 2026 à 15:05
Discrétion assistée par la loi
UE : la Commission a copié/collé les lobbys pour cacher les données sur les datacenters

En 2024, Microsoft et le lobby bruxellois de la tech DigitalEurope ont obtenu que les données de consommation des datacenters de plus de 500 kW récoltées par la Commission européenne ne soient pas rendues publiques. Le consortium Investigate Europe montre que les amendements au texte européen réglementant ces informations sont des reprises quasiment mot pour mot des propositions qu’ils ont faites.

Il y a trois ans, en 2023, l’Union européenne a voulu réviser sa législation sur l’efficacité énergétique et introduire une obligation d’information sur la consommation des data centers qui dépassent les 500 kW de puissance. Mais Microsoft et le lobby bruxellois de la tech DigitalEurope ont réussi à faire intégrer à la Commission des amendements quasiment copiés/collés interdisant toute publication de ces données par l’Europe et ses États membres, a découvert le consortium journalistique Investigate Europe.

Les données sur la consommation des data centers font l’objet d’intenses débats sur leur impact environnemental. Dans leurs rapports environnementaux maison, les grandes entreprises de la tech font leurs arrangements (plus ou moins importants), rendant impossible leur interprétation. Les projets de création de data centers font de plus en plus face à des résistances, mais il est difficile d’objectiver le débat avec le peu d’informations sur la réalité du terrain de ces installations.

Dans ce sens, la volonté exprimée par une première version du texte de révision aurait pu grandement aider l’information du public sur le sujet. En effet, le texte prévoyait un inventaire des informations sur les data centers de plus de 500 kW situés en Europe comportant au moins leur localisation et des indicateurs de performance sur la consommation d’énergie, la valorisation de la chaleur résiduelle, la consommation d’eau et l’utilisation d’énergies renouvelables. Et, selon cette première version, la Commission devait rendre publique cette base de données sous forme agrégée.

Ensuite, comme le prévoit le processus, la Commission a recueilli les commentaires des parties concernées et notamment des différents lobbys. Ainsi, Microsoft [PDF] et le lobby DigitalEurope (dont les membres sont par exemple Meta, CapGemini, Microsoft, NVIDIA ou encore Google) [PDF] ont tous deux proposé un amendement pour classifier les informations concernant les data centers.

Des propositions d’amendements adoptées mot pour mot

Et, dans l’article 5 du texte final, ces amendements ont été adoptés quasiment mot pour mot. Ainsi, le texte prévoit, comme le demandaient Microsoft et DigitalEurope, que « les informations relatives aux centres de données, qui sont soumises au droit de l’Union et au droit national en matière de protection des secrets d’affaires et de confidentialité, ne doivent pas être rendues publiques. L’article 12, paragraphe 3, exige en outre que la base de données européenne soit accessible au public sous forme agrégée. Il est donc nécessaire de veiller à ce que les indicateurs clés de performance et les autres informations communiquées à la base de données européenne restent confidentiels ».

A aussi été ajouté que « la Commission et les États membres concernés préservent la confidentialité de toutes les informations et de tous les indicateurs clés de performance relatifs aux centres de données individuels qui sont communiqués à la base de données conformément à l’article 3. Ces informations sont considérées comme des informations confidentielles touchant aux intérêts commerciaux des exploitants et des propriétaires de centres de données », comme le demandaient les entreprises de la tech mot pour mot ou presque.

Nos confrères expliquent que les États membres de l’Union européenne ont aussi été vivement encouragés par la Commission à refuser toute demande d’accès à ces informations dans un email envoyé début 2025 [PDF].

Selon le chercheur en droit de l’environnement de l’université d’Opole, Jerzy Jendrośka, consulté par Investigate Europe, cette clause de confidentialité pourrait violer les règles de transparence édictées par la Convention d’Aarhus. « En vingt ans, je ne me souviens pas d’un cas similaire », explique-t-il, « Cela ne semble manifestement pas conforme à la convention ».

Faute de RTX 5050 9 Go, la RTX 3060 12 Go pressentie pour reprendre du service

Début mars, MEGAsizeGPU pronostiquait une GeForce RTX 5050 dotée de 9 Go de GDDR7. Dans le même temps, Board Channels entrevoyait le retour d’une ancienne légende, la GeForce RTX 3060 — pas vraiment un phénix puisqu’elle est toujours la carte la plus populaire sur Steam selon la dernière enquête matérielle — pour la fin mars... [Tout lire]

US To Create High-Tech Manufacturing Zone In Philippines

Par : BeauHD
17 avril 2026 à 15:00
An anonymous reader quotes a report from the Wall Street Journal: An agreement with the Philippines to establish a high-tech industrial hub is the Trump administration's latest effort to lessen China's dominance over global supply chains. The deal to build up American manufacturing across a stretch of the island of Luzon, signed Thursday, will offer U.S. companies access to essential inputs such as critical minerals that bypass Beijing's control. The artificial-intelligence-powered manufacturing hub is planned for a 4,000-acre site given to the U.S. by Manila, said undersecretary of State for Economic Affairs Jacob Helberg. The U.S. will occupy the site rent-free and administer it as a special economic zone. The hub will have diplomatic immunity, such as the protections afforded to an American embassy, and operate under U.S. common law -- the first arrangement of its kind anywhere in the world. The two-year lease is renewable for 99 years. [...] "You can't build anything in Ohio if the minerals and the process materials are controlled by an adversary who can cut you off tomorrow," Helberg said in an interview. [...] The planned manufacturing hub is largely conceptual at this stage, and details, including which American companies will participate and just what they will build in the Philippines, are yet to be determined. [...] The administration will ask companies to put forward proposals to compete for a spot in building out the hub, giving priority to bids that will help move critical minerals processing and manufacturing off Chinese suppliers. Investment will have to come from private-sector companies -- not the U.S. government. Factories approved for operation in the hub will be highly automated, Helberg said, using autonomous systems to operate around the clock. The Philippines has a history of robust manufacturing, particularly in semiconductors, but that has stagnated in recent decades because of high energy and logistics costs. Companies will have to address in their proposals how they will contend with energy costs and workforce needs; they can send American workers overseas or hire locally, Helberg said.

Read more of this story at Slashdot.

NUVACORE, la prochaine start-up prête à (encore) redéfinir le monde du CPU ?

Souvenez-vous : en 2019, des ingénieurs d’Apple, ARM, Google, Broadcom et AMD se rassemblaient dans une start-up nommée NuVia. Leur but était simple : redéfinir les fondations d’un processeur généraliste (un CPU, quoi) initialement destiné aux serveurs et utilisant le jeu d’instruction Arm. Depuis l...

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

[Bon plan] ASUS Radeon RX 9070 XT Prime OC + Crimson Desert à 669,99 € livrée !

Dans une semaine maintenant, AMD cessera d'offrir Crimson Desert avec ses cartes Radeon RX 9070 (XT). Si le jeu vous intéresse ainsi que l'idée d'amortir un peu l'achat de votre Radeon RX 9070 XT grâce à cette offre, il ne faut plus trop tarder à vous décider et voici une (dernière ?) bonne occasion...

❌