Vue lecture

Apple Blocks US Users From Downloading ByteDance's Chinese Apps

An anonymous reader quotes a report from Wired: While TikTok operates in the United States under new ownership, Apple has deployed technical restrictions to block iOS users in the United States from downloading other apps made by the video platform's Chinese parent organization ByteDance. ByteDance owns a vast array of different apps spanning social media, entertainment, artificial intelligence, and other sectors. The leading one is Douyin, the Chinese version of TikTok, which has over 1 billion monthly active users. While most of those users reside in China, iPhone owners around the world have traditionally been able to download these apps from anywhere without using a VPN, as long as they have a valid App Store account registered in China. That's not true anymore. Starting in late January, iPhone users in the U.S. with Chinese App Store accounts began reporting that they were encountering new obstacles when they tried to download apps developed by ByteDance. WIRED has confirmed that even with a valid Chinese App Store account, downloading or updating a ByteDance-owned Chinese app is blocked on Apple devices located in the United States. Instead, a pop-up window appears that says, "This app is unavailable in the country or region you're in." The restriction appears to apply only to ByteDance-owned apps and not those developed by other Chinese companies. The timing and technical specifics suggest the restriction is related to the deal TikTok agreed to in January to divest Chinese ownership of its U.S. operations. The agreement was the result of the so-called TikTok ban law passed by Congress in 2024, which also barred companies like Apple and Google from distributing other apps majority-owned by ByteDance. The Protecting Americans from Foreign Adversary Controlled Applications Act states that no company can "distribute, maintain, or update" any app majority-controlled by ByteDance "within the land or maritime borders of the United States." The law was primarily aimed at TikTok, which has more than 100 million users in the U.S. and had been the subject of years of debate in Washington over whether its Chinese ownership posed a national security risk. But ByteDance also has dozens of other apps that at some point were also removed from Apple's and Google's app stores in the U.S.. Now it seems like the scope of impact has reached even more apps that are not technically designed for U.S. audiences, such as Douyin, the AI chatbot Doubao, and the fiction reading platform Fanqie Novel.

Read more of this story at Slashdot.

  •  

System76 Comments On Recent Age Verification Laws

In a blog post on Thursday, System76 CEO Carl Richell criticized new state laws in California, Colorado, and New York that would require operating systems to verify users' ages and expose that information to apps, arguing the rules are easy for kids to bypass and ultimately undermine privacy and freedom more than they protect minors. "System76's position is interesting given that they sell Linux-loaded desktops, workstations and laptops plus being an operating system vendor with their in-house Pop!_OS distribution and COSMIC desktop environment," adds Phoronix's Michael Larabel, noting that they're also based out of Colorado. Here's an excerpt from the post: "A parent that creates a non-admin account on a computer, sets the age for a child account they create, and hands the computer over is in no different state. The child can install a virtual machine, create an account on the virtual machine and set the age to 18 or over. It's a similar technique to installing a VPN to get around the Great Firewall of China (just consider that for a moment). Or the child can simply re-install the OS and not tell their parents. ... In the case of Colorado's and California's bills, effectiveness is lost. In the case of New York's bill, liberty is lost. In the case of centralized platforms, potential is lost. ... The challenges we face are neither technical nor legal. The only solution is to educate our children about life with digital abundance. Throwing them into the deep end when they're 16 or 18 is too late. It's a wonderful and weird world. Yes, there are dark corners. There always will be. We have to teach our children what to do when they encounter them and we have to trust them." "We are accustomed to adding operating system features to comply with laws," writes Richell, in closing. "Accessibility features for ADA, and power efficiency settings for Energy Star regulations are two examples. We are a part of this world and we believe in the rule of law. We still hope these laws will be recognized for the folly they are and removed from the books or found unconstitutional."

Read more of this story at Slashdot.

  •  

Les Antec 900 de 2006 et 2026 testés en même temps : nouveauté et nostalgie, du deux en un !

Le 19 février, nous vous présentions sur H&Co le boitier Antec 900 (2026). Le dernier-né de la firme est évidemment un clin d'œil au célèbre "Nine Hundred" qui avait lui été lancé en 2006, il y a donc 20 ans, déjà.La philosophie entre les deux boitiers a beaucoup changé, mais qu'à cela tienne :...

  •  

Mozilla Is Working On a Big Firefox Redesign

darwinmac writes: Mozilla is working on a huge redesign for its Firefox browser, codenamed "Nova," which will bring pastel gradients, a refreshed new tab page, floating "island" UI elements, and more. "From the mockups, it appears Mozilla took some inspiration from Googles Material You (or at least, the dynamic color extraction part of it) because the browser color accent appears influenced by the wallpaper setting," reports Neowin. "Choosing a mint-green desktop background automatically shifts the top navigation bars to match that exact shade." Mozilla has a habit of redesigning Firefox every few years. Before "Nova," there was the "Proton" redesign in 2021, the "Photon" redesign in 2017, and the "Australis" redesign in 2014. Nova is still in early development, so it might take a year or two before it appears in an official stable Firefox release. Neowin adds: "Not every redesign project ends well for Mozilla, though. You might remember 2012's Firefox Metro, an ambitious attempt to build a custom browser for Windows 8s touch-first interface. The team built it to operate both as a traditional desktop application and as a touch-optimized Metro app. The whole thing was scrapped in 2014 after two years in development due to a dismally low user adoption rate (a preview version of the software had been released a year earlier on the Aurora channel)."

Read more of this story at Slashdot.

  •  

Iran War Provides a Large-Scale Test For AI-Assisted Warfare

An anonymous reader quotes a report from Bloomberg, written by Katrina Manson: The U.S. strikes on Iran ordered by President Donald Trump mark the arrival on a large scale of a new era of warfare assisted by artificial intelligence. Captain Timothy Hawkins, a Central Command spokesperson, told me last night that the AI tools the U.S. military is using in Iran operations don't make targeting decisions and don't replace humans. But they do help "make smarter decisions faster." That's been the driving ambition of the U.S. military, which has spent years looking at how to develop and deploy AI to the battlefield [...]. Critics, such as Stop Killer Robots, a coalition of 270 human-rights groups, argue that AI-enabled decision-support systems reduce the separation between recommending and executing a strike to a "dangerously thin" line. Hawkins said the military's use of AI assistance follows a rigorous process aligned with U.S. policy, military doctrine and the law. Artificial intelligence helps analysts whittle down what they need to focus on, generating so-called points of interest and helping personnel make "smart" decisions in the Iran operations, he told me. AI is also helping to pull data within systems and organize information to provide clarity. Among the AI tech used in the Iran campaign is Maven Smart System, a digital mission control platform produced by Palantir [...]. That emerged from Project Maven, a project started in 2017 by the Pentagon to develop AI for the battlefield. Among the large language models installed on the system is Anthropic's Claude AI tool, according to the people, who said it has become central to U.S. operations against Iran and to accelerating Maven's development. Claude is also at the center of a row that pits Anthropic against the Department of Defense over limits on the software. Further reading: Hacked Tehran Traffic Cameras Fed Israeli Intelligence Before Strike On Khamenei

Read more of this story at Slashdot.

  •  

AMD perd du terrain sur le marché mondial des cartes graphiques desktop, mais progresse sur les GPU intégrés

Le cabinet d'études Jon Peddie Research vient de livrer le bilan de ses analyses de parts de marché pour le milieu des GPU grand public lors du quatrième trimestre 2025. Comme nous l'avions fait pour les chiffres du troisième trimestre, nous allons commencer par observer le marché uniquement des car...

  •  

Python 'Chardet' Package Replaced With LLM-Generated Clone, Re-Licensed

Ancient Slashdot reader ewhac writes: The maintainers of the Python package `chardet`, which attempts to automatically detect the character encoding of a string, announced the release of version 7 this week, claiming a speedup factor of 43x over version 6. In the release notes, the maintainers claim that version 7 is, "a ground-up, MIT-licensed rewrite of chardet." Problem: The putative "ground-up rewrite" is actually the result of running the existing copyrighted codebase and test suite through the Claude LLM. In so doing, the maintainers claim that v7 now represents a unique work of authorship, and therefore may be offered under a new license. Version 6 and earlier was licensed under the GNU Lesser General Public License (LGPL). Version 7 claims to be available under the MIT license. The maintainers appear to be claiming that, under the Oracle v. Google decision, which found that cloning public APIs is fair use, their v7 is a fair use re-implementation of the `chardet` public API. However, there is no evidence to suggest their re-write was under "clean room" conditions, which traditionally has shielded cloners from infringement suits. Further, the copyrightability of LLM output has yet to be settled. Recent court decisions seem to favor the view that LLM output is not copyrightable, as the output is not primarily the result of human creative expression -- the endeavor copyright is intended to protect. Spirited discussion has ensued in issue #327 on `chardet`s GitHub repo, raising the question: Can copyrighted source code be laundered through an LLM and come out the other end as a fresh work of authorship, eligible for a new copyright, copyright holder, and license terms? If this is found to be so, it would allow malicious interests to completely strip-mine the Open Source commons, and then sell it back to the users without the community seeing a single dime.

Read more of this story at Slashdot.

  •  

Proton Mail Helped FBI Unmask Anonymous 'Stop Cop City' Protester

Longtime Slashdot reader AmiMoJo shares a report from 404 Media: Privacy-focused email provider Proton Mail provided Swiss authorities with payment data that the FBI then used to determine who was allegedly behind an anonymous account affiliated with the Stop Cop City movement in Atlanta, according to a court record reviewed by 404 Media. The records provide insight into the sort of data that Proton Mail, which prides itself both on its end-to-end encryption and that it is only governed by Swiss privacy law, can and does provide to third parties. In this case, the Proton Mail account was affiliated with the Defend the Atlanta Forest (DTAF) group and Stop Cop City movement in Atlanta, which authorities were investigating for their connection to arson, vandalism and doxing. Broadly, members were protesting the building of a large police training center next to the Intrenchment Creek Park in Atlanta, and actions also included camping in the forest and lawsuits. Charges against more than 60 people have since been dropped.

Read more of this story at Slashdot.

  •  

Icy Dock ressort la caméra pour présenter ses produits en vidéo

Pour terminer la semaine, quoi de mieux que quelques vidéos ? Une parenthèse audiovisuelle qui vous rappellera votre jeunesse, ces moments d’école où l’instituteur sortait le téléviseur et lançait une cassette pour conclure la journée. Cela marquait la fin de la logorrhée et offrait l’occasion idéale de roupiller et de récupérer avant la libération de la sonnerie... [Tout lire]
  •  

En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

C'est du chimique !
En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

Les méthodes d’IA ont passé les portes des laboratoires depuis quelques années. Mais, concrètement, à quoi sert-elle quand les chimistes l’utilisent ? Next a voulu en savoir plus et a interrogé le chimiste théorique François-Xavier Coudert.

Le machine learning ou le deep learning pour analyser des images, des vidéos, des textes ou des sons, on commence à connaître. Mais à quoi peuvent bien servir les techniques d’IA dans un laboratoire de chimie ? Qu’est-ce qu’un chimiste théorique peut bien faire d’un réseau de neurones ?

Next a discuté avec François-Xavier Coudert, chercheur au CNRS qui a travaillé, par exemple, sur l’utilisation de l’IA pour trouver de nouveaux réseaux métallo-organiques, ces matériaux poreux dont la découverte a valu aux chimistes Susumu Kitagawa, Richard Robson et Omar M. Yaghi le prix Nobel en 2025.

>> Quelle est le but de s’appuyer sur l’IA quand on fait des recherches en chimie ?

Une des idées est de trouver de meilleures molécules ou de meilleurs matériaux pour des applications choisies. Typiquement, on peut vouloir séparer le CO₂ des autres gaz en sortie de cheminée d’usines. On va aller creuser dans les matériaux connus qui n’ont jamais été testés pour cette application-là.

Jusqu’ici, les gens qui développaient des matériaux avaient une application en tête. Si ça marche, ils le publient et expliquent que ce matériau fait ce qu’ils veulent super bien, sinon, ils le mettent dans un tiroir et font un autre essai. L’idée, c’est que, dans les matériaux qui ont telle propriété pour laquelle ils sont connus, il y en a peut-être qui pourraient être très bien pour d’autres applications. Et ainsi d’aller chercher des matériaux connus mais qui n’auraient pas été complètement exploités. Mais comment le savoir ? On est face à des milliers de matériaux et de molécules. C’est aussi un peu l’idée du « repurposing » (réutilisation) des médicaments : si je trouve une molécule connue mais qu’elle a un autre effet, c’est toujours plus facile à déployer que de réinventer depuis rien une nouvelle molécule.

Aller au-delà de l’« intuition chimique »

>> Les techniques d’IA permettent de modéliser, sélectionner, générer plein de choses, dans quels buts les chimistes utilisent l’IA actuellement ?

Il y a beaucoup de champs scientifiques qui utilisent l’IA parce qu’ils ont de larges volumes de données qui étaient jusque-là inexploitées, c’est le paradigme du big data. En chimie, il y a la même motivation : à force, les laboratoires académiques comme ceux de R&D ont accumulé des données et ils veulent les valoriser.

La différence, c’est que nous sommes très loin du régime du big data parce qu’on n’est pas Facebook ou Microsoft et que nous n’avons pas des millions d’expériences et que les données coûtent très cher à produire : faire une nouvelle manip’, tester un nouveau matériau ou une nouvelle molécule, c’est compliqué. Quand on va dans un laboratoire et qu’on leur demande combien de manip’ ont été faites sur les matériaux sur lesquels ils travaillent, en général, on est plutôt sur quelques centaines. Et le millier, c’est déjà énorme.

L’idée est de pouvoir optimiser la manière de faire de la recherche en s’appuyant sur les expériences, au-delà de l’« intuition chimique » : quand l’humain analyse ses résultats et se dit « ça, ça va bien marcher, ça non ». Sûrement qu’il y a des tendances qu’on rate, des facteurs qu’on ne voit pas et on a envie de les exploiter.

Le problème aussi est que ces données sont souvent très hétérogènes parce que les manip’ ne sont pas toujours faites de la même façon, pas décrites pareil : parfois, ça reste dans un cahier de labo, d’autres fois, c’est publié mais ça peut être dans des PDF pour les vieilles manipulations.

Il y a quelques exemples très précis où les chimistes se sont motivés en tant que communauté depuis les années 60 pour standardiser leurs données, et ces domaines sont ceux où l’IA est plus facile à appliquer, mais c’est très limité. En biochimie, ce sont les protéines avec la base de données PDB et on a la même chose avec les structures cristallines. Les quantités de données sur ces sujets sont importantes mais très ciblées. Ces communautés se sont organisées pour appliquer leurs standards en imposant que, pour publier une nouvelle protéine, il faille que sa structure soit déposée [dans le sens publiée, ndlr], de même pour les cristaux.

Pour le reste, on voit de plus en plus de monde faire des analyses statistiques relativement simples et présenter ça comme de la data science ou de l’IA. Effectivement, même avec peu de données, il y a des analyses à faire.

Mais on met aussi en place des stratégies pour acquérir plus de données. Par exemple, de la synthèse robotisée pour avoir accès à de plus grands volumes de données parce qu’un robot peut nous faire 64 manips d’un coup avec des conditions différentes, mais toutes en parallèle, et les caractériser. On peut récupérer toutes les données brutes au cours de la synthèse alors que ce n’est pas le cas si on prend les données des expériences déjà publiées qui ne sont jamais exhaustives.

Depuis quelques années, nous voulons aussi nous attaquer à un autre problème : il y a un biais dans nos données. Nous n’avons dans la littérature scientifique que des publications positives. On manque de données négatives : les chercheurs n’ont publié que des informations sur des matériaux qui étaient intéressants pour eux et qui fonctionnaient bien. Mais que tel matériau est nul pour telle application ou que telle structure, quand on essaye de la synthétiser, ça ne donne pas de beaux cristaux ; cette information-là, on ne la trouve jamais dans les publications ou les bases de données qui leur sont liées. Quelqu’un a peut-être écrit dans un cahier de laboratoire « c’est marron et c’est tout moche » et s’est arrêté sans partager l’information. Et, on n’apprend pas sans erreur, comme on dit aux enfants. Ce manque de données négatives est une vraie limitation pour ce qu’on veut faire. La synthèse robotisée permet aussi d’enregistrer ce qui ne marche pas.

« l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons »

>> Concernant les méthodes d’IA utilisées, quelles sont celles vers lesquelles se dirigent les chimistes ?

L’IA générative n’est pas une des grosses directions, même s’il y a des chercheurs qui essayent de créer de nouveaux matériaux, de nouvelles molécules, mais ce n’est pas la direction majeure. C’est souvent celle qui capture le plus les esprits parce que les gens disent « on a créé un nouveau matériau ».

Une autre direction qui est peu visible, c’est que l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons. On a plus de facilités à mettre des modèles complexes dans nos outils pour faire de la reconnaissance de spectre, de l’analyse d’espèces, mais aussi, en chimie théorique sur laquelle je travaille, pour des méthodes de calcul. Avant, on calculait les propriétés des matériaux et des molécules avec des méthodes basées sur la physique comme les équations de Schrödinger, de Newton. On simulait le comportement des atomes dans les molécules, des molécules dans les matériaux, etc.

Aujourd’hui, les méthodes d’IA accélèrent ce travail en nous donnant des modèles plus précis. Pour certains systèmes, une fois qu’on a résolu 10 000 fois l’équation de Schrödinger pour telle classe de matériaux, on entraîne un réseau neuronal et il n’y a plus besoin de résoudre l’équation de Schrödinger car on a vu suffisamment de configurations possibles de ces matériaux pour savoir prédire ce qu’ils vont donner.

Cette amélioration de nos outils est très technique mais elle a vraiment un impact très fort dans la communauté de la chimie. C’est un nouvel outil de chimie théorique pour prédire les comportements des molécules et des matériaux. Aujourd’hui, la majorité des personnes utilisent ces outils-là.

>> Concrètement, ça se présente comment ?

En chimie théorique, on avait déjà des logiciels qui permettaient, par exemple, de regarder une molécule et de calculer son spectre UV visible. Mais, aujourd’hui, on a des plugins intégrés qui y intègrent des outils d’IA qui peuvent permettre de gagner du temps : pour certains types de calculs, on gagne un facteur 10, un facteur 50 ou même un facteur 100. On est donc capables de faire des calculs sur des systèmes plus grands, plus complexes et plus longs que ce qu’on faisait il y a cinq à dix ans.

L’idée, c’est donc de mettre des réseaux neuronaux à l’intérieur de nos logiciels pour accélérer la résolution de nos équations physiques. Ça existait déjà à l’époque mais la précision n’était pas de très haute et c’était un outil de niche avec quelques personnes qui travaillaient avec. Le fait d’avoir accès facilement à toute l’infrastructure, les GPU, les bibliothèques logicielles, avec le petit bout de code pour que le réseau neuronal fasse pile ce qu’on a envie, c’est devenu incroyablement pratique. Et par exemple des logiciels de dynamique moléculaire comme LAMMPS intègrent ce genre d’outils.

>> Ces logiciels sont développés par qui ?

Il existe sans doute quelques logiciels commerciaux mais, comme c’est un développement assez rapide, la plupart des personnes utilisent des logiciels open source académiques développés par des collègues universitaires, au MIT, à l’université de Pennsylvanie, par exemple, et maintenus par une communauté.

Les calculateurs du GENCI, un point fort pour les chercheurs français

>> Faut-il les déployer sur un serveur ou sont-ils utilisables sur des ordinateurs de bureau ?

Sur des ordinateurs de bureau, on peut faire des petits tests sur une molécule, un matériau d’une centaine d’atomes. Si on veut étudier de vrais problèmes, il faut des serveurs et de plus en plus de la puissance de calcul en GPU, puisque c’est sur ces plateformes-là que les réseaux neuronaux ont été les plus optimisés.

Après, chacun fait comme il veut. Nous avons un serveur au laboratoire mais on utilise surtout des machines nationales. En France, on a cette chance d’avoir, grâce au CNRS et aux autres organismes comme le CEA, le GENCI qui nous donne accès à de la puissance de calcul sur trois grands calculateurs nationaux souverains, hébergés en propre. C’est vraiment un point fort pour nous. Comme quand on candidate pour les synchrotrons ou autres grandes infrastructures, il suffit de déposer tous les six mois en justifiant avec un dossier comportant les recherches effectuées et les nouveaux projets et c’est expertisé par le comité du GENCI qui alloue un nombre d’heures de machine.

>> Comment on fait pour créer un modèle adapté à la chimie ?

On part d’un jeu de données, par exemple une liste des stabilités mécaniques (sont-ils plus ou moins durs, plus ou moins résistants) de 15 000 matériaux avec leurs structures, et on veut faire un modèle capable de prédire cette stabilité mécanique pour d’autres matériaux. Ce qui est difficile, c’est qu’il faut représenter la structure des matériaux. Le réseau neuronal prend en entrée un jeu de nombres, il faut donc trouver une représentation sous forme de série de nombres qui représente bien la géométrie du matériau [c’est la même problématique pour tous les domaines, ndlr].

On transforme donc ces structures de matériaux en série de données et on les donne à un réseau de neurones pour lequel on optimise les poids sur les neurones pour qu’à la fin, le modèle ait appris à sortir avec une bonne précision la stabilité mécanique d’un matériau quand on lui donne sa structure. Une fois qu’on a ce modèle, on peut lui donner un matériau pour qu’il nous prédise sa stabilité mécanique.

Pour choisir le modèle, il faut une adéquation entre la complexité du réseau neuronal (nombre de neurones, façon dont ils sont connectés entre eux) et le nombre de données qu’on a et leur complexité. Ça sert à rien d’utiliser un modèle trop complexe sur un tout petit jeu de données, mais si le modèle est trop simple et qu’il n’y a pas assez de neurones, il va être de mauvaise qualité. Là est donc tout l’enjeu : savoir quel est le bon type de modèles, combien de neurones, quelle forme, quelle connectivité et comment on représente les données pour les faire ingérer à ce réseau de neurones. Tout le boulot est là.

>> Pour l’instant, après utilisation de l’IA, dans la vraie vie chimique, est-ce que ça améliore le travail ? Ne croulez-vous pas devant une liste de matériaux candidats qui sont ensuite difficiles à départager ?

Aujourd’hui, pas vraiment. Ça propose des pistes mais on n’a pas d’exemple « magique » comme les biologistes avec Alphafold. En chimie et en sciences des matériaux, on n’a pas encore sorti le truc où on peut dire : « ça, ça a été fait grâce à l’IA et on n’aurait pas pu le faire autrement, etc ». L’IA accélère certaines pratiques mais ce n’est pas applicable à tous les laboratoires ni à toutes les propriétés. Il y a des choses vraiment difficiles et pour lesquelles, on a beau utiliser l’IA, on ne voit rien en ressortir, sans facteur clair. Ce n’est pas une chose magique qui résout tous nos problèmes, loin de là. Ça accélère la recherche sur des domaines bien spécifiques.

Je ne suis pas trop inquiet sur le côté : ça fournit trop de pistes et ça noie la recherche. Je pense que le principal problème est que certains essayent de mettre de l’IA là où elle n’apporte rien et c’est là où on perd du temps.

« Un outil de plus dans la très grande boite à outils du chimiste »

>> Qu’est-ce qui ne fonctionne pas avec l’IA en chimie ?

Une des grandes questions aujourd’hui est de savoir ce qui fait qu’une molécule est synthétisable ou pas. C’est un grand problème ouvert sur lequel l’IA n’est pas vraiment « douée » et où, je crois, l’intuition chimique fait mieux. Si je montre deux molécules ou deux matériaux à un chimiste expérimentateur, il va pouvoir me dire : « Celle-là, je peux essayer de te la faire dans le bécher, mais celle-ci, c’est mort, jamais on l’aura ». Cette idée de la faisabilité expérimentale reste une question ouverte et c’est la même chose pour les matériaux. Comment un modèle peut me permettre de sélectionner parmi 140 super matériaux les 10 que je vais vraiment synthétiser et qui auront une chance d’être utilisables ? La question de la faisabilité expérimentale, ce qui fait qu’on arrive à synthétiser telle molécule ou tel matériau, est encore un problème difficile.

Ces méthodes sont un outil de plus dans la très grande boite à outils du chimiste. Mais il faut donc qu’on apprenne aux étudiants, pas forcément à savoir les utiliser mais à savoir comment ça fonctionne pour avoir un regard critique dessus et à comprendre les forces et les limites. Je travaille à former nos étudiants à ce qu’ils puissent lire des travaux qui utilisent des modèles d’IA en se posant les bonnes questions : comment le jeu de données a été traité ? Quelle est la dimension du modèle ? Et à se faire un avis critique puisque ça devient très utilisé, de même que moi, j’ai beau être théoricien et développer des modèles sur ordinateur, si je veux parler à mes collègues, il faut que je puisse comprendre une méthode expérimentale, sans pour autant être capable de faire une synthèse de matériau ou de le caractériser sur un synchrotron.

  •  

Envie de comprendre les différentes technologies de dalles d'écrans et TV ? Cette courte vidéo est faite pour vous !

Vous n'osez pas trop l'avouer, mais, quand on commence à vous parler d'IPS, VA, Mini-LED, ou encore d'OLED, QD-OLED, Tandem et compagnie, vous ne savez pas vraiment ce que cela implique au niveau précisément des technologies et ce qui se passe à l'intérieur de votre écran ou TV ? Après tout, en tant...

  •  

ZimaBoard 2: An Interesting Intel-Powered Linux Home Mini Server

For those looking for a low-power, well-built small office / home office Linux server with interesting connectivity options, the ZimaBoard 2 is an interesting option that has been available for some months now and powered by the Intel N150 processor. Besides the interesting single board hardware and well built aluminum chassis, the offering is rounded out by being preloaded with ZimaOS as a Linux-based "personal cloud OS" to easily get hosting for your own SOHO server needs.
  •  

Le nouveau Thinkpad T14 Gen 7 est totalement réparable

Le Thinkpad T14 Gen 7 et le Thinkpad T16 Gen 5 sont deux nouveaux portables annoncés au MWC 2026. En plus des traditionnelles évolutions techniques, le constructeur s’est fait un point d’honneur d’apporter le plus grand soin à la réparabilité de ces machines.

Thinkpad T14 Gen 7

Thinkpad T14 Gen 7

Le Thinkpad T14 Gen 7 est la nouvelle version d’un des grands classiques du monde professionnel. Un engin acheté en masse par des groupes comme des PME pour sa robustesse et l’ensemble de ses fonctionnalités. C’est également un engin pensé pour être réparé. C’était déjà le cas de la génération précédente, mais ce nouveau modèle atteint des sommets.

Lenovo s’est associé à iFixit pour proposer un engin pensé pour la réparabilité. Il hérite d’un score de 10/10 selon les critères du site de guides et conseils en réparation. Cette nouvelle gamme déployée sous processeurs Intel Core Ultra et AMD Ryzen AI PRO 400 emploient des composants spécifiques pour parvenir à ce résultat.

On retrouve par exemple la fameuse mémoire LPCAMM2 que la marque emploie depuis 2024 et qui permet d’intégrer une belle capacité dans un encombrement minimal avec la possibilité de la faire évoluer. Le reste de la machine est plus classique, son SSD est au format M.2 2280 NVMe par exemple et c’est donc la manière dont est agencé l’engin qui permet de décrocher un si beau score.

Le clavier se retire facilement, par exemple, la coque inférieure se dévisse sans souci. De quoi accéder à l’ensemble des composants classiques avec un tournevis classique. La batterie n’est pas scellée et peut être échangée en un tournemain, sans outil particulier, grâce à un système qui la retient en place de manière simplement mécanique.

Le ventilateur intégré est dissociable du dissipateur et des ailettes sans avoir à tout démonter. Le reste du dispositif peut bien sûr être dévissé et échangé en cas de besoin ou pour le  dépoussièrer.

Mais le point primordial est sans doute le fait que la majorité des ports ne sont pas soudés sur la carte mère. Ils sont connectés avec des systèmes indépendants. Cela permet de pouvoir les changer en cas de besoin très facilement. Quelques vis à retirer pour ôter leur protection et on peut défaire les connecteurs physiques avec un système de port qui rappelle celui d’un SSD M.2. Ce type de port est souvent une cause de pannes importante, tout simplement parce qu’ils sont en première ligne d’accidents classiques. Les jambes qui se prennent dans un câble de recharge, par exemple. Ou la manipulation récurrente d’un port pour connecter plusieurs types d’accessoires. Le fait de pouvoir, en quelques minutes, échanger la prise est une excellente nouvelle, les services en charge pourront les remplacer sans avoir a échanger toute la carte mère. Le coût d’un de ces connecteurs sera sûrement plus acceptable.

Le Thinkpad T14 Gen 7 est un modèle à suivre pour le marché

Ce n’est pas très compliqué à concevoir, un acheteur informatique dans un grand groupe aujourd’hui se pose toujours naturellement la question. Quelle machine acheter pour améliorer son parc. Ici, la réponse est évidente. Si un groupe dispose de quelques dizaines ou centaines d’unités mobiles, un engin comme ce Thinkpad T14 Gen 7 est l’évidence. Il permettra de limiter le temps d’immobilisation en cas de panne, de faire face rapidement aux problèmes les plus courants, de réparer les petits bobos techniques sans passer par la case « retour fournisseur ». Tout cela a du sens économiquement parlant car cela coute cher aux entreprises, même si les machines sont sous garanties.

C’est évidemment un investissement important, ce type d’engin est plus cher qu’une solution classique. Mais suivant les profils d’utilisateurs, le jeu en vaudra sans doute la chandelle. Comment vont répondre les concurrents de Lenovo à cette approche ? Il est possible que cela entraine des modifications chez eux. Si cette décision pousse les groupes a préférer Lenovo à HP ou Dell, ces deux derniers reverront peut-être à leur tour leurs machines sous le même angle. Et cela pourrait être très bénéfique pour tous les autres utilisateurs.

Thinkpad T14 Gen 7

Car les Thinkpad T14 Gen 7 vont rejoindre tôt ou tard les autres modèles pro de la gamme sur le marché de l’occasion. Ils seront alors proposés à plus petit prix avec un matériel tout à fait exploitable. Et, en cas de batterie un peu faible, de port un peu lâche ou de stockage un peu mou, il sera possible de retrouver un engin comme neuf très facilement.

Le nouveau Thinkpad T14 Gen 7 est totalement réparable © MiniMachines.net. 2026

  •  

AI Startup Sues Ex-CEO Saying He Took 41GB of Email, Lied On Resume

An anonymous reader quotes a report from Ars Technica: Hayden AI, a San Francisco startup that makes spatial analytics tools for cities worldwide, has sued its co-founder and former CEO, alleging that he stole a large quantity of proprietary information in the days leading up to his ouster from the company in September 2024. In a lawsuit filed late last month in San Francisco Superior Court but only made public this week, Hayden AI claims that former CEO Chris Carson undertook what it called "numerous fraudulent actions," which include "forged board signatures, unauthorized stock sales, and improper allocation of personal expenses." [...] Hayden AI, which is worth $464 million according to an estimated valuation on PitchBook, has asked the court to impose preliminary injunctive relief, requiring Carson to either return or destroy the data he allegedly stole. Specifically, the lawsuit alleges that Carson secretly sold over $1.2 million in company stock, forged board signatures, and copied 41GB of proprietary company emails before being fired in September 2024. The complaint also claims Carson fabricated key parts of his resume, including a PhD and military service. It's a "carefully constructed fraud," says Hayden AI. "That is a lie," the complaint states. "Carson does not hold a PhD from Waseda or any other university. In 2007, he was not obtaining a PhD but was operating 'Splat Action Sports,' a paintball equipment business in a Florida strip mall."

Read more of this story at Slashdot.

  •  

The National Videogame Museum Acquires the Mythical Nintendo Playstation

The National Videogame Museum has acquired an extremely rare MSF-1 development kit, believed to be the oldest surviving prototype of the canceled Nintendo PlayStation. Engadget reports: Nicknamed the Nintendo PlayStation, the idea was that a new CD-ROM format backed by Sony would be added to the cartridge-based Super NES, resulting in a hybrid console that could play both. The partnership didn't last long, though, with Nintendo backing out before it ever really got off the ground, announcing that it would instead be working with Philips. Sony decided to make the PlayStation on its own instead, in an act of revenge that you have to say paid off in the long run, and we never did get to see Crash Bandicoot running around the Mushroom Kingdom. Still, the short-lived Nintendo PlayStation remains a fascinating what-if scenario in video game history, and the USA's National Video Museum has acquired the original development kit.

Read more of this story at Slashdot.

  •  

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





  •  

Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

À lobbying, lobbying et demi
Sondage de DPO à l’appui, noyb affirme que la simplification RGPD est à côté de la plaque

Que disent les délégués à la protection des données personnelles de la simplification du RGPD envisagée par la Commission européenne ? Un sondage organisé par l’association noyb révèle que leurs préoccupations portent essentiellement sur la simplification des démarches administratives, et non sur la redéfinition des données personnelles ou sur la limitation du droit d’accès, pourtant envisagés par Bruxelles en réponse aux demandes de l’industrie.

Dans l’univers tech, on entend souvent dire que l’excès de norme est un frein à l’innovation, et que le régulateur ferait bien de s’intéresser aux signaux qui remontent de la base (les entreprises) plutôt que de décider du cadre depuis le sommet.

L’association autrichienne noyb a décidé de prolonger la logique en descendant un cran plus bas : plutôt que d’interroger les entreprises, elle a cherché à connaître la position des individus qui, au sein de ces dernières, se situent en première ligne de la mise en œuvre du cadre réglementaire.

Ratio entre charge de travail et utilité perçue

En l’occurrence, les fameux Délégués à la protection des données (souvent abrégé en DPO, pour Data Protection Officer), instaurés par les articles 37 et suivants du non moins fameux Règlement général sur la protection des données (RGPD).

L’association a donc demandé à environ 500 de ces derniers quels étaient les points de friction liés au RGPD les plus fréquents dans leur quotidien. Elle en a profité pour essayer d’évaluer, toujours par la voie du sondage déclaratif, la part du temps de leur activité de DPO associée à chacune des grandes exigences du règlement. Elle a enfin tenté d’évaluer la façon dont ces DPO percevaient la valeur du service rendu à l’internaute en matière de respect de la vie privée.

Les enseignements de cette étude, présentés jeudi 5 mars, illustrent selon noyb à quel point la Commission européenne fait fausse route en matière de simplification du RGPD. Rappelons que Bruxelles a publié en novembre 2025 un paquet législatif dédié au numérique qui vise à amender plusieurs des grands textes de loi européens, dont le RGPD, la directive e-Privacy, le règlement sur l’IA, etc..

Qualifié de « digital omnibus » du fait de ce caractère fourre-tout, le texte est vivement attaqué pour les allègements qu’il propose en matière de défense de la vie privée. Mi-janvier, deux organisations européennes ont ajouté de l’huile sur le feu en arguant que certaines des mesures de ce Digital Omnibus seraient le reflet du message porté par les lobbys de l’industrie de la tech à Bruxelles. L’un des points de crispation concerne l’article 15 relatif au droit d’accès aux données personnelles, que la Commission européenne prévoit de réduire au motif qu’il y aurait des « abus ».

C’est donc dans ce contexte tendu que noyb dégaine son étude, dont les résultats se veulent donc représentatifs des attentes non pas d’un secteur d’activité, mais d’une fonction bien précise, dont l’avis semble tranché. L’association résume :

« Il s’avère que la plupart des professionnels ne souhaitent pas une réduction des protections, mais une simplification des obligations de documentation et des formalités administratives. Dans bien des cas, ils demandent même des lois plus claires plutôt qu’une plus grande « flexibilité », difficile à mettre en œuvre pour la plupart des entreprises. »

Les DPO ne veulent globalement pas moins de protections

Le sondage a été réalisé en juillet 2025, et une fois nettoyées, les données permettent à noyb de consolider (voir l’étude au format PDF) les réponses de 510 DPO, dont la moitié évolue dans des sociétés comptant plus de 500 employés. Il est à noter que l’association a recruté les sondés par ses propres canaux de communication (réseaux sociaux et newsletter centrée sur les enjeux liés au RGPD).

Pour ce qui est de la charge de travail, les répondants déclarent que les tâches les plus chronophages sont liées aux obligations déclaratives, à la mesure d’impact, et à la conformité en matière de sécurité. Les principes qui constituent le cœur du règlement, les obligations d’information ou la gestion du droit d’accès sont quant à eux considérés comme relativement indolores. D’après noyb, plus de 70 % des sondés répondent ainsi que le droit d’accès ne génère que « peu », « un peu » ou « pas » de travail.

L’association affirme que ce chiffre confirme sa propre lecture du phénomène, selon laquelle la plupart des entreprises ne font l’objet que de rares demandes d’accès, tandis que les acteurs susceptibles d’être fréquemment sollicités (secteur de la publicité par exemple) ont de toute façon des routines de traitement automatisées.

Le sondage évalue les différentes missions afférentes à la conformité RGPD en fonction de la charge de travail engendrée – crédit noyb

L’association interroge ensuite son échantillon de DPO sur leur perception de l’utilité des missions en question. Ici, ce sont les obligations liées à la sécurité, les principes fondamentaux du texte, et l’obligation d’information qui apparaissent comme les éléments les plus utiles, juste devant le droit à l’accès. Elle s’étonne dans ce contexte que Bruxelles propose de limiter le droit d’accès ou les obligations de transparence.

« Cette étude révèle un fossé immense entre les besoins des personnes qui travaillent concrètement au respect de la conformité et les problèmes alimentés par la « bulle du lobby bruxellois ». Nous n’aidons pas les entreprises européennes dans leur fonctionnement normal ; la proposition de la Commission empiète même souvent sur ce que les professionnels considèrent comme utile », résume Max Schrems, fondateur de noyb.

L’association évalue le rapport entre niveau de protection perçu et charge de travail pour les principales obligations du RGPD – crédit noyb

Le « one size fits all » ne fait pas consensus

noyb profite de son étude pour interroger les DPO sur l’intérêt, ou non, de créer des paliers en fonction desquels le niveau d’obligation pourrait varier, de façon par exemple à ce que les exigences réglementaires soient alourdies pour les grands acteurs spécialistes de la vente de données, et allégées pour les petites et moyennes entreprises chez qui la gestion de données personnelles n’est qu’une problématique satellite.

La question n’est pas totalement innocente : dans sa communication autour du paquet numérique, Bruxelles fait en effet valoir que la simplification du RGPD profitera à toutes les entreprises, sans prendre en compte cette différence d’impact. Qu’en disent les intéressés ? « Malgré le fait que beaucoup d’entre eux représentent de plus grandes entreprises (500 + employés), 70% des répondants ont déclaré qu’il y avait un besoin de règles plus strictes pour les grandes entreprises », argue noyb, qui défend donc l’idée d’un système de paliers, avec des règles très claires, ne laissant que peu de place à l’interprétation juridique, pour les PME.

L’association interroge également la perception des DPO sur la proposition, faite par Bruxelles, d’un système de liste blanche, pour automatiser le consentement de certains recueils et traitements à finalité claire (la mesure d’audience par exemple) et donc réduire la pression au niveau des fameux bandeaux de cookies.

noyb, qui avait exprimé en novembre dernier des craintes sur les possibilités réellement offertes par cette liste blanche, note à ce niveau que 84 % des sondés sont globalement favorables à l’idée, mais ajoute à l’équation une autre hypothèse, jusqu’ici écartée par Bruxelles : celle d’un fonctionnement par liste noire, qui interdirait donc les traitements « clairement illicites », à la façon de ce qu’énonce l’article 5 du règlement européen sur l’IA. L’idée recueille un accueil favorable (totalement ou partiellement) chez 91 % des sondés.

« Étonnamment, les spécialistes de la protection de la vie privée (…) ne pensent pas qu’une « liste noire » limiterait excessivement [les responsables de traitement]. Il semble que la sécurité juridique soit privilégiée par rapport à la flexibilité de la loi. On peut supposer que la garantie d’une concurrence loyale est un facteur justifiant l’établissement de « listes noires », étant donné que les concurrents seraient eux aussi soumis à des règles plus claires. », commente l’association, qui appelle par conséquent à un débat plus large autour du Digital Omnibus.





  •  
❌