Vue normale

Reçu aujourd’hui — 7 mars 2026 Actualités numériques

Humanity Heating Planet Faster Than Ever Before, Study Finds

Par : BeauHD
7 mars 2026 à 03:00
An anonymous reader The Guardian: Humanity is heating the planet faster than ever before, a study has found. Climate breakdown is occurring more rapidly with the heating rate almost doubling, according to research that excludes the effect of natural factors behind the latest scorching temperatures. It found global heating accelerated from a steady rate of less than 0.2C per decade between 1970 and 2015 to about 0.35C per decade over the past 10 years. The rate is higher than scientists have seen since they started systematically taking the Earth's temperature in 1880. "If the warming rate of the past 10 years continues, it would lead to a long-term exceedance of the 1.5C (2.7F) limit of the Paris agreement before 2030," said Stefan Rahmstorf, a scientist at the Potsdam Institute for Climate Impact Research and co-author of the study. [...] The researchers applied a noise-reduction method to filter out the estimated effect of nonhuman factors in five major datasets that scientists have compiled to gauge the Earth's temperature. In each of them, they found an acceleration in global heating emerged in 2013 or 2014. The findings have been published in the journal Geophysical Research Letters.

Read more of this story at Slashdot.

Trump Administration Says It Can't Process Tariff Refunds Because of Computer Problems

Par : BeauHD
7 mars 2026 à 01:00
U.S. Customs and Border Protection (CBP) said in a filing on Friday that it currently cannot process billions in tariff refunds because its import-processing system is "not well suited to a task of this scale." The Verge reports: The CBP's admission comes after the Supreme Court struck down the tariffs imposed by Trump under the International Emergency Economic Powers Act (IEEPA) last month. This week, the International Trade Court ruled that importers impacted by the tariffs are entitled to refunds with interest. The CBP estimates that it collected around $166 billion in IEEPA duties as of March 4th, 2026. [...] The CBP says it currently processes imports through its Automated Commercial Environment (ACE) system. In the filing, Lord says that using the department's existing technology, it would take more than 4.4 million hours to process refunds for the over 53.2 million entries with IEEPA duties. Despite these current limitations, the CBP says it's "confident" it can develop and launch new capabilities to "streamline and consolidate refunds and interest payments on an importer basis" -- but this could take 45 days. "The process will be simpler and more efficient than the existing functionalities, and CBP will provide guidance on how to file refund declarations in the new system," Lord says.

Read more of this story at Slashdot.

Reçu hier — 6 mars 2026 Actualités numériques

Oura Buys Gesture-Navigation Startup DoublePoint

Par : BeauHD
6 mars 2026 à 23:00
Smart ring maker Oura has acquired Doublepoint, a Finnish startup specializing in gesture recognition technology for wearables. Engadget reports: The Finnish startup uses smartwatches and wristbands as examples of products that benefit from its technology, but Oura will clearly be looking to incorporate it into its rings, in theory allowing you to control your connected devices with hand movements. Oura said in a press release that the deal sees it inherit an "exceptional team of AI architects and builders from Doublepoint," including Doublepoint's four founders. The newly-acquired company will remain in its native Helsinki, where it will work with Oura's international teams. It added that Doublepoint's expertise in helping devices register subtle hand movements will be key, as nobody wearing a smart ring is going to engage with gesture control if they have to thrash their hand around like a conductor.

Read more of this story at Slashdot.

Apple Blocks US Users From Downloading ByteDance's Chinese Apps

Par : BeauHD
6 mars 2026 à 22:00
An anonymous reader quotes a report from Wired: While TikTok operates in the United States under new ownership, Apple has deployed technical restrictions to block iOS users in the United States from downloading other apps made by the video platform's Chinese parent organization ByteDance. ByteDance owns a vast array of different apps spanning social media, entertainment, artificial intelligence, and other sectors. The leading one is Douyin, the Chinese version of TikTok, which has over 1 billion monthly active users. While most of those users reside in China, iPhone owners around the world have traditionally been able to download these apps from anywhere without using a VPN, as long as they have a valid App Store account registered in China. That's not true anymore. Starting in late January, iPhone users in the U.S. with Chinese App Store accounts began reporting that they were encountering new obstacles when they tried to download apps developed by ByteDance. WIRED has confirmed that even with a valid Chinese App Store account, downloading or updating a ByteDance-owned Chinese app is blocked on Apple devices located in the United States. Instead, a pop-up window appears that says, "This app is unavailable in the country or region you're in." The restriction appears to apply only to ByteDance-owned apps and not those developed by other Chinese companies. The timing and technical specifics suggest the restriction is related to the deal TikTok agreed to in January to divest Chinese ownership of its U.S. operations. The agreement was the result of the so-called TikTok ban law passed by Congress in 2024, which also barred companies like Apple and Google from distributing other apps majority-owned by ByteDance. The Protecting Americans from Foreign Adversary Controlled Applications Act states that no company can "distribute, maintain, or update" any app majority-controlled by ByteDance "within the land or maritime borders of the United States." The law was primarily aimed at TikTok, which has more than 100 million users in the U.S. and had been the subject of years of debate in Washington over whether its Chinese ownership posed a national security risk. But ByteDance also has dozens of other apps that at some point were also removed from Apple's and Google's app stores in the U.S.. Now it seems like the scope of impact has reached even more apps that are not technically designed for U.S. audiences, such as Douyin, the AI chatbot Doubao, and the fiction reading platform Fanqie Novel.

Read more of this story at Slashdot.

System76 Comments On Recent Age Verification Laws

Par : BeauHD
6 mars 2026 à 21:00
In a blog post on Thursday, System76 CEO Carl Richell criticized new state laws in California, Colorado, and New York that would require operating systems to verify users' ages and expose that information to apps, arguing the rules are easy for kids to bypass and ultimately undermine privacy and freedom more than they protect minors. "System76's position is interesting given that they sell Linux-loaded desktops, workstations and laptops plus being an operating system vendor with their in-house Pop!_OS distribution and COSMIC desktop environment," adds Phoronix's Michael Larabel, noting that they're also based out of Colorado. Here's an excerpt from the post: "A parent that creates a non-admin account on a computer, sets the age for a child account they create, and hands the computer over is in no different state. The child can install a virtual machine, create an account on the virtual machine and set the age to 18 or over. It's a similar technique to installing a VPN to get around the Great Firewall of China (just consider that for a moment). Or the child can simply re-install the OS and not tell their parents. ... In the case of Colorado's and California's bills, effectiveness is lost. In the case of New York's bill, liberty is lost. In the case of centralized platforms, potential is lost. ... The challenges we face are neither technical nor legal. The only solution is to educate our children about life with digital abundance. Throwing them into the deep end when they're 16 or 18 is too late. It's a wonderful and weird world. Yes, there are dark corners. There always will be. We have to teach our children what to do when they encounter them and we have to trust them." "We are accustomed to adding operating system features to comply with laws," writes Richell, in closing. "Accessibility features for ADA, and power efficiency settings for Energy Star regulations are two examples. We are a part of this world and we believe in the rule of law. We still hope these laws will be recognized for the folly they are and removed from the books or found unconstitutional."

Read more of this story at Slashdot.

Les Antec 900 de 2006 et 2026 testés en même temps : nouveauté et nostalgie, du deux en un !

Le 19 février, nous vous présentions sur H&Co le boitier Antec 900 (2026). Le dernier-né de la firme est évidemment un clin d'œil au célèbre "Nine Hundred" qui avait lui été lancé en 2006, il y a donc 20 ans, déjà.La philosophie entre les deux boitiers a beaucoup changé, mais qu'à cela tienne :...

Mozilla Is Working On a Big Firefox Redesign

Par : BeauHD
6 mars 2026 à 20:00
darwinmac writes: Mozilla is working on a huge redesign for its Firefox browser, codenamed "Nova," which will bring pastel gradients, a refreshed new tab page, floating "island" UI elements, and more. "From the mockups, it appears Mozilla took some inspiration from Googles Material You (or at least, the dynamic color extraction part of it) because the browser color accent appears influenced by the wallpaper setting," reports Neowin. "Choosing a mint-green desktop background automatically shifts the top navigation bars to match that exact shade." Mozilla has a habit of redesigning Firefox every few years. Before "Nova," there was the "Proton" redesign in 2021, the "Photon" redesign in 2017, and the "Australis" redesign in 2014. Nova is still in early development, so it might take a year or two before it appears in an official stable Firefox release. Neowin adds: "Not every redesign project ends well for Mozilla, though. You might remember 2012's Firefox Metro, an ambitious attempt to build a custom browser for Windows 8s touch-first interface. The team built it to operate both as a traditional desktop application and as a touch-optimized Metro app. The whole thing was scrapped in 2014 after two years in development due to a dismally low user adoption rate (a preview version of the software had been released a year earlier on the Aurora channel)."

Read more of this story at Slashdot.

Iran War Provides a Large-Scale Test For AI-Assisted Warfare

Par : BeauHD
6 mars 2026 à 19:00
An anonymous reader quotes a report from Bloomberg, written by Katrina Manson: The U.S. strikes on Iran ordered by President Donald Trump mark the arrival on a large scale of a new era of warfare assisted by artificial intelligence. Captain Timothy Hawkins, a Central Command spokesperson, told me last night that the AI tools the U.S. military is using in Iran operations don't make targeting decisions and don't replace humans. But they do help "make smarter decisions faster." That's been the driving ambition of the U.S. military, which has spent years looking at how to develop and deploy AI to the battlefield [...]. Critics, such as Stop Killer Robots, a coalition of 270 human-rights groups, argue that AI-enabled decision-support systems reduce the separation between recommending and executing a strike to a "dangerously thin" line. Hawkins said the military's use of AI assistance follows a rigorous process aligned with U.S. policy, military doctrine and the law. Artificial intelligence helps analysts whittle down what they need to focus on, generating so-called points of interest and helping personnel make "smart" decisions in the Iran operations, he told me. AI is also helping to pull data within systems and organize information to provide clarity. Among the AI tech used in the Iran campaign is Maven Smart System, a digital mission control platform produced by Palantir [...]. That emerged from Project Maven, a project started in 2017 by the Pentagon to develop AI for the battlefield. Among the large language models installed on the system is Anthropic's Claude AI tool, according to the people, who said it has become central to U.S. operations against Iran and to accelerating Maven's development. Claude is also at the center of a row that pits Anthropic against the Department of Defense over limits on the software. Further reading: Hacked Tehran Traffic Cameras Fed Israeli Intelligence Before Strike On Khamenei

Read more of this story at Slashdot.

AMD perd du terrain sur le marché mondial des cartes graphiques desktop, mais progresse sur les GPU intégrés

Le cabinet d'études Jon Peddie Research vient de livrer le bilan de ses analyses de parts de marché pour le milieu des GPU grand public lors du quatrième trimestre 2025. Comme nous l'avions fait pour les chiffres du troisième trimestre, nous allons commencer par observer le marché uniquement des car...

Python 'Chardet' Package Replaced With LLM-Generated Clone, Re-Licensed

Par : BeauHD
6 mars 2026 à 18:00
Ancient Slashdot reader ewhac writes: The maintainers of the Python package `chardet`, which attempts to automatically detect the character encoding of a string, announced the release of version 7 this week, claiming a speedup factor of 43x over version 6. In the release notes, the maintainers claim that version 7 is, "a ground-up, MIT-licensed rewrite of chardet." Problem: The putative "ground-up rewrite" is actually the result of running the existing copyrighted codebase and test suite through the Claude LLM. In so doing, the maintainers claim that v7 now represents a unique work of authorship, and therefore may be offered under a new license. Version 6 and earlier was licensed under the GNU Lesser General Public License (LGPL). Version 7 claims to be available under the MIT license. The maintainers appear to be claiming that, under the Oracle v. Google decision, which found that cloning public APIs is fair use, their v7 is a fair use re-implementation of the `chardet` public API. However, there is no evidence to suggest their re-write was under "clean room" conditions, which traditionally has shielded cloners from infringement suits. Further, the copyrightability of LLM output has yet to be settled. Recent court decisions seem to favor the view that LLM output is not copyrightable, as the output is not primarily the result of human creative expression -- the endeavor copyright is intended to protect. Spirited discussion has ensued in issue #327 on `chardet`s GitHub repo, raising the question: Can copyrighted source code be laundered through an LLM and come out the other end as a fresh work of authorship, eligible for a new copyright, copyright holder, and license terms? If this is found to be so, it would allow malicious interests to completely strip-mine the Open Source commons, and then sell it back to the users without the community seeing a single dime.

Read more of this story at Slashdot.

Proton Mail Helped FBI Unmask Anonymous 'Stop Cop City' Protester

Par : BeauHD
6 mars 2026 à 17:00
Longtime Slashdot reader AmiMoJo shares a report from 404 Media: Privacy-focused email provider Proton Mail provided Swiss authorities with payment data that the FBI then used to determine who was allegedly behind an anonymous account affiliated with the Stop Cop City movement in Atlanta, according to a court record reviewed by 404 Media. The records provide insight into the sort of data that Proton Mail, which prides itself both on its end-to-end encryption and that it is only governed by Swiss privacy law, can and does provide to third parties. In this case, the Proton Mail account was affiliated with the Defend the Atlanta Forest (DTAF) group and Stop Cop City movement in Atlanta, which authorities were investigating for their connection to arson, vandalism and doxing. Broadly, members were protesting the building of a large police training center next to the Intrenchment Creek Park in Atlanta, and actions also included camping in the forest and lawsuits. Charges against more than 60 people have since been dropped.

Read more of this story at Slashdot.

Icy Dock ressort la caméra pour présenter ses produits en vidéo

Pour terminer la semaine, quoi de mieux que quelques vidéos ? Une parenthèse audiovisuelle qui vous rappellera votre jeunesse, ces moments d’école où l’instituteur sortait le téléviseur et lançait une cassette pour conclure la journée. Cela marquait la fin de la logorrhée et offrait l’occasion idéale de roupiller et de récupérer avant la libération de la sonnerie... [Tout lire]

En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

6 mars 2026 à 16:14
C'est du chimique !
En chimie, l’IA permet d’« optimiser la manière de faire de la recherche »

Les méthodes d’IA ont passé les portes des laboratoires depuis quelques années. Mais, concrètement, à quoi sert-elle quand les chimistes l’utilisent ? Next a voulu en savoir plus et a interrogé le chimiste théorique François-Xavier Coudert.

Le machine learning ou le deep learning pour analyser des images, des vidéos, des textes ou des sons, on commence à connaître. Mais à quoi peuvent bien servir les techniques d’IA dans un laboratoire de chimie ? Qu’est-ce qu’un chimiste théorique peut bien faire d’un réseau de neurones ?

Next a discuté avec François-Xavier Coudert, chercheur au CNRS qui a travaillé, par exemple, sur l’utilisation de l’IA pour trouver de nouveaux réseaux métallo-organiques, ces matériaux poreux dont la découverte a valu aux chimistes Susumu Kitagawa, Richard Robson et Omar M. Yaghi le prix Nobel en 2025.

>> Quelle est le but de s’appuyer sur l’IA quand on fait des recherches en chimie ?

Une des idées est de trouver de meilleures molécules ou de meilleurs matériaux pour des applications choisies. Typiquement, on peut vouloir séparer le CO₂ des autres gaz en sortie de cheminée d’usines. On va aller creuser dans les matériaux connus qui n’ont jamais été testés pour cette application-là.

Jusqu’ici, les gens qui développaient des matériaux avaient une application en tête. Si ça marche, ils le publient et expliquent que ce matériau fait ce qu’ils veulent super bien, sinon, ils le mettent dans un tiroir et font un autre essai. L’idée, c’est que, dans les matériaux qui ont telle propriété pour laquelle ils sont connus, il y en a peut-être qui pourraient être très bien pour d’autres applications. Et ainsi d’aller chercher des matériaux connus mais qui n’auraient pas été complètement exploités. Mais comment le savoir ? On est face à des milliers de matériaux et de molécules. C’est aussi un peu l’idée du « repurposing » (réutilisation) des médicaments : si je trouve une molécule connue mais qu’elle a un autre effet, c’est toujours plus facile à déployer que de réinventer depuis rien une nouvelle molécule.

Aller au-delà de l’« intuition chimique »

>> Les techniques d’IA permettent de modéliser, sélectionner, générer plein de choses, dans quels buts les chimistes utilisent l’IA actuellement ?

Il y a beaucoup de champs scientifiques qui utilisent l’IA parce qu’ils ont de larges volumes de données qui étaient jusque-là inexploitées, c’est le paradigme du big data. En chimie, il y a la même motivation : à force, les laboratoires académiques comme ceux de R&D ont accumulé des données et ils veulent les valoriser.

La différence, c’est que nous sommes très loin du régime du big data parce qu’on n’est pas Facebook ou Microsoft et que nous n’avons pas des millions d’expériences et que les données coûtent très cher à produire : faire une nouvelle manip’, tester un nouveau matériau ou une nouvelle molécule, c’est compliqué. Quand on va dans un laboratoire et qu’on leur demande combien de manip’ ont été faites sur les matériaux sur lesquels ils travaillent, en général, on est plutôt sur quelques centaines. Et le millier, c’est déjà énorme.

L’idée est de pouvoir optimiser la manière de faire de la recherche en s’appuyant sur les expériences, au-delà de l’« intuition chimique » : quand l’humain analyse ses résultats et se dit « ça, ça va bien marcher, ça non ». Sûrement qu’il y a des tendances qu’on rate, des facteurs qu’on ne voit pas et on a envie de les exploiter.

Le problème aussi est que ces données sont souvent très hétérogènes parce que les manip’ ne sont pas toujours faites de la même façon, pas décrites pareil : parfois, ça reste dans un cahier de labo, d’autres fois, c’est publié mais ça peut être dans des PDF pour les vieilles manipulations.

Il y a quelques exemples très précis où les chimistes se sont motivés en tant que communauté depuis les années 60 pour standardiser leurs données, et ces domaines sont ceux où l’IA est plus facile à appliquer, mais c’est très limité. En biochimie, ce sont les protéines avec la base de données PDB et on a la même chose avec les structures cristallines. Les quantités de données sur ces sujets sont importantes mais très ciblées. Ces communautés se sont organisées pour appliquer leurs standards en imposant que, pour publier une nouvelle protéine, il faille que sa structure soit déposée [dans le sens publiée, ndlr], de même pour les cristaux.

Pour le reste, on voit de plus en plus de monde faire des analyses statistiques relativement simples et présenter ça comme de la data science ou de l’IA. Effectivement, même avec peu de données, il y a des analyses à faire.

Mais on met aussi en place des stratégies pour acquérir plus de données. Par exemple, de la synthèse robotisée pour avoir accès à de plus grands volumes de données parce qu’un robot peut nous faire 64 manips d’un coup avec des conditions différentes, mais toutes en parallèle, et les caractériser. On peut récupérer toutes les données brutes au cours de la synthèse alors que ce n’est pas le cas si on prend les données des expériences déjà publiées qui ne sont jamais exhaustives.

Depuis quelques années, nous voulons aussi nous attaquer à un autre problème : il y a un biais dans nos données. Nous n’avons dans la littérature scientifique que des publications positives. On manque de données négatives : les chercheurs n’ont publié que des informations sur des matériaux qui étaient intéressants pour eux et qui fonctionnaient bien. Mais que tel matériau est nul pour telle application ou que telle structure, quand on essaye de la synthétiser, ça ne donne pas de beaux cristaux ; cette information-là, on ne la trouve jamais dans les publications ou les bases de données qui leur sont liées. Quelqu’un a peut-être écrit dans un cahier de laboratoire « c’est marron et c’est tout moche » et s’est arrêté sans partager l’information. Et, on n’apprend pas sans erreur, comme on dit aux enfants. Ce manque de données négatives est une vraie limitation pour ce qu’on veut faire. La synthèse robotisée permet aussi d’enregistrer ce qui ne marche pas.

« l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons »

>> Concernant les méthodes d’IA utilisées, quelles sont celles vers lesquelles se dirigent les chimistes ?

L’IA générative n’est pas une des grosses directions, même s’il y a des chercheurs qui essayent de créer de nouveaux matériaux, de nouvelles molécules, mais ce n’est pas la direction majeure. C’est souvent celle qui capture le plus les esprits parce que les gens disent « on a créé un nouveau matériau ».

Une autre direction qui est peu visible, c’est que l’IA améliore nos outils de chimistes sans changer la chimie que nous faisons. On a plus de facilités à mettre des modèles complexes dans nos outils pour faire de la reconnaissance de spectre, de l’analyse d’espèces, mais aussi, en chimie théorique sur laquelle je travaille, pour des méthodes de calcul. Avant, on calculait les propriétés des matériaux et des molécules avec des méthodes basées sur la physique comme les équations de Schrödinger, de Newton. On simulait le comportement des atomes dans les molécules, des molécules dans les matériaux, etc.

Aujourd’hui, les méthodes d’IA accélèrent ce travail en nous donnant des modèles plus précis. Pour certains systèmes, une fois qu’on a résolu 10 000 fois l’équation de Schrödinger pour telle classe de matériaux, on entraîne un réseau neuronal et il n’y a plus besoin de résoudre l’équation de Schrödinger car on a vu suffisamment de configurations possibles de ces matériaux pour savoir prédire ce qu’ils vont donner.

Cette amélioration de nos outils est très technique mais elle a vraiment un impact très fort dans la communauté de la chimie. C’est un nouvel outil de chimie théorique pour prédire les comportements des molécules et des matériaux. Aujourd’hui, la majorité des personnes utilisent ces outils-là.

>> Concrètement, ça se présente comment ?

En chimie théorique, on avait déjà des logiciels qui permettaient, par exemple, de regarder une molécule et de calculer son spectre UV visible. Mais, aujourd’hui, on a des plugins intégrés qui y intègrent des outils d’IA qui peuvent permettre de gagner du temps : pour certains types de calculs, on gagne un facteur 10, un facteur 50 ou même un facteur 100. On est donc capables de faire des calculs sur des systèmes plus grands, plus complexes et plus longs que ce qu’on faisait il y a cinq à dix ans.

L’idée, c’est donc de mettre des réseaux neuronaux à l’intérieur de nos logiciels pour accélérer la résolution de nos équations physiques. Ça existait déjà à l’époque mais la précision n’était pas de très haute et c’était un outil de niche avec quelques personnes qui travaillaient avec. Le fait d’avoir accès facilement à toute l’infrastructure, les GPU, les bibliothèques logicielles, avec le petit bout de code pour que le réseau neuronal fasse pile ce qu’on a envie, c’est devenu incroyablement pratique. Et par exemple des logiciels de dynamique moléculaire comme LAMMPS intègrent ce genre d’outils.

>> Ces logiciels sont développés par qui ?

Il existe sans doute quelques logiciels commerciaux mais, comme c’est un développement assez rapide, la plupart des personnes utilisent des logiciels open source académiques développés par des collègues universitaires, au MIT, à l’université de Pennsylvanie, par exemple, et maintenus par une communauté.

Les calculateurs du GENCI, un point fort pour les chercheurs français

>> Faut-il les déployer sur un serveur ou sont-ils utilisables sur des ordinateurs de bureau ?

Sur des ordinateurs de bureau, on peut faire des petits tests sur une molécule, un matériau d’une centaine d’atomes. Si on veut étudier de vrais problèmes, il faut des serveurs et de plus en plus de la puissance de calcul en GPU, puisque c’est sur ces plateformes-là que les réseaux neuronaux ont été les plus optimisés.

Après, chacun fait comme il veut. Nous avons un serveur au laboratoire mais on utilise surtout des machines nationales. En France, on a cette chance d’avoir, grâce au CNRS et aux autres organismes comme le CEA, le GENCI qui nous donne accès à de la puissance de calcul sur trois grands calculateurs nationaux souverains, hébergés en propre. C’est vraiment un point fort pour nous. Comme quand on candidate pour les synchrotrons ou autres grandes infrastructures, il suffit de déposer tous les six mois en justifiant avec un dossier comportant les recherches effectuées et les nouveaux projets et c’est expertisé par le comité du GENCI qui alloue un nombre d’heures de machine.

>> Comment on fait pour créer un modèle adapté à la chimie ?

On part d’un jeu de données, par exemple une liste des stabilités mécaniques (sont-ils plus ou moins durs, plus ou moins résistants) de 15 000 matériaux avec leurs structures, et on veut faire un modèle capable de prédire cette stabilité mécanique pour d’autres matériaux. Ce qui est difficile, c’est qu’il faut représenter la structure des matériaux. Le réseau neuronal prend en entrée un jeu de nombres, il faut donc trouver une représentation sous forme de série de nombres qui représente bien la géométrie du matériau [c’est la même problématique pour tous les domaines, ndlr].

On transforme donc ces structures de matériaux en série de données et on les donne à un réseau de neurones pour lequel on optimise les poids sur les neurones pour qu’à la fin, le modèle ait appris à sortir avec une bonne précision la stabilité mécanique d’un matériau quand on lui donne sa structure. Une fois qu’on a ce modèle, on peut lui donner un matériau pour qu’il nous prédise sa stabilité mécanique.

Pour choisir le modèle, il faut une adéquation entre la complexité du réseau neuronal (nombre de neurones, façon dont ils sont connectés entre eux) et le nombre de données qu’on a et leur complexité. Ça sert à rien d’utiliser un modèle trop complexe sur un tout petit jeu de données, mais si le modèle est trop simple et qu’il n’y a pas assez de neurones, il va être de mauvaise qualité. Là est donc tout l’enjeu : savoir quel est le bon type de modèles, combien de neurones, quelle forme, quelle connectivité et comment on représente les données pour les faire ingérer à ce réseau de neurones. Tout le boulot est là.

>> Pour l’instant, après utilisation de l’IA, dans la vraie vie chimique, est-ce que ça améliore le travail ? Ne croulez-vous pas devant une liste de matériaux candidats qui sont ensuite difficiles à départager ?

Aujourd’hui, pas vraiment. Ça propose des pistes mais on n’a pas d’exemple « magique » comme les biologistes avec Alphafold. En chimie et en sciences des matériaux, on n’a pas encore sorti le truc où on peut dire : « ça, ça a été fait grâce à l’IA et on n’aurait pas pu le faire autrement, etc ». L’IA accélère certaines pratiques mais ce n’est pas applicable à tous les laboratoires ni à toutes les propriétés. Il y a des choses vraiment difficiles et pour lesquelles, on a beau utiliser l’IA, on ne voit rien en ressortir, sans facteur clair. Ce n’est pas une chose magique qui résout tous nos problèmes, loin de là. Ça accélère la recherche sur des domaines bien spécifiques.

Je ne suis pas trop inquiet sur le côté : ça fournit trop de pistes et ça noie la recherche. Je pense que le principal problème est que certains essayent de mettre de l’IA là où elle n’apporte rien et c’est là où on perd du temps.

« Un outil de plus dans la très grande boite à outils du chimiste »

>> Qu’est-ce qui ne fonctionne pas avec l’IA en chimie ?

Une des grandes questions aujourd’hui est de savoir ce qui fait qu’une molécule est synthétisable ou pas. C’est un grand problème ouvert sur lequel l’IA n’est pas vraiment « douée » et où, je crois, l’intuition chimique fait mieux. Si je montre deux molécules ou deux matériaux à un chimiste expérimentateur, il va pouvoir me dire : « Celle-là, je peux essayer de te la faire dans le bécher, mais celle-ci, c’est mort, jamais on l’aura ». Cette idée de la faisabilité expérimentale reste une question ouverte et c’est la même chose pour les matériaux. Comment un modèle peut me permettre de sélectionner parmi 140 super matériaux les 10 que je vais vraiment synthétiser et qui auront une chance d’être utilisables ? La question de la faisabilité expérimentale, ce qui fait qu’on arrive à synthétiser telle molécule ou tel matériau, est encore un problème difficile.

Ces méthodes sont un outil de plus dans la très grande boite à outils du chimiste. Mais il faut donc qu’on apprenne aux étudiants, pas forcément à savoir les utiliser mais à savoir comment ça fonctionne pour avoir un regard critique dessus et à comprendre les forces et les limites. Je travaille à former nos étudiants à ce qu’ils puissent lire des travaux qui utilisent des modèles d’IA en se posant les bonnes questions : comment le jeu de données a été traité ? Quelle est la dimension du modèle ? Et à se faire un avis critique puisque ça devient très utilisé, de même que moi, j’ai beau être théoricien et développer des modèles sur ordinateur, si je veux parler à mes collègues, il faut que je puisse comprendre une méthode expérimentale, sans pour autant être capable de faire une synthèse de matériau ou de le caractériser sur un synchrotron.

Envie de comprendre les différentes technologies de dalles d'écrans et TV ? Cette courte vidéo est faite pour vous !

Vous n'osez pas trop l'avouer, mais, quand on commence à vous parler d'IPS, VA, Mini-LED, ou encore d'OLED, QD-OLED, Tandem et compagnie, vous ne savez pas vraiment ce que cela implique au niveau précisément des technologies et ce qui se passe à l'intérieur de votre écran ou TV ? Après tout, en tant...

ZimaBoard 2: An Interesting Intel-Powered Linux Home Mini Server

6 mars 2026 à 16:11
For those looking for a low-power, well-built small office / home office Linux server with interesting connectivity options, the ZimaBoard 2 is an interesting option that has been available for some months now and powered by the Intel N150 processor. Besides the interesting single board hardware and well built aluminum chassis, the offering is rounded out by being preloaded with ZimaOS as a Linux-based "personal cloud OS" to easily get hosting for your own SOHO server needs.

Le nouveau Thinkpad T14 Gen 7 est totalement réparable

6 mars 2026 à 16:01

Le Thinkpad T14 Gen 7 et le Thinkpad T16 Gen 5 sont deux nouveaux portables annoncés au MWC 2026. En plus des traditionnelles évolutions techniques, le constructeur s’est fait un point d’honneur d’apporter le plus grand soin à la réparabilité de ces machines.

Thinkpad T14 Gen 7

Thinkpad T14 Gen 7

Le Thinkpad T14 Gen 7 est la nouvelle version d’un des grands classiques du monde professionnel. Un engin acheté en masse par des groupes comme des PME pour sa robustesse et l’ensemble de ses fonctionnalités. C’est également un engin pensé pour être réparé. C’était déjà le cas de la génération précédente, mais ce nouveau modèle atteint des sommets.

Lenovo s’est associé à iFixit pour proposer un engin pensé pour la réparabilité. Il hérite d’un score de 10/10 selon les critères du site de guides et conseils en réparation. Cette nouvelle gamme déployée sous processeurs Intel Core Ultra et AMD Ryzen AI PRO 400 emploie des composants spécifiques pour parvenir à ce résultat.

On retrouve par exemple la fameuse mémoire LPCAMM2 que la marque emploie depuis 2024 et qui permet d’intégrer une belle capacité dans un encombrement minimal avec la possibilité de la faire évoluer. Le reste de la machine est plus classique, son SSD est au format M.2 2280 NVMe par exemple et c’est donc la manière dont est agencé l’engin qui permet de décrocher un si beau score.

Le clavier se retire facilement, par exemple, la coque inférieure se dévisse sans souci. De quoi accéder à l’ensemble des composants classiques avec un tournevis classique. La batterie n’est pas scellée et peut être échangée en un tournemain, sans outil particulier, grâce à un système qui la retient en place de manière simplement mécanique.

Le ventilateur intégré est dissociable du dissipateur et des ailettes sans avoir à tout démonter. Le reste du dispositif peut bien sûr être dévissé et échangé en cas de besoin ou pour le  dépoussièrer.

Mais le point primordial est sans doute le fait que la majorité des ports ne sont pas soudés sur la carte mère. Ils sont connectés avec des systèmes indépendants. Cela permet de pouvoir les changer en cas de besoin très facilement. Quelques vis à retirer pour ôter leur protection et on peut défaire les connecteurs physiques avec un système de port qui rappelle celui d’un SSD M.2. Ce type de port est souvent une cause de pannes importante, tout simplement parce qu’ils sont en première ligne d’accidents classiques. Les jambes qui se prennent dans un câble de recharge, par exemple. Ou la manipulation récurrente d’un port pour connecter plusieurs types d’accessoires. Le fait de pouvoir, en quelques minutes, échanger la prise est une excellente nouvelle, les services en charge pourront les remplacer sans avoir à échanger toute la carte mère. Le coût d’un de ces connecteurs sera sûrement plus acceptable.

Le Thinkpad T14 Gen 7 est un modèle à suivre pour le marché

Ce n’est pas très compliqué à concevoir, un acheteur informatique dans un grand groupe aujourd’hui se pose toujours naturellement la question. Quelle machine acheter pour améliorer son parc. Ici, la réponse est évidente. Si un groupe dispose de quelques dizaines ou centaines d’unités mobiles, un engin comme ce Thinkpad T14 Gen 7 est l’évidence. Il permettra de limiter le temps d’immobilisation en cas de panne, de faire face rapidement aux problèmes les plus courants, de réparer les petits bobos techniques sans passer par la case « retour fournisseur ». Tout cela a du sens économiquement parlant car cela coute cher aux entreprises, même si les machines sont sous garantie.

C’est évidemment un investissement important, ce type d’engin est plus cher qu’une solution classique. Mais suivant les profils d’utilisateurs, le jeu en vaudra sans doute la chandelle. Comment vont répondre les concurrents de Lenovo à cette approche ? Il est possible que cela entraine des modifications chez eux. Si cette décision pousse les groupes à préférer Lenovo à HP ou Dell, ces deux derniers reverront peut-être à leur tour leurs machines sous le même angle. Et cela pourrait être très bénéfique pour tous les autres utilisateurs.

Thinkpad T14 Gen 7

Car les Thinkpad T14 Gen 7 vont rejoindre tôt ou tard les autres modèles pro de la gamme sur le marché de l’occasion. Ils seront alors proposés à plus petit prix avec un matériel tout à fait exploitable. Et, en cas de batterie un peu faible, de port un peu lâche ou de stockage un peu mou, il sera possible de retrouver un engin comme neuf très facilement.

Le nouveau Thinkpad T14 Gen 7 est totalement réparable © MiniMachines.net. 2026

❌