Vue lecture

Nouvelles sur l’IA de décembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
  • NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.

En vrac

OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.

En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.

Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).

En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).

Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.

Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.

L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.

DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.

Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.

Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.

Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.

La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).

Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.

Rétro-ingénierie du système de mémoires de ChatGPT.

Pour aller plus loin

Par Zvi Mowshowitz

Au 39e Chaos Communication Congress

Les événements touchant à l’IA au 39e Chaos Communication Congress :

Sur LinuxFr.org

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

A Decade of BBC Question Time Data Reveals Imbalance in Journalist Guests

A new study [PDF] from Cardiff University analyzing a decade of the popular topical debate programme BBC Question Time found that the broadcaster's flagship political debate show relies disproportionately on journalists and pundits from right-wing media outlets, particularly those connected to The Spectator magazine. Researcher Matt Walsh examined 391 editions and 1,885 panellist appearances between 2014 and 2024. Journalists from right-leaning publications accounted for 59.59% of media guest slots, compared to just 16.86% for left-leaning outlets. The Spectator, a conservative magazine with a circulation of roughly 65,000, had an outsized presence among the most frequently booked guests. The study's list of top non-politician appearances reads like a roster of right-wing media figures. Isabel Oakeshott appeared 14 times, Julia Hartley-Brewer 13, Kate Andrews (formerly of the Institute for Economic Affairs and now at The Spectator) 13, and Tim Stanley of The Telegraph and Spectator also 13. No equivalent frequency existed for left-wing journalists; Novara Media's Ash Sarkar and podcaster Alastair Campbell each appeared six times. Walsh said that the programme's need to be entertaining may explain some of these choices, as columnists unconstrained by party talking points tend to generate livelier debate. The BBC maintains that Question Time aims to present a "breadth of viewpoints," but the data suggests the programme's construction of impartiality tilts notably in one direction.

Read more of this story at Slashdot.

  •  

The Atlanta Journal-Constitution Prints Final Newspaper, Shifts To All-Digital Format

CBS News: The Atlanta Journal-Constitution has printed its final newspaper, marking the end of a 157-year chapter in Georgia history and officially transitioning the longtime publication into a fully digital news outlet. The front-page story of the final print edition asks a fitting question: "What is the future of local media in Atlanta?" The historic last issue is also being sold for $8, a significant increase from the typical $2.00 price. Wednesday, Dec. 31, marks the last day The AJC will be delivered to driveways across metro Atlanta. Starting Jan. 1, 2026, the newspaper will exist exclusively online, a move its leadership says reflects how readers now consume news and ensures the organization's future. AJC President and Publisher Andrew Morse said the decision was not made lightly, especially given how deeply the paper is woven into daily life for generations of readers. The move makes Atlanta the only major U.S. city without a daily printed newspaper.

Read more of this story at Slashdot.

  •  

GTA 6, iPhone Fold et guerre Google/ChatGPT : nos 10 prédictions pour la tech en 2026

Peut-on prédire l'avenir ? À quelques heures du coup d'envoi du CES 2026, le grand événement mondial qui devrait marquer le début de la nouvelle année pour l'actualité high-tech, Numerama vous propose ses prédictions sur les tendances des prochains mois. Impossible de prédire les actualités chaudes, évidemment, mais certaines choses importantes devraient arriver en 2026.

  •  

France Targets Australia-Style Social Media Ban For Children Next Year

An anonymous reader quotes a report from the Guardian: France intends to follow Australia and ban social media platforms for children from the start of the 2026 academic year. A draft bill preventing under-15s from using social media will be submitted for legal checks and is expected to be debated in parliament early in the new year. The French president, Emmanuel Macron, has made it clear in recent weeks that he wants France to swiftly follow Australia's world-first ban on social media platforms for under-16s, which came into force in December. It includes Facebook, Snapchat, TikTok and YouTube. Le Monde and France Info reported on Wednesday that a draft bill was now complete and contained two measures: a ban on social media for under-15s and a ban on mobile phones in high schools, where 15- to 18-year-olds study. Phones have already been banned in primary and middle schools. The bill will be submitted to France's Conseil d'Etat for legal review in the coming days. Education unions will also look at the proposed high-school ban on phones. The government wants the social media ban to come into force from September 2026. Le Monde reported the text of the draft bill cited "the risks of excessive screen use by teenagers," including the dangers of being exposed to inappropriate social media content, online bullying, and altered sleep patterns. The bill states the need to "protect future generations" from dangers that threaten their ability to thrive and live together in a society with shared values. Earlier this month, Macron confirmed at a public debate in Saint Malo that he wanted a social media ban for young teenagers. He said there was "consensus being shaped" on the issue after Australia introduced its ban. "The more screen time there is, the more school achievement drops the more screen time there is, the more mental health problems go up," he said. He used the analogy of a teenager getting into a Formula One racing car before they had learned to drive. "If a child is in a Formula One car and they turn on the engine, I don't want them to win the race, I just want them to get out of the car. I want them to learn the highway code first, and to ensure the car works, and to teach them to drive in a different car."

Read more of this story at Slashdot.

  •  

Meta vient de parier des milliards dessus : qu’est-ce que Manus ? On a interrogé l’IA venue de Chine

Le groupe américain Meta vient d’annoncer le rachat de Manus, une startup fondée en Chine et spécialisée dans le pilotage d’agents d’IA généralistes. Si les spéculations autour du montant de la transaction font les gros titres, cette acquisition en dit long sur les ambitions de la société de Mark Zuckerberg, mais aussi sur l’orientation prise par l’industrie de l’IA dans son ensemble. On en a discuté avec le chatbot qui, précisément, n’a pas pour vocation à bavarder.

  •  

VC Sees AI-generated Video Gutting the Creator Economy

AI-generated video tools like OpenAI's Sora will make individual content creators "far, far, far less valuable" as social media platforms shift toward algorithmically generated content tailored to each viewer, according to Michael Mignano, a partner at venture capital firm Lightspeed and who cofounded the podcasting platform Anchor before Spotify acquired it. Speaking on a podcast, Mignano described a future where content is generated instantaneously and artificially to suit the viewer. The TikTok algorithm is powerful, he said, but it still requires human beings to make content -- and there's a cost to that. AI could drive those costs down significantly. Mignano called this shift the "death of the creator" in a post, acknowledging it was "devastating" but arguing it marked a "whole new chapter for the internet." In an email to Business Insider, Mignano wrote that quality will win out. "Platforms will no longer reward humans posting the same old, tried and true formats and memes," he wrote. "True uniqueness of image, likeness, and creativity will be the only viable path for human-created content."

Read more of this story at Slashdot.

  •  

C’est fâcheux : Zuckerberg aurait déjà « étouffé » son plus gros pari de l’année

2025 aura été l’année où Mark Zuckerberg a transformé Meta en pari géant sur la « superintelligence », en misant notamment sur de nouvelles têtes d’affiche comme Alexandr Wang. Problème : selon le Financial Times, la collaboration entre les deux hommes tangue déjà fortement. Des rumeurs qui viennent une nouvelle fois fragiliser la crédibilité stratégique du créateur de Facebook.

  •  

'Why I Quit Streaming And Got Back Into Cassettes'

"In the age of Spotify and AI slop, tapes remind us what we're missing when we stop taking risks," writes author Janus Rose in an article for 404 Media. Here's an excerpt: There are lots of advantages to the cassette lifestyle. Unlike vinyl records, tapes are compact and super-portable, and unlike streaming, you never have to worry about a giant company suddenly taking them away from you. They can be easily duplicated, shared, and made into mixtapes using equipment you find in a junk shop. When I was a kid, the first music I ever owned were tapes I recorded from MTV with a Kids' Fisher Price tape recorder. I had no money, so I would listen to those tapes for hours, relishing every word Kim Gordon exhaled on my bootlegged copy of Sonic Youth's "Bull in the Heather." Just like back then, my rediscovery of cassettes has led me to start listening more intentionally and deeply, devoting more and more time to each record without the compulsion to hit "skip." Most of the cassettes I bought in Tokyo had music I probably never would have found or spent time with otherwise. Getting reacquainted with tapes made me realize how much has been lost in the streaming era. Over the past two decades, platforms like Spotify co-opted the model of peer-to-peer filesharing pioneered by Napster and BitTorrent into a fully captured ecosystem. But instead of sharing, this ecosystem was designed around screen addiction, surveillance, and instant gratification -- with corporate middlemen and big labels reaping all the profits. Streaming seeks to virtually eliminate what techies like to call "user friction," turning all creative works into a seamless and unlimited flow of data, pouring out of our devices like water from a digital faucet. Everything becomes "Content," flattened into aesthetic buckets and laser-targeted by "perfect fit" algorithms to feed our addictive impulses. Thus the act of listening to music is transformed from a practice of discovery and communication to a hyper-personalized mood board of machine-optimized "vibes." What we now call "AI Slop" is just a novel and more cynically efficient vessel for this same process. Slop removes human beings as both author and subject, reducing us to raw impulses -- a digital lubricant for maximizing viral throughput. Whether we love or hate AI Slop is irrelevant, because human consumers are not its intended beneficiaries. In the minds of CEOs like OpenAI's Sam Altman, we're simply components in a machine built to maintain and accelerate information flows, in order to create value for an insatiably wealthy investor class. [...] Tapes and other physical media aren't a magic miracle cure for late-stage capitalism. But they can help us slow down and remember what makes us human. Tapes make music-listening into an intentional practice that encourages us to spend time connecting with the art, instead of frantically vibe-surfing for something that suits our mood from moment-to-moment. They reject the idea that the point of discovering and listening to music is finding the optimal collection of stimuli to produce good brain chemicals. More importantly, physical media reminds us that nothing good is possible if we refuse to take risks. You might find the most mediocre indie band imaginable. Or you might discover something that changes you forever. Nothing will happen if you play it safe and outsource all of your experiences to a content machine designed to make rich people richer.

Read more of this story at Slashdot.

  •  

Australia Poised for Desalination Boom as Water Shortages Loom

Australia is on track for a significant expansion of desalination capacity -- converting seawater to freshwater -- to meet the needs of a swelling population at a time of declining average rainfall. From a report: The world's driest inhabited continent is projected to build or expand 11 desalination plants worth more than A$23 billion ($15 billion) over the next 10 years, according to a research report by Dominic McNally at Oxford Economics. "Our population growth forecasts imply an additional 190GL/year in household water demand across major cities by 2035, while the booming data center industry also threatens to rapidly expand urban water use," he said. "This growing demand coincides with falling average rainfall in major population centers, increasing the vulnerability of existing infrastructure." Water construction activity slowed after 2010 as a severe drought receded. However, recent dry periods have reignited interest in water security and coincide with a new boom in water infrastructure investment, including desalination, McNally said.

Read more of this story at Slashdot.

  •  

Australian Eateries Turn To Automatic Tipping as Cost of Doing Business Climbs

Australian restaurants facing a mounting cost-of-doing-business crisis are turning to automatic service charges as a way to shore up revenue. The practice is legal under Australian consumer law as long as customers are notified beforehand and can opt out, but it risks alienating diners in a country where tipping has traditionally been optional. Wes Lambert, chief executive of the Australian Cafe and Restaurant Association, said only a handful of businesses in central business districts currently add automatic tips to bills, but the practice may spread as cost pressures continue. Automatic tipping is more common at venues frequented by international tourists, who view the practice as normal rather than exceptional. With international tourism now near pre-COVID levels, Lambert expects more restaurants to include tips on bills by default. A Sydney wine bar recently abandoned its 10 per cent automatic tip after a diner's social media post triggered public backlash. University of New South Wales professor Rob Nichols said Australia's resistance to tipping stems from the expectation that hospitality workers earn at least minimum wage, unlike in the United States where tips constitute most of a server's income. Australians and tourists tip an estimated $3.5 billion annually, and tipping transactions grew 13% year over year in fiscal 2024-25.

Read more of this story at Slashdot.

  •  

L’intelligence artificielle va « détruire complètement » le droit, alerte un avocat britannique

Interrogé par le magazine britannique The Spectator, un avocat senior livre une analyse sans concession de l’avenir des professions juridiques. Entre honoraires élevés, culture du prestige et gains économiques offerts par l’IA, le droit pourrait être bouleversé plus rapidement que prévu.

  •  

Ten Mistakes Marred Firewall Upgrade At Australian Telco, Contributing To Two Deaths

An independent review found that at least ten technical and process failures during a routine firewall upgrade at Australia's Optus prevented emergency calls from reaching Triple Zero for 14 hours, during which 455 calls failed and two callers died. The Register reports: On Thursday, Optus published an independent report (PDF) on the matter written by Dr Kerry Schott, an Australian executive who has held senior management roles at many of the country's most significant businesses. The report found that Optus planned 18 firewall upgrades and had executed 15 without incident. But on the 16th upgrade, Optus issued incorrect instructions to its outsourced provider Nokia. [...] Schott summarized the incident as follows: "Three issues are clear during this incident. The first is the very poor management and performance within [Optus] Networks and their contractor, Nokia. Process was not followed, and incorrect procedures were selected. Checks were inadequate, controls avoided and alerts given insufficient attention. There appeared to be reticence in seeking more experienced advice within Networks and a focus on speed and getting the task done, rather than an emphasis on doing things properly." The review also found that Optus' call center didn't appreciate it could be "the first alert channel for Triple Zero difficulties." The document also notes that Australian telcos try to route 000 calls during outages, but that doing so is not easy and is made harder by the fact that different smartphones behave in different ways. Optus does warn customers if their devices have not been tested for their ability to connect to 000, and maintains a list of known bad devices. But the report notes Optus's process "does not capture so-called 'grey' devices that have been bought online or overseas and may not be compliant." "To have a standard firewall upgrade go so badly is inexcusable," the document states. "Execution was poor and seemed more focussed on getting things done than on being right. Supervision of both network staff and Nokia must be more disciplined to get things right."

Read more of this story at Slashdot.

  •  
❌