Vue normale

Drones kamikazes au Venezuela, IA ultra cringe, Claude fait du jardinage — le récap’ de la semaine

11 janvier 2026 à 06:32

Cette semaine, c'était le CES à Las Vegas, et le monde de la tech s'est enthousiasmé pour toutes sortes de gadgets et de services. Mais ce n'était pas la seule chose à retenir dans l'actualité.

Vous devez absolument utiliser Claude en 2026 et je vous explique comment pas à pas

10 janvier 2026 à 09:38

Le web a fait sauter les barrières de la connaissance. L'IA générative, petit à petit, fait sauter les barrières de la création numérique. Si vous vous dites encore que ce n'est pas fait pour vous ou que vous ne vous y connaissez pas assez, vous êtes au bon endroit : on va créer, pas à pas, une petite extension Chrome. Et j'espère que cette expérience vous débloquera un nouvel horizon de possibilités.

Femmes déshabillées par Grok : après la polémique, X limite la génération d’images aux abonnés payants

9 janvier 2026 à 16:08

Après avoir suscité une polémique mondiale en laissant Grok, l’IA d’Elon Musk, générer des images sexualisées de femmes sans leur consentement sur X, plusieurs utilisateurs ont constaté que la génération d’images était désormais réservée aux abonnés premium de la plateforme.

Emily, la poupée sexuelle connectée au CES 2026, promet une relation évolutive et crée surtout le malaise

8 janvier 2026 à 12:20

Au CES 2026, Lovense a présenté Emily, une poupée humanoïde connectée dotée d’un moteur d’intelligence artificielle. Un produit qui ambitionne de transformer la poupée sexuelle en compagne interactive, tout en soulevant des questions éthiques.

Marre de ne rien comprendre à vos comptes rendus médicaux ? OpenAI lance ChatGPT Health… mais pas pour tout le monde

8 janvier 2026 à 10:56

OpenAI a dévoilé ChatGPT Health, un nouvel espace dédié à la santé directement intégré à son chatbot. Pour l’instant testée par une poignée d’utilisateurs, la fonctionnalité ne concerne pas encore l’Europe.

Ils ont entraîné une IA sur 585 000 heures de sommeil, et ses diagnostics bluffent les chercheurs

7 janvier 2026 à 13:10

Diamants sur canapé sommeil chat dormir

Un modèle d'intelligence artificielle nommé SleepFM promet d'être capable d'identifier pas moins de 130 maladies juste en analysant une nuit de sommeil. Des troubles rénaux aux attaques cardiaques, comment fonctionne cette IA, et est-elle fiable ?

Une nuit de sommeil et 130 maladies prédites. Que promet cette IA qui vous « regarde » dormir ?

7 janvier 2026 à 09:52

Diamants sur canapé sommeil chat dormir

Un modèle d'intelligence artificielle nommé SleepFM promet d'être capable d'identifier pas moins de 130 maladies juste en analysant une nuit de sommeil. Des troubles rénaux aux attaques cardiaques, comment fonctionne cette IA, et est-elle fiable ?

Elon Musk en rêvait, Razer l’a fait : voici Project AVA, une IA holographique ultra cringe

7 janvier 2026 à 08:47

À l'occasion du CES 2026, Razer a dévoilé la dernière évolution de Project AVA, une petite canette intégrant une IA holographique. Le concept, décrit comme un compagnon IA de bureau développé avec Grok, est déjà disponible en précommande. Et la vidéo de présentation est flippante.

Fini la science-fiction, le robot humanoïde Atlas va travailler dans les usines Hyundai dès 2028

6 janvier 2026 à 15:23

Lors du CES 2026, l’entreprise de robotique Boston Dynamics a dévoilé Atlas, la dernière génération de son robot humanoïde. Celui-ci doit être déployé progressivement dans les usines de Hyundai Motor à partir de 2028.

Une IA seule face à une plante : comment Claude (Anthropic) a maintenu un organisme en vie plus d’un mois

6 janvier 2026 à 10:01

Un développeur web a mené une expérience visant à maintenir un plant de tomate en vie grâce à Claude, l’IA d’Anthropic, sans aucune intervention humaine directe. L’expérience en est désormais à son 43ᵉ jour.

Arnaques en ligne : l’IA les rend plus sophistiquées, mais elle vous aide aussi à les déjouer [Sponso]

6 janvier 2026 à 06:30

Cet article a été réalisé en collaboration avec Bitdefender

Et si vous débutiez 2026 en disant stop aux arnaques en ligne ? Voici comment y parvenir facilement grâce à l’IA et à de bons outils (gratuits, pour certains).

Cet article a été réalisé en collaboration avec Bitdefender

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Amazon dévoile Alexa.com, sa réponse à ChatGPT et Gemini (mais il y a un mais)

6 janvier 2026 à 06:02

Amazon ne veut pas laisser le monopole du chatbot à OpenAI et Google. Au CES 2026, le géant du commerce a annoncé le lancement de « Alexa.com », une interface web conçue pour discuter avec son intelligence artificielle sans avoir à parler à une enceinte.

L’armée américaine lance une élite d’officiers IA pour « surpasser, devancer et manœuvrer n’importe quel adversaire »

5 janvier 2026 à 10:36

L’armée américaine ouvre un nouveau cursus pour former des officiers spécialistes de l’IA et du machine learning, officiellement réunis sous l’appellation 49B AI/ML Officer. Objectif affiché : transformer l’US Army en force « data‑centrée », capable de mieux tirer parti de l’écosystème d’outils d’IA déjà déployés sur le terrain.

Ils mènent des cyberattaques par les mots : qu’est-ce qu’une injection de prompt ?

4 janvier 2026 à 14:05

L’attaque par injection de prompt attire particulièrement l’attention des experts. Elle fait partie d'une nouvelle vague de risques cyber, liés à l'omniprésence de nouveaux outils dans nos usages quotidiens, ces dernières années : les modèles de langage (LLM).

Nouvelles sur l’IA de décembre 2025

4 janvier 2026 à 10:29

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
  • NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.

En vrac

OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.

En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.

Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).

En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).

Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.

Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.

L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.

DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.

Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.

Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.

Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.

La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).

Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.

Rétro-ingénierie du système de mémoires de ChatGPT.

Pour aller plus loin

Par Zvi Mowshowitz

Au 39e Chaos Communication Congress

Les événements touchant à l’IA au 39e Chaos Communication Congress :

Sur LinuxFr.org

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

C’est une honte : des hommes demandent à Grok de déshabiller des femmes et l’outil accepte

2 janvier 2026 à 11:17

Depuis fin décembre 2025, des milliers d’utilisateurs sur X demandent à Grok, l’IA d’Elon Musk, de générer des images de femmes déshabillées, sans leur consentement. Malgré un cadre juridique encore flou, des recours existent pour se protéger.

GTA 6, iPhone Fold et guerre Google/ChatGPT : nos 10 prédictions pour la tech en 2026

1 janvier 2026 à 12:25

Peut-on prédire l'avenir ? À quelques heures du coup d'envoi du CES 2026, le grand événement mondial qui devrait marquer le début de la nouvelle année pour l'actualité high-tech, Numerama vous propose ses prédictions sur les tendances des prochains mois. Impossible de prédire les actualités chaudes, évidemment, mais certaines choses importantes devraient arriver en 2026.

Lancement de la Journée d'Indépendance Numérique (DI-DAY) suite au 39c3

31 décembre 2025 à 16:30

Beaucoup de nos services numériques du quotidien sont propulsés en partie voire entièrement par les GAFAM. Les risques de cette dépendance s'illustrent de plus en plus fréquemment dans l'actualité : représailles envers l'ex-Commissaire européen Thierry Breton et des ONG luttant contre la désinformation en ligne, clôture de la boite de courriel du procureur de la Cour Pénale Internationale, …

Ces vulnérabilités mettent en danger le fonctionnement des démocraties européennes.

On peut être tenté d'attendre une nouvelle législation européenne, cependant le carburant de ces plateformes est en premier lieu nos données personnelles : quitter ces plateformes réduit à la fois notre exposition personnelle et notre contribution collective à ce système néfaste.

C'est le sens de l'appel lancé à Hambourg lors du 39ème CCC : le 4 janvier (puis chaque 1er dimanche du mois), faites migrer vos connaissances d'une des plateformes et faites le savoir en utilisant les mots clés #DiDay ou #iDidIt sur le Fediverse.

Cet appel est soutenu notamment par Wikimedia, Nextcloud et Mastodon, et l'information a été relayée par la 1ère chaîne de TV allemande. Espérons que des acteurs de l'espace francophone s'y joignent rapidement !

Linux est bien sûr une des alternatives, dont la progression est en bonne voie « grâce » à Microsoft (mouvement qui s'inscrit parfaitement dans les initiatives existantes Adieu Windows ou End Of 10). Mais l'initiative concernent tous les services dépendants de ces plateformes toxiques : messageries instantanées, stockage en ligne, librairies en lignes, … dont la gratuité ou les prix au rabais reposent sur l'exploitation de nos données personnelles.

Le succès dépend donc de vous qui lisez cet article, et des relais « physiques » qui pourront accompagner ces migrations : cafés réparation, GULLs, librairies physiques, bibliothèques, … mois après mois !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Sur YouTube, une vidéo sur 5 est désormais générée par IA

31 décembre 2025 à 06:05

Une étude révèle que 21 % des YouTube Shorts sont désormais générés par intelligence artificielle. Cette invasion de contenus IA transforme la plateforme de vidéos en ligne en une machine à vues qui rapporte 117 millions de dollars par an à une poignée de chaînes.

❌