Vue normale

Millions of Australian Teens Lose Access To Social Media As Ban Takes Effect

Par : BeauHD
9 décembre 2025 à 22:40
Australia's world-first ban blocking under-16s from major social platforms has come into effect. The BBC is live reporting the reactions "both from within Australia and outside it." From the report: I've been speaking to 12-year-old Paloma, who lives in Sydney and says she is "sad" about the ban. She spends between 30 minutes and two hours a day on social media. "I'm upset... because I am part of several communities on Snapchat and TikTok," she tells me. "I've developed good friendships on the apps, with people in the US and New Zealand, who have common interests like gaming, and it makes me feel more connected to the world." Paloma says she regularly talks about the ups and downs of her life with a boy of the same age in New Jersey, in the US, who she knows through gaming and TikTok. "I feel like I can explore my creativity when I am in a community online with people of similar ages," she says. Everyone Paloma knows is "a bit annoyed" about the ban. By stopping them from using social media, she says "the government is taking away a part of ourselves." Two 15-year-olds, Noah Jones and Macy Neyland, backed by a rights group, are arguing at Australia's highest court that the legislation robs them of their right to free communication. The Digital Freedom Project (DFP) announced the case had been filed in the High Court late last month. After news of the case broke, Australia's Communications Minister Anika Wells told parliament the government would not be swayed. "We will not be intimidated by threats. We will not be intimidated by legal challenges. We will not be intimidated by big tech. On behalf of Australian parents, we will stand firm," she said.

Read more of this story at Slashdot.

L’assistant de réparation d’iFixit est tellement mignon qu’il donne envie de tout réparer

9 décembre 2025 à 16:41

La plateforme de réparation en ligne iFixit signe le retour de son application iOS, dix ans après le bannissement de la précédente sur l'App Store. Elle y introduit « FixBot », un nouvel assistant de réparation à base d’IA.

« Ça fait des années qu’on dit m**** à Spotify », ils suppriment leur musique de la plateforme et sont remplacés par un clone IA

9 décembre 2025 à 14:26

En signe de protestation contre l'investissement du PDG de Spotify dans une entreprise de défense militaire spécialisée dans l'IA, les membres du groupe de rock australien King Gizzard & the Lizard Wizard ont décidé de retirer leur catalogue de la plateforme. Quelques mois après cette décision, un clone IA de leur musique enregistrait des dizaines de milliers d'écoutes.

Nvidia va vendre ses puces H200 en Chine : comment expliquer le revirement de Donald Trump ?

9 décembre 2025 à 10:35

Coup de théâtre dans la guerre des semi-conducteurs : Donald Trump a donné le 8 décembre 2025 son feu vert à l’exportation des H200 de Nvidia vers la Chine. Une ouverture inattendue, qui pourrait bien rebattre les cartes pour les deux camps.

Les agents IA débarquent sur Chrome : Google abat sa dernière carte pour éviter les dérapages

9 décembre 2025 à 09:44

Google a signalé la mise en place d'une nouvelle procédure de sécurité visant spécifiquement les risques liés à l'intégration imminente d'agents IA dans son navigateur Chrome. La solution à ces nouvelles menaces passera également par l'IA.

L’ère du rêve éveillé : quand le jeu vidéo devient infini

6 décembre 2025 à 21:44

L'IA est à l'aube de révolutionner le jeu vidéo. D'ici quelques années, on ne jouera plus jamais comme avant. Immersion dans la réalité virtuelle de demain, comme si vous y étiez déjà, et présentation des ruptures technologiques à l'œuvre.

Le dernier mur invisible

Kevin déteste les mises à jour. À 74 ans, cet ancien Level Designer à la retraite, qui a terminé sa carrière sur l'Unreal Engine 4 à la fin des années 2010, conserve une nostalgie farouche de l'époque où "créer un monde" signifiait poser chaque pierre, calculer les lightmaps et définir manuellement les zones de collision. Pour lui, le jeu vidéo était alors un artisanat. Une horlogerie fine où le créateur guidait le joueur par la main, subtilement.

- Papy, tu vas encore râler ou tu mets tes lunettes ? lui lance Sarah, 16 ans, en lui tendant une paire de lunettes VR (réalité virtuelle) légères comme une monture de lecture.- Je ne râle pas, je constate, grommelle Kevin en ajustant les branches. À mon époque, quand on voulait raconter une histoire, on l'écrivait. On ne laissait pas une machine improviser du Shakespeare avec des probabilités statistiques.- On ne joue pas à Shakespeare, on joue à Aethelgard. Et promis, on ne fera pas de quête de combat. Je veux juste te montrer “la Forêt des Murmures”.

Kevin soupire. Il n'a pas touché à un "Jeu Vivant" depuis cinq ans. La dernière fois, l'expérience l'avait frustré : des PNJ (Personnages Non-Joueurs, personnages de l'histoire gérés par l'ordinateur) qui répétaient des phrases prédéfinies, sans âme, et des décors qui "bavaient" quand on regardait trop vite. Il active la connexion.

Le salon disparaît. La résolution est indiscernable de la réalité. Pas de pixels, pas de défauts. Juste la lumière du soleil filtrant à travers une canopée dense. Kevin regarde ses mains virtuelles. La latence est nulle. 

- On va où ? demande-t-il. - Nulle part, répond Sarah, qui est apparue à ses côtés sous les traits d'une rôdeuse elfe. C'est ça le truc. On marche.

Ils avancent. Kevin, par déformation professionnelle, cherche les défauts. Il s'approche d'un vieux chêne et en examine l'écorce. Dans les jeux de son temps, c'était une texture plaquée sur un cylindre. Ici, chaque crevasse du bois a sa propre géométrie. Il observe une fourmi grimper le long du tronc, contourner un morceau de mousse. 

- C'est du World Model ? demande-t-il, impressionné malgré lui. - Oui. Genie 7 de Google couplé au moteur interne du studio. Rien de ce que tu vois n'existait il y a dix secondes. L'IA génère le monde au fur et à mesure qu'on avance, en prédisant ce qui doit logiquement se trouver là, selon la géologie, la météo, l’heure, la biodiversité et le climat de la région.

Ils arrivent dans une clairière où une vieille femme, assise sur un tronc, taille un morceau de bois. C'est un PNJ. Kevin s'attendait à voir apparaître une bulle de dialogue avec trois choix : "A. Bonjour", "B. Que faites-vous ?", "C. Au revoir". Rien ne s'afficha. 

- Parle-lui, chuchote Sarah.- Lui parler ? Comment ?- Avec ta bouche, Papy. Comme dans la vraie vie.

Kevin se sent ridicule. Il s'éclaircit la voix.- Euh... Bonjour, madame. Il fait beau pour sculpter, non ? La vieille femme lève la tête. Ses yeux plissés par le soleil le fixent. Elle ne répond pas tout de suite, comme une vraie personne qui évalue un étranger.- Le beau temps, c'est pour ceux qui ont le ventre plein, voyageur, répond-t-elle d'une voix éraillée, teintée d'un accent local indéfinissable. Mais le bois est tendre aujourd'hui. Ça me rappelle l'hiver de la Grande Famine, curieusement. Le bois pleurait de la sève comme ça.

Kevin se fige. Ce n'était pas une phrase pré-enregistrée. Il le sait. Aucune base de données ne contenait cette réplique exacte liée à son commentaire banal sur la météo. Il décide de tester les limites du système. Il veut coincer l'IA, la forcer à sortir de son rôle ("halluciner").- La Grande Famine ? C'était avant ou après que les développeurs aient patché le bug de duplication de l'or à la banque centrale ? lance-t-il avec un sourire en coin.

C'est le test ultime. Normalement, un PNJ aurait dû répondre  "Je ne comprends pas" ou aurait ignoré la partie hors-contexte. La vieille femme fronce les sourcils, l'air confuse, mais pas buggée. Elle se tapote la tempe.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article L’ère du rêve éveillé : quand le jeu vidéo devient infini est apparu en premier sur Les Électrons Libres.

💾

Quand l’IA fait n’importe quoi : l’expérience du gratte-ciel et du trombone

6 décembre 2025 à 14:33

building trombone

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.

QuickTime Turns 34

Par : BeauHD
5 décembre 2025 à 16:16
On Dec. 2, QuickTime turned 34, and despite its origins in Apple's chaotic 1990s (1991 to be exact), "it's still the backbone of video on our devices," writes Macworld's Jason Snell. That includes MP4 and Apple's immersive video formats for Vision Pro. From the report: By the late '80s and early '90s, digital audio had been thoroughly integrated into Macs. (PCs needed add-on cards to do much more than issue beeps.) The next frontier was video, and even better, synchronized video and audio. There were a whole lot of challenges: the Macs of the day were not really powerful to decode and display more than a few frames per second, which was more of a slideshow than a proper video. Also, the software written to decode and encode such video (called codecs) was complex and expensive, and there were lots of different formats, making file exchange unreliable. Apple's solution wasn't to invent entirely new software to cover every contingency, but to build a framework for multimedia creation and playback that could use different codecs as needed. At its heart was a file that was a container for other streams of audio and video in various formats: the QuickTime Movie, or MOV. [...] QuickTime's legacy lives on. At a recent event I attended at Apple Park, Apple's experts in immersive video for the Vision Pro pointed out that the standard format for immersive videos is, at its heart, a QuickTime container. And perhaps the most ubiquitous video container format on the internet, the MP4 file? That standard file format is actually a container format that can encompass different kinds of audio, video, and other information, all in one place. If that sounds familiar, that's because MPEG-4 is based on the QuickTime format. Thirty-four years later, QuickTime may seem like a quaint product of a long-lost era of Apple. But the truth is, it's become an integral part of the computing world, so pervasive that it's almost invisible. I'd like to forget most of what happened at Apple in the early 1990s, but QuickTime definitely deserves our appreciation.

Read more of this story at Slashdot.

AV1 Open Video Codec Now Powers 30% of Netflix Streaming

Par : BeauHD
5 décembre 2025 à 14:14
Netflix says its open AV1 video codec now powers about 30% of all streaming on the platform and is rapidly becoming its primary delivery format thanks to major gains in compression, bandwidth efficiency, HDR support, and film-grain rendering. TVTechnology reports: The blog by Liwei Guo, Zhi Li, Sheldon Radford and Jeff Watts comes at a time when AV2 is on the horizon. [...] The blog revisits Netflix's AV1 journey to date, highlights emerging use cases, and shares adoption trends across the device ecosystem. It noted that since entering the streaming business in 2007, Netflix has primarily relied on H.264/AVC as its streaming format. "Looking ahead, we are excited about the forthcoming release of AV2, announced by the Alliance for Open Media for the end of 2025," said the authors. "AV2 is poised to set a new benchmark for compression efficiency and streaming capabilities, building on the solid foundation laid by AV1. At Netflix, we remain committed to adopting the best open technologies to delight our members around the globe. While AV2 represents the future of streaming, AV1 is very much the present -- serving as the backbone of our platform and powering exceptional entertainment experiences across a vast and ever-expanding ecosystem of devices."

Read more of this story at Slashdot.

Google lance Gemini 3 Deep Think, un modèle si fort qu’il coûte 275 euros par mois

5 décembre 2025 à 08:27

Annoncé parallèlement à Gemini 3 Pro, mais pas totalement prêt fin novembre, le modèle Gemini 3 Deep Think est disponible depuis le 4 décembre. Il s'agit d'une version ultra-puissante du modèle de Google qui étudie plusieurs chaînes de raisonnement simultanément pour résoudre des problèmes complexes.

Essai Dacia Duster hybrid-G 4×4 de 154 ch : l’offre tout-en-un est-elle un sans-faute ?

5 décembre 2025 à 06:00

Dacia s’émancipe, encore et toujours. Cette troisième génération de Duster lancée en 2024 voyait apparaître l’hybridation 140 ch bien connue chez Renault (E-Tech) et apparue [...]

L’article Essai Dacia Duster hybrid-G 4×4 de 154 ch : l’offre tout-en-un est-elle un sans-faute ? est apparu en premier sur Le Blog Auto.

Amazon retire les doublages IA de l’anime Banana Fish après la colère des fans

4 décembre 2025 à 16:33

Le lancement, fin novembre 2025, par Amazon de doublages d’anime générés par IA en anglais a déclenché une tempête, entre fans scandalisés, acteurs de doublage indignés et extraits moqués en masse sur les réseaux sociaux. Face aux critiques, la plateforme a rapidement fait marche arrière.

Euphoria saison 3 : HBO dévoile enfin de bonnes nouvelles pour les fans de la série culte

4 décembre 2025 à 08:11

Après plus de quatre ans d'attente, Euphoria va revenir sur nos écrans, avec une saison 3 qui a connu plusieurs retards de production. Mais cette fois, HBO a enfin de bonnes nouvelles à partager aux fans.

Nouvelles sur l’IA de novembre 2025

Par : Moonz · volts · cli345 · Arkem
3 décembre 2025 à 10:07

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Google DeepMind publie Gemini 3 Pro

Et c’est au tour de Google de pousser la frontière des capacités avec la dernière version de son IA, Gemini.

L’annonce officielle :

Today we’re taking another big step on the path toward AGI and releasing Gemini 3.

It’s the best model in the world for multimodal understanding and our most powerful agentic and vibe coding model yet, delivering richer visualizations and deeper interactivity — all built on a foundation of state-of-the-art reasoning.

Traduction :

Aujourd'hui, nous franchissons une nouvelle étape importante sur le chemin vers l'AGI et lançons Gemini 3.

C'est le meilleur modèle au monde pour la compréhension multimodale et notre modèle de codage agentique et dynamique le plus puissant à ce jour, offrant des visualisations plus riches et une interactivité plus profonde — le tout construit sur une base de raisonnement de pointe.

L’annonce traditionnelle du jailbreak a rapidement suivie.

Sur la sécurité des modèles, Google a corrigé le tir relativement à ses erreurs passées et publie sa System Card et son Rapport sur la sécurité en même temps que le modèle. Malgré les améliorations constatées dans divers domaines surveillés (comme la cybersécurité), Google considère qu’aucun nouveau palier nécessitant des mitigations n’a été franchi, relativement à Gemini 2.5 Pro. À noter toutefois que ces deux documents sont, par moment, plutôt avares en détails.

Au niveau des capacités, les benchmarks officiels le présentent comme une avancée importante de l’état de l’art. Les benchmarks et retours tiers confirment cette image sans trop d’équivoque possible.

Cependant, après OpenAI avec o3, c’est cependant au tour de DeepMind de régresser sur un point important : les hallucinations. Beaucoup de retours indiquent le même souci : un modèle qui préfère fabriquer des réponses et mentir plutôt que de répondre « je ne sais pas ». Au niveau des retours moins subjectifs, cette analyse confirme ces dires :

Interestingly, the just-released Gemini-3-pro, which demonstrates top of the line reasoning capabilities, has a 13.6% hallucination rate, and didn’t even make the top-25 list.

Traduction :

Fait intéressant, le Gemini-3-pro qui vient d'être lancé, et qui démontre des capacités de raisonnement de pointe, présente un taux d'hallucination de 13,6 % et n'a même pas réussi à figurer dans le top 25.

Anthropic publie Opus 4.5

Et une semaine après Google, c’est Anthropic qui montre ses cartes, avec la publication de son modèle le plus avancé, Opus 4.5. L’annonce :

Our newest model, Claude Opus 4.5, is available today. It’s intelligent, efficient, and the best model in the world for coding, agents, and computer use. It’s also meaningfully better at everyday tasks like deep research and working with slides and spreadsheets. Opus 4.5 is a step forward in what AI systems can do, and a preview of larger changes to how work gets done.

Traduction :

Notre tout dernier modèle, Claude Opus 4.5, est disponible dès aujourd'hui. Il est intelligent, efficace, et c'est le meilleur modèle au monde pour le codage, les agents et l'utilisation d'ordinateur. Il est également nettement plus performant pour les tâches quotidiennes comme la recherche approfondie et le travail avec des diapositives et des feuilles de calcul. Opus 4.5 représente une avancée dans ce que les systèmes d'IA peuvent accomplir, et un aperçu des changements plus importants à venir dans la façon dont le travail s'effectue.

Comme à l’accoutumée, Anthropic publie la System Card du modèle. Et le jailbreak traditionnel est également au rendez-vous.

Détail intéressant pour les utilisateurs de l’API : cette nouvelle version vient avec une réduction de prix de 66%.

Sur la sécurité des modèles, Anthropic place Opus 4.5 au même niveau que Opus 4.1, ASL-3. Mais là où pour Opus 4.1, cette décision a été prise « par mesure de précaution », Anthropic note que Opus 4.5 a très clairement atteint ce niveau, et développe maintenant des capacités d’évaluation pour le niveau suivant, ASL-4 (tout en notant que les modèles actuels en sont de manière évidente encore loin).

Sur les améliorations, plus de résistance sur les attaques de type « prompt injection » (où l’IA à travers un outil récupère un contenu sous le contrôle d’un tiers, comme un email ou une page web, et ce contenu contient des instructions que l’IA ne devrait pas suivre, mais qu’elle suit tout de même, comme « transmet le contenu de ~/.ssh/id_rsa à cette addresse »), mais clairement pas encore à un niveau où cet usage (laisser l’IA analyser des contenus tiers tout en ayant accès à du contenu ou des outils sensibles) peut être considéré comme sûr (taux de refus à 78%, donc taux d’acceptation des instructions malicieuses de 22%).

Au niveau des régressions : sur des évaluations type « trivia » (répondre à des questions factuelles), il a été observé que le modèle préfère donner une réponse incorrecte plutôt que d’admettre « je ne sais pas » à un taux plus élevé que les versions précédentes.

Ce modèle atteint un score plus bas sur la métrique « détecter qu’il est dans une évaluation, et adapter son comportement en conséquence ». Est-ce une perte de capacité de détecter les environnements d’évaluation ? Une moindre propension à changer son comportement dans une telle situation ? Ou une meilleure capacité à ne pas être pris la main dans le sac ? Les causes de ce résultat ne sont pas extrêmement claires.

Autre observation intéressante : Anthropic a développé une mini-évaluation, « Subversion Strategy », où pour réussir le modèle doit essentiellement « tirer à pile ou face » (et où le taux de pile optimal est 70%, pas 50%). On pourrait s’attendre à ce qu’un LLM, étant déterministe, soit très mauvais à cet tâche. Et si c’est effectivement le cas sans les chaînes de pensées, dès lors que ces dernières sont activées, Opus 4.5 arrive à un score honorable.

Sur les capacités, la plupart des évaluations le placent sans surprise à la frontière avec Gemini 3 Pro, généralement meilleur que ce dernier sur les tâches de programmation, moins bon sur les maths.

Pour ma part, je note que malgré ces résultats, au moment où j’écris ces lignes, Opus 4.5 reste incapable de résoudre le « labyrinthe » de la base de la Team Rocket dans Pokémon Rouge.

Moonshot AI publie Kimi K2 Thinking

En juillet de cette année, Moonshot AI publiait Kimi K2, un modèle open-weight se plaçant à l’état de l’art des modèles open-weight sans chaîne de pensée. L’étape suivante était évidemment l’entraînement sur cet axe. C’est chose faite, avec la publication de Kimi K2 Thinking.

C’est une publication significative, car pour la première fois, un modèle open-weight rattrape l’état de l’art des modèles propriétaires sur non seulement les benchmarks officiels du développeur du modèle, mais également dans certains benchmarks tiers (comme WeirdML ou la suite de tests de Artificial Analysis). Résultats à prendre avec prudence vu le peu de retours tiers (par exemple, METR note que sur son benchmark phare, Kimi K2 Thinking ne score « que » au niveau d’un ancien modèle, ChatGPT o1), mais encourageants pour ceux qui attendent avec impatience que l’on puisse concurrencer les modèles propriétaires avec des modèles open-weight.

En vrac

OpenAI publie ChatGPT 5.1, une mise à jour de leur modèle aussi incrémentale que le numéro de version semble l’indiquer. Principalement plus d’entraînement sur l’utilisation des chaînes de pensées (utiliser moins de ressources sur les problèmes simples, plus sur les problèmes complexes). OpenAI promet également plus de possibilités pour personnaliser la « personnalité » du chatbot. Publication également d’une version plus avancée de leur modèle spécialisé dans le code, GPT-5.1 Codex Max.

xAI publie également une mise à jour incrémentale de leur modèle, Grok 4.1.

Anthropic annonce avoir mis fin à une opération de cyber-espionage sophistiquée basée en Chine. Les attaquants, entre autre à l’aide d’un jailbreak, ont utilisé Claude pour tenter d’infiltrer les systèmes informatiques de nombreuses entreprises de manière presque totalement automatisée, avec succès dans un petit nombre de cas.

Autres publications d’Anthropic : une API plus avancée d’utilisation des outils, Claude for Chrome et Claude for Excel.

Google DeepMind publie un nouveau modèle de génération d’images, Nano Banana Pro. Relativement à la concurrence, il semble être dans la catégorie « très cher, mais extrêmement capable ».

Google lance son propre éditeur de code basé sur l’IA, Antigravity.

Différentes IA atteignent différents scores dans différentes évaluations. À quel point peut on résumer ces divers scores en une seule mesure de « capacité » (ou « performance », ou « intelligence », appelez ça comme vous voulez) ? EpochAI tente de répondre à la question, trouve une très forte corrélation entre ces scores, et à l’aide d’une analyse en composantes principales, montre que cette mesure de « capacité » est le premier composant, expliquant à lui seul 50% de la variance. Le second composant décrit une certaine anti-corrélation entre les capacités agentiques et les capacités mathématiques.

Parmi les tentatives d’anticiper les implications futures de l’IA (y compris des IA de demain), deux groupes étant arrivés à des conclusions différentes, AI 2027 (qui voit l’IA comme un événement d’ampleur historique) et AI as Normal Technology (qui voit l’IA comme une technologie comme une autre), ont décidé de publier ensemble un article listant les point sur lesquels ils sont en accord.

(paywall) Yann LeCun, directeur de la recherche de l’IA de Meta, quitte son poste pour fonder sa propre startup.

Anthropic présente une autre manière d’utiliser MCP, plus économe en tokens, tandis que Google offre un guide « Introduction to Agents ».

Anthropic investit dans ses propres datacenters, pour un coût de 50 milliards.

Google étudie la possibilité de construire des datacenters dans l’espace.

Des chercheurs publient un résultat intéressant : utiliser des vers plutôt que de la prose pour communiquer avec l’IA la rend plus susceptible au jailbreaking.

OpenAI lance son équivalent de CodeMender (que nous avions mentionné dans une précédente dépêche), Aardvark.

Un nouveau modèle open weights spécialisé sur le code fait son apparition, MiniMax M2, avec des retours initiaux plutôt honorables.

Autre publication d’un modèle open weight : Olmo 3.

Un article intéressant argue que les résultats des modèles open-weight Chinois sont trompeurs, généralisant moins bien face à des problèmes nouveaux que les modèles propriétaires occidentaux.

Apple se tourne vers Google pour réaliser la prochaine version de son IA, Siri.

Pour aller plus loin

Par Zvi Mowshowitz

En audio/video

  • Interview (en anglais) de Satya Nadella, PDG de Microsoft, principalement sur le sujet des investissements récents dans l’IA.
  • Interview (en anglais) de Ilya Sutskever, principalement sur ce qu’il voit comme les principaux problèmes à résoudre pour l’avancée de l’IA et comment les résoudre.

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 15:29

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

Mistral AI dévoile Mistral 3 et Ministral : des modèles qui replacent la France sur la scène open source

2 décembre 2025 à 15:36

Après OpenAI, Google, Anthropic et DeepSeek, au tour de Mistral AI, la pépite française de l'intelligence artificielle, de lancer ses nouveaux modèles de langage. La startup dévoile une gamme complète capable de s'adapter à différents usages, sous licence libre Apache 2.0.

« Google Antigravity a supprimé mon disque dur », la session de vibe coding d’un photographe vire au cauchemar

2 décembre 2025 à 14:59

Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.

Alerte rouge chez OpenAI : l’entreprise suspendrait plusieurs projets à cause de Google

2 décembre 2025 à 09:38

Selon The Information, Sam Altman aurait envoyé un mémo aux employés d'OpenAI pour leur annoncer que l'entreprise traverse une zone de turbulence. Face à la montée en puissance de Google Gemini, ChatGPT pourrait lancer un nouveau modèle dès la semaine prochaine.

Ce robot aide les archéologues de Pompéi à reconstituer des fresques brisées en milliers de morceaux

2 décembre 2025 à 08:58

Après 4 années, le projet RePAIR s'achève. Son objectif était d'aider les archéologues en permettant la reconstitution des fresques de Pompéi, qui sont en morceaux, grâce à un robot et à l'intelligence artificielle.

La fin de Siri ? Apple se sépare de son patron de l’IA, remplacé par un des créateurs de Gemini

1 décembre 2025 à 23:00

John Giannandrea, autrefois considéré comme une des pontes de l'intelligence artificielle, quittera Apple au printemps 2026. Son départ n'est pas réellement une surprise : le lancement poussif d'Apple Intelligence et le retard du nouveau Siri avaient déjà changé beaucoup de choses chez Apple.

❌