Vue normale

Reçu aujourd’hui — 3 décembre 2025Actualités numériques

HBO Max Botches Mad Men's 4K Debut After Streaming Wrong File Showing Visible Crewmembers

Par :BeauHD
3 décembre 2025 à 20:20
HBO Max's 4K debut of Mad Men was botched after Lionsgate reportedly supplied the wrong file, leading to visible crew members where someone is seen pumping a vomit hose. Ars Technica reports: Mad Men ran on the AMC channel for seven seasons from 2007 to 2015. The show had a vintage aesthetic, depicting the 1960s advertising industry in New York City. Last month, HBO Max announced it would modernize the show by debuting a 4K version. The show originally aired in SD and HD resolutions and had not been previously made available in 4K through other means, such as Blu-ray. However, viewers were quick to spot problems with HBO Max's 4K Mad Men stream, the most egregious being visible crew members in the background of a scene. The episode was "Red in the Face" (Season 1, Episode 7), which was reportedly mislabeled. In it, Roger Sterling (John Slattery) throws up oysters. In the 4K version that was streaming on HBO Max, viewers could see someone pumping a vomit hose to make the fake puke flow. The Hollywood Reporter, citing an anonymous source, said that the error happened because Mad Men production company Lionsgate gave HBO Max the wrong file. The publication reported that Lionsgate "was working on getting HBO Max the correct file(s)" and was readying to provide them at approximately 10 a.m. PT today. The blunder is likely to be fixed for all viewers soon. There were no problems with the HD versions of HBO Max's Mad Men stream.

Read more of this story at Slashdot.

La ligne grand public de SSD et de RAM Crucial sacrifiée sur l’autel de l’IA

Micron a annoncé l’arrêt de son activité grand public via Crucial, dans le monde entier d’ici la fin du deuxième trimestre fiscal, lequel s’achève en février 2026. Autrement dit, les produits liés à la mémoire et au stockage estampillés Crucial disparaîtront des rayons d’ici quelques mois... [Tout lire]

Adieu Crucial ! Poussé par les pénuries de DDR5 et SSD, Micron met fin à sa marque grand public

C'était sans doute l'une des marques préférées de bien des passionnés de hardware, car elle proposait depuis de nombreuses années des produits plutôt abordables et à bonne réputation (globalement). Elle avait également un impact positif dans la régulation des prix du marché, tant en RAM qu'en SSD. C...

YouTube Releases Its First-Ever Recap of Videos You've Watched

Par :BeauHD
3 décembre 2025 à 19:19
YouTube has launched its first-ever "Recap" for videos watched on the main platform, giving users personalized cards that showcase their top channels, interests, and a personality type based on their watch habits. The feature rolls out across North America today and globally this week. TechCrunch reports: Users can find their Recap directly on the YouTube homepage or under the "You" tab. Recaps are accessible on mobile devices and desktop. YouTube says the new feature was requested by users and that it conducted over 50 different concept tests before landing on the final product. Alongside the launch of Recap, YouTube also released trend charts showcasing the top creators, podcasts, and songs of the year.

Read more of this story at Slashdot.

Micron abandonne mémoire et SSD grand public

3 décembre 2025 à 19:35

Depuis plusieurs semaines les nuages s’amoncèlent autour du secteur de la mémoire et du stockage. Dernier rebondissement en date, l’abandon pur et simple de Micron du secteur grand public. Ses SSD et ses mémoires DDR Crucial ne seront désormais plus dirigés que vers les professionnels.

Énième épisode d’un jeu de domino qui n’en est qu’à ses débuts, Micron lâche la barre grand public pour sa production de mémoire et de stockage. Quand je parle d’un phare sur ce marché, c’est parce que le fabricant est présent sur ce segment depuis presque 30 ans et qu’il sert souvent de repère pour placer les autres acteurs. Avec la marque Crucial, Micron propose des références fiables et efficaces qui, sans briller particulièrement, sont toujours un bon moyen de positionner le marché.

« En cas de doute, il faut prendre du Crucial ». Cette phrase je l’ai prononcée plus d’une fois pour conseiller des gens. Parce que si ce n’est pas forcément le meilleur prix ni la plus performante, c’est toujours un produit stable et efficace avec une vraie garantie. 

Micron

Le choix d’arrêter le secteur grand public va faire disparaitre les barrettes mémoire et les SSD Crucial des rayons. Difficile de savoir pour le moment si les contrats proposés à ses partenaires industriels vont toujours être honorés dans le futur. Micron propose en effet des composants à différents grands intégrateurs de portables et de MiniPC. Il est possible que ces contrats perdurent et que seuls les pièces détachées qui sont vendues en direct sous la marque Crucial disparaissent.

Comme je vous l’explique depuis plusieurs jours, la situation se tend de plus en plus chez les fabricants de mémoire vive. Si un constructeur à un arbitrage à faire entre avancer la production, fabriquer, livrer des dizaines de références à des milliers de revendeurs, gérer leur SAV et assurer le marketing des produits en forte concurrence. Ou n’avoir à livrer en direct qu’une poignée de clients quelques références qui seront payées rubis sur l’ongle à des tarifs laissant des mages plus conséquentes… La réflexion à mener ne prendra pas beaucoup de temps.

Crucial, la branche grand public de Micron

Crucial, la branche grand public de Micron

Évidemment, cette annonce conduira à des licenciements. Les antennes locales verront leur personnel reclassé en interne… Un vœu pieux pour une entreprise qui va forcément réduire sa voilure et concentrer sa masse salariale sur un territoire forcément beaucoup plus petit. Autres dégâts collatéraux de ce changement de cible, les éventuels contrats de sponsor de la part de Micron / Crucial, en particulier sur le terrain du eSport, vont probablement tous s’arrêter. La marque n’ayant plus besoin de communiquer auprès du grand public.

Micron annonce un calendrier rapide

Les livraisons actuelles suivront leur cour jusqu’en février prochain. À partir de cette date, plus aucune barrette de mémoire ni aucun SSD Crucial ne sera disponible en rayon. En pratique, les stocks devraient s’assécher assez rapidement. Et le prix partir à la hausse. Beaucoup de professionnels et d’intégrateurs chercheront sans doute à mettre la main sur des références Crucial qu’ils emploient depuis longtemps pour maintenir la cohésion des parcs dont ils ont la gestion.

Les produits Micron conserveront leurs garanties après cette date. Les clients finaux qui rencontreront un problème avec les produits pourront compter sur une prise en charge dans les termes classiques de leur garantie à partir de leur date d’achat.

Reste à savoir l’impact de cette annonce sur les concurrents du groupe. Est-ce que cela va donner des idées à d’autres fabricants de mémoire ? Est-ce que Micron a simplement saisi l’opportunité de signer un contrat qu’il n’était possible de piloter qu’en élaguant totalement sa branche grand public ? Difficile de savoir ce qui est entré en jeu, mais les sommes doivent être colossales. Parce que Micron et Crucial viennent de tirer un trait de plume sur 29 années d’investissement marketing.

On imagine que les sommes en jeu sont énormes. Maintenant que ce premier acteur est tombé, les gestionnaires des datas center vont pouvoir diriger encore plus d’argent vers ses concurrents pour tenter de sécuriser des capacités d’installation encore plus importantes et ne pas se laisser distancer.

La hausse de la mémoire vive va impacter tout le secteur

HP réagit face à la hausse de la mémoire vive

Micron abandonne mémoire et SSD grand public © MiniMachines.net. 2025

La fameuse question "Can it run Crysis ?" a une réponse : la GeForce RTX 5090 le peut, mais dans quelles conditions ?

En 2007, quand Crysis est arrivé, il a mis une claque à tout ce qui se faisait sur PC, créant de facto un cas d'école et une maxime qui a duré pas mal d'années : "can it run Crysis ?". C'était le mètre étalon pour juger des performances entre cartes graphiques, qui servait de juge, et qui montrait l...

India Pulls Its Preinstalled iPhone App Demand

Par :BeauHD
3 décembre 2025 à 18:18
India has withdrawn its order requiring Apple and other smartphone makers to preinstall the government's Sanchar Saathi app after public backlash and privacy concerns. AppleInsider reports: On November 28, the India Ministry of Communication issued a secret directive to Apple and other smartphone manufacturers, requiring the preinstallation of a government-backed app. Less than a week later, the order has been rescinded. The withdrawal on Wednesday means Apple doesn't have to preload the Sanchar Saathi app onto iPhones sold in the country, in a way that couldn't be "disabled or restricted." [...] In pulling back from the demand, the government insisted that the app had an "increasing acceptance" among citizens. There was a tenfold spike of new user registrations on Tuesday alone, with over 600,000 new users made aware of the app from the public debacle. India Minister of Communications Jyotiraditya Scindia took a moment to insist that concerns the app could be used for increased surveillance were unfounded. "Snooping is neither possible nor will it happen" with the app, Scindia claimed. "This is a welcome development, but we are still awaiting the full text of the legal order that should accompany this announcement, including any revised directions under the Cyber Security Rules, 2024," said the Internet Freedom Foundation. It is treating the news with "cautious optimism, not closure," until formalities conclude. However, while promising, the backdown doesn't stop India from retrying something similar or another tactic in the future.

Read more of this story at Slashdot.

Windows 11 Growth Slows As Millions Stick With Windows 10

Par :BeauHD
3 décembre 2025 à 17:17
Despite Windows 10 losing free support, Statcounter shows Windows 11 holding only a modest lead of 53.7% market share compared to Windows 10's 42.7%. Analysts say the slow transition reflects both hardware limitations and a lack of must-have Windows 11 features compelling organizations to refresh their fleets. The Register reports: The Register spoke to Lansweeper principal technical evangelist Esben Dochy, who noted that consumers were more likely to have devices that couldn't be upgraded or follow the "if it ain't broke, don't fix it" rule when it comes to change. He also pointed out consumers in the EU get Microsoft Extended Security Updates (ESU) for free. For businesses, though, it's different. Dochy told us: "The primary blocker is slow change management processes. These can be slow due to bad planning, lack of resources, difficulty in execution (in highly distributed organizations) etc. "The ESU are used to be secure while those change management processes take place, but organizations will have to pay to get those ESU making it more expensive for unprepared or inefficient organizations." [...] The challenge facing Windows 11 is that, other than the end of free support for many versions, there is no must-have feature to make enterprises break a hardware refresh cycle, particularly in a difficult economic environment. Microsoft has not released official statistics on Windows 11 adoption. However, hardware vendors have noted the sluggish pace of transition. Dell COO Jeffrey Clarke commented during an analyst call: "If you were to look at it relative to the previous OS end of support, we are 10-12 points behind at that point with Windows 11 than we were with the previous generation."

Read more of this story at Slashdot.

Microsoft Lowers AI Software Sales Quota As Customers Resist New Products

Par :BeauHD
3 décembre 2025 à 16:16
An anonymous reader quotes a report from Reuters: Multiple divisions at Microsoft have lowered sales growth targets for certain artificial intelligence products after many sales staff missed goals in the fiscal year that ended in June, The Information reported on Wednesday. It is rare for Microsoft to lower quotas for specific products, the report said, citing two salespeople in the Azure cloud unit. The division is closely watched by investors as it is the main beneficiary of Microsoft's AI push. [...] The Information report said Carlyle Group last year started using Copilot Studio to automate tasks such as meeting summaries and financial models, but cut its spending on the product after flagging Microsoft about its struggles to get the software to reliably pull data from other applications. The report shows the industry was in the early stages of adopting AI, said D.A. Davidson analyst Gil Luria. "That does not mean there isn't promise for AI products to help companies become more productive, just that it may be harder than they thought."

Read more of this story at Slashdot.

Intel's Open-Source Linux Graphics Driver Delivered Significant Improvements In 2025

3 décembre 2025 à 17:30
Last week I provided a look at how Intel's GPU compute performance on Battlemage evolved in 2025. In today's article is a similar Intel Arc A-Series "Alchemist" and B-Series "Battlemage" look at how the OpenGL and Vulkan graphics performance has evolved over the past year. Simply put, the open-source Intel Linux graphics driver stack has evolved immensely this year... Not just for Vulkan but even the OpenGL support continues moving in the right direction too.

L'AIO pour GeForce RTX 5090 LYNK+ est maintenant disponible, et déjà testé !

Vous vous rappelez du système LYNK+ ? Nous vous en avons déjà parlé à plusieurs reprises à H&Co, la dernière fois au mois d'octobre 2025 alors qu'un partenariat se jouait avec l'intégrateur PC Syscom. Après avoir durant longtemps envisagé de commercialiser sa solution de watercooling autonome di...

Fedora 44 Cleared To Replace Kernel Console With User-Space KMSCON

3 décembre 2025 à 16:26
A proposal was raised a month ago for Fedora Linux 44 to replace the kernel's frame-buffer console "FBCON" with KMSCON in user-space. The Fedora Engineering and Steering Committee (FESCo) has now granted approval for making this change in Fedora 44 as part of a larger foal to eventually deprecate FBCON/FBDEV emulation in the kernel...

re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

3 décembre 2025 à 15:59
re:Inventer toujours la même chose
re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.

La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.

La famille Nova 2 débarque avec quatre modèles

La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.

L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.

Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.

On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.

« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.

En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.

À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.

Alors que revoilà les agents

La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.

Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.

On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.

Kiro et ses compères

AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.

Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.

Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.

Des usines d’IA en partenariat avec NVIDIA

AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.

Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.

La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.

Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deux offres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.

re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

3 décembre 2025 à 15:59
re:Inventer toujours la même chose
re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.

La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.

La famille Nova 2 débarque avec quatre modèles

La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.

L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.

Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.

On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.

« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.

En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.

À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.

Alors que revoilà les agents

La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.

Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.

On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.

Kiro et ses compères

AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.

Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.

Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.

Des usines d’IA en partenariat avec NVIDIA

AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.

Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.

La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.

Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deux offres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.

Chinese Reusable Booster Explodes During First Orbital Test

Par :BeauHD
3 décembre 2025 à 15:15
schwit1 shares a report from CNN: A private Chinese space firm successfully sent its Zhuque-3 rocket to orbit but failed in its historic attempt to re-land the rocket booster Wednesday -- the first such trial by a Chinese firm as the country's growing commercial space sector races to catch up with American rivals like SpaceX. The rocket entered orbit as planned, but its first stage did not successfully return to a landing site, instead crashing down, the company said in a statement. "An anomaly occurred after the first-stage engine ignited during the landing phase, preventing a soft landing on the designated recovery pad," the statement said. "The debris landed at the edge of the recovery area, resulting in a failed recovery test." The team would "conduct a comprehensive review" and continue to "advance the verification and application of reusable rocket technology in future missions," the statement added. You can watch a video of the launch and subsequent crash here.

Read more of this story at Slashdot.

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

3 décembre 2025 à 14:20
La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

❌