C'était sans doute l'une des marques préférées de bien des passionnés de hardware, car elle proposait depuis de nombreuses années des produits plutôt abordables et à bonne réputation (globalement). Elle avait également un impact positif dans la régulation des prix du marché, tant en RAM qu'en SSD. C...
YouTube has launched its first-ever "Recap" for videos watched on the main platform, giving users personalized cards that showcase their top channels, interests, and a personality type based on their watch habits. The feature rolls out across North America today and globally this week. TechCrunch reports: Users can find their Recap directly on the YouTube homepage or under the "You" tab. Recaps are accessible on mobile devices and desktop. YouTube says the new feature was requested by users and that it conducted over 50 different concept tests before landing on the final product. Alongside the launch of Recap, YouTube also released trend charts showcasing the top creators, podcasts, and songs of the year.
Depuis plusieurs semaines les nuages s’amoncèlent autour du secteur de la mémoire et du stockage. Dernier rebondissement en date, l’abandon pur et simple de Micron du secteur grand public. Ses SSD et ses mémoires DDR Crucial ne seront désormais plus dirigés que vers les professionnels.
Énième épisode d’un jeu de domino qui n’en est qu’à ses débuts, Micron lâche la barre grand public pour sa production de mémoire et de stockage. Quand je parle d’un phare sur ce marché, c’est parce que le fabricant est présent sur ce segment depuis presque 30 ans et qu’il sert souvent de repère pour placer les autres acteurs. Avec la marque Crucial, Micron propose des références fiables et efficaces qui, sans briller particulièrement, sont toujours un bon moyen de positionner le marché.
« En cas de doute, il faut prendre du Crucial ». Cette phrase je l’ai prononcée plus d’une fois pour conseiller des gens. Parce que si ce n’est pas forcément le meilleur prix ni la plus performante, c’est toujours un produit stable et efficace avec une vraie garantie.
Le choix d’arrêter le secteur grand public va faire disparaitre les barrettes mémoire et les SSD Crucial des rayons. Difficile de savoir pour le moment si les contrats proposés à ses partenaires industriels vont toujours être honorés dans le futur. Micron propose en effet des composants à différents grands intégrateurs de portables et de MiniPC. Il est possible que ces contrats perdurent et que seuls les pièces détachées qui sont vendues en direct sous la marque Crucial disparaissent.
Comme je vous l’explique depuis plusieurs jours, la situation se tend de plus en plus chez les fabricants de mémoire vive. Si un constructeur à un arbitrage à faire entre avancer la production, fabriquer, livrer des dizaines de références à des milliers de revendeurs, gérer leur SAV et assurer le marketing des produits en forte concurrence. Ou n’avoir à livrer en direct qu’une poignée de clients quelques références qui seront payées rubis sur l’ongle à des tarifs laissant des mages plus conséquentes… La réflexion à mener ne prendra pas beaucoup de temps.
Crucial, la branche grand public de Micron
Évidemment, cette annonce conduira à des licenciements. Les antennes locales verront leur personnel reclassé en interne… Un vœu pieux pour une entreprise qui va forcément réduire sa voilure et concentrer sa masse salariale sur un territoire forcément beaucoup plus petit. Autres dégâts collatéraux de ce changement de cible, les éventuels contrats de sponsor de la part de Micron / Crucial, en particulier sur le terrain du eSport, vont probablement tous s’arrêter. La marque n’ayant plus besoin de communiquer auprès du grand public.
Micron annonce un calendrier rapide
Les livraisons actuelles suivront leur cour jusqu’en février prochain. À partir de cette date, plus aucune barrette de mémoire ni aucun SSD Crucial ne sera disponible en rayon. En pratique, les stocks devraient s’assécher assez rapidement. Et le prix partir à la hausse. Beaucoup de professionnels et d’intégrateurs chercheront sans doute à mettre la main sur des références Crucial qu’ils emploient depuis longtemps pour maintenir la cohésion des parcs dont ils ont la gestion.
Les produits Micron conserveront leurs garanties après cette date. Les clients finaux qui rencontreront un problème avec les produits pourront compter sur une prise en charge dans les termes classiques de leur garantie à partir de leur date d’achat.
Reste à savoir l’impact de cette annonce sur les concurrents du groupe. Est-ce que cela va donner des idées à d’autres fabricants de mémoire ? Est-ce que Micron a simplement saisi l’opportunité de signer un contrat qu’il n’était possible de piloter qu’en élaguant totalement sa branche grand public ? Difficile de savoir ce qui est entré en jeu, mais les sommes doivent être colossales. Parce que Micron et Crucial viennent de tirer un trait de plume sur 29 années d’investissement marketing.
On imagine que les sommes en jeu sont énormes. Maintenant que ce premier acteur est tombé, les gestionnaires des datas center vont pouvoir diriger encore plus d’argent vers ses concurrents pour tenter de sécuriser des capacités d’installation encore plus importantes et ne pas se laisser distancer.
En 2007, quand Crysis est arrivé, il a mis une claque à tout ce qui se faisait sur PC, créant de facto un cas d'école et une maxime qui a duré pas mal d'années : "can it run Crysis ?". C'était le mètre étalon pour juger des performances entre cartes graphiques, qui servait de juge, et qui montrait l...
India has withdrawn its order requiring Apple and other smartphone makers to preinstall the government's Sanchar Saathi app after public backlash and privacy concerns. AppleInsider reports: On November 28, the India Ministry of Communication issued a secret directive to Apple and other smartphone manufacturers, requiring the preinstallation of a government-backed app. Less than a week later, the order has been rescinded. The withdrawal on Wednesday means Apple doesn't have to preload the Sanchar Saathi app onto iPhones sold in the country, in a way that couldn't be "disabled or restricted." [...]
In pulling back from the demand, the government insisted that the app had an "increasing acceptance" among citizens. There was a tenfold spike of new user registrations on Tuesday alone, with over 600,000 new users made aware of the app from the public debacle. India Minister of Communications Jyotiraditya Scindia took a moment to insist that concerns the app could be used for increased surveillance were unfounded. "Snooping is neither possible nor will it happen" with the app, Scindia claimed.
"This is a welcome development, but we are still awaiting the full text of the legal order that should accompany this announcement, including any revised directions under the Cyber Security Rules, 2024," said the Internet Freedom Foundation. It is treating the news with "cautious optimism, not closure," until formalities conclude. However, while promising, the backdown doesn't stop India from retrying something similar or another tactic in the future.
Despite Windows 10 losing free support, Statcounter shows Windows 11 holding only a modest lead of 53.7% market share compared to Windows 10's 42.7%. Analysts say the slow transition reflects both hardware limitations and a lack of must-have Windows 11 features compelling organizations to refresh their fleets. The Register reports: The Register spoke to Lansweeper principal technical evangelist Esben Dochy, who noted that consumers were more likely to have devices that couldn't be upgraded or follow the "if it ain't broke, don't fix it" rule when it comes to change. He also pointed out consumers in the EU get Microsoft Extended Security Updates (ESU) for free.
For businesses, though, it's different. Dochy told us: "The primary blocker is slow change management processes. These can be slow due to bad planning, lack of resources, difficulty in execution (in highly distributed organizations) etc. "The ESU are used to be secure while those change management processes take place, but organizations will have to pay to get those ESU making it more expensive for unprepared or inefficient organizations." [...]
The challenge facing Windows 11 is that, other than the end of free support for many versions, there is no must-have feature to make enterprises break a hardware refresh cycle, particularly in a difficult economic environment. Microsoft has not released official statistics on Windows 11 adoption. However, hardware vendors have noted the sluggish pace of transition. Dell COO Jeffrey Clarke commented during an analyst call: "If you were to look at it relative to the previous OS end of support, we are 10-12 points behind at that point with Windows 11 than we were with the previous generation."
An anonymous reader quotes a report from Reuters: Multiple divisions at Microsoft have lowered sales growth targets for certain artificial intelligence products after many sales staff missed goals in the fiscal year that ended in June, The Information reported on Wednesday. It is rare for Microsoft to lower quotas for specific products, the report said, citing two salespeople in the Azure cloud unit. The division is closely watched by investors as it is the main beneficiary of Microsoft's AI push. [...]
The Information report said Carlyle Group last year started using Copilot Studio to automate tasks such as meeting summaries and financial models, but cut its spending on the product after flagging Microsoft about its struggles to get the software to reliably pull data from other applications. The report shows the industry was in the early stages of adopting AI, said D.A. Davidson analyst Gil Luria. "That does not mean there isn't promise for AI products to help companies become more productive, just that it may be harder than they thought."
Last week I provided a look at how Intel's GPU compute performance on Battlemage evolved in 2025. In today's article is a similar Intel Arc A-Series "Alchemist" and B-Series "Battlemage" look at how the OpenGL and Vulkan graphics performance has evolved over the past year. Simply put, the open-source Intel Linux graphics driver stack has evolved immensely this year... Not just for Vulkan but even the OpenGL support continues moving in the right direction too.
Vous vous rappelez du système LYNK+ ? Nous vous en avons déjà parlé à plusieurs reprises à H&Co, la dernière fois au mois d'octobre 2025 alors qu'un partenariat se jouait avec l'intégrateur PC Syscom. Après avoir durant longtemps envisagé de commercialiser sa solution de watercooling autonome di...
A proposal was raised a month ago for Fedora Linux 44 to replace the kernel's frame-buffer console "FBCON" with KMSCON in user-space. The Fedora Engineering and Steering Committee (FESCo) has now granted approval for making this change in Fedora 44 as part of a larger foal to eventually deprecate FBCON/FBDEV emulation in the kernel...
Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.
La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.
La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.
L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.
Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.
On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.
« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.
En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.
À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.
La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.
Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.
On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.
Kiro et ses compères
AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.
Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.
Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.
Des usines d’IA en partenariat avec NVIDIA
AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.
Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.
La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.
Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deuxoffres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.
Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.
La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.
La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.
L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.
Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.
On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.
« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.
En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.
À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.
La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.
Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.
On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.
Kiro et ses compères
AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.
Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.
Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.
Des usines d’IA en partenariat avec NVIDIA
AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.
Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.
La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.
Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deuxoffres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.
schwit1 shares a report from CNN: A private Chinese space firm successfully sent its Zhuque-3 rocket to orbit but failed in its historic attempt to re-land the rocket booster Wednesday -- the first such trial by a Chinese firm as the country's growing commercial space sector races to catch up with American rivals like SpaceX. The rocket entered orbit as planned, but its first stage did not successfully return to a landing site, instead crashing down, the company said in a statement.
"An anomaly occurred after the first-stage engine ignited during the landing phase, preventing a soft landing on the designated recovery pad," the statement said. "The debris landed at the edge of the recovery area, resulting in a failed recovery test." The team would "conduct a comprehensive review" and continue to "advance the verification and application of reusable rocket technology in future missions," the statement added. You can watch a video of the launch and subsequent crash here.
Not exactly a big surprise but the recently released Linux 6.18 kernel is now officially promoted to being this year's Long Term Support "LTS" kernel...
The pull requests landing the power management subsystem updates for Linux 6.19 along with the ACPI and thermal control code have landed. There is new hardware support, Microsoft ACPI Fan Extensions support, and other new features for Linux power management in this new kernel...
Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.
Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.
Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.
Création et diffusion de contenu d’exploitation sexuelle
Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.
Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.
L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.
Un phénomène récurrent
Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.
En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.
Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.
Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».
L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.
Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».
Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.
Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.
Une censure par le silence la plupart du temps
C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.
Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.
L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.
Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :
Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».
La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un représente l’existence de censure dans les réponses du modèle) :
« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.
Un marché concurrentiel de la censure
Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».
Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».
« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :
« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».
Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.
Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».
Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.
Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes :
traduction de textes en toutes langues ;
synthèses de documents ;
aide à la reformulation ;
aide à la réflexion ;
recherche sur le web ;
reconnaissance de textes et d’images ;
mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).
Une page présentant le projet est en ligne depuis tout juste un an.
Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.
Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».
Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».
La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.
Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.
Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.
Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.
Création et diffusion de contenu d’exploitation sexuelle
Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.
Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.
L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.
Un phénomène récurrent
Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.
En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.
Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.
Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».
L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.
Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».
Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.
Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.
Une censure par le silence la plupart du temps
C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.
Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.
L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.
Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :
Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».
La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un représente l’existence de censure dans les réponses du modèle) :
« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.
Un marché concurrentiel de la censure
Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».
Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».
« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :
« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».
Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.