Dans une version bêta publiée le 25 novembre, Valve a introduit un changement technique majeur pour le client Steam : le passage au tout 64 bits pour Windows 10 et 11. Pour les personnes possédant un Windows 10 en 32 bits, la version 32 bits de Steam recevra des mises à jour jusqu’au 1ᵉʳ janvier 2026. Il ne reste donc qu’un mois.
Cette transition vers le 64 bits ne devrait rien changer côté utilisateurs. La nouvelle est « satisfaisante » d’un point de vue technique, mais un passage au 64 bits sur ce type d’application n’entraine aucun gain visible. La transition devenait pressante cependant pour d’autres raisons, principalement de compatibilité, les composants et pilotes 32 bits étant presque tous abandonnés.
On remarque cependant que Valve est en pleine modernisation de ses clients. Au cours des derniers mois, l’entreprise a ainsi lancé une version native pour les Mac Apple Silicon. Cette fois, le gain de performances était majeur, car l’ancienne version était prévue pour l’architecture x86 des anciens Mac Intel. L’application se lançait, mais via la couche d’émulation Rosetta, et offrait des performances particulièrement dégradées.
Cette phase de modernisation s’est incarnée également le 20 novembre avec le lancement du Steam Runtime 4.0 pour Linux, le composant principal de Steam pour le lancement des jeux et le lien avec la couche Proton (passée récemment en version 10). Cette version 4.0 a apporté des changements majeurs, notamment un appui sur les bibliothèques de Debian 13 contre 11 précédemment.
L’éditeur avertissait d’ailleurs les développeurs que l’utilisation de cette version entrainerait des cassures de rétrocompatibilité. On peut également voir dans les changements que la plupart des bibliothèques ne sont désormais plus disponibles qu’en x86_64.
Dans son nouveau rapport, l’Anses arrive à la conclusion qu’il n’y a « pas de lien de cause à effet établi entre ondes et cancer ». C’est du moins la conclusion après analyse des connaissances disponibles jusqu’en mai 2025. Il reste encore de nombreuses questions et de futurs travaux pourraient apporter de nouveaux éléments.
L’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) vient de mettre à jour son dossier sur les radiofréquences et le cancer. Elle explique que, depuis ses précédentes évaluations de 2013 et 2016, « près d’un millier d’études scientifiques ont été menées, enrichissant considérablement les connaissances sur ce sujet ».
Sautons directement à la conclusion, qui « ne met pas en évidence de lien entre l’exposition aux ondes radiofréquences, principalement émises par la téléphonie mobile, et l’apparition de cancers ». Pour le dire autrement : les données conduisent à « ne pas établir de lien de cause à effet entre l’exposition aux ondes et l’apparition de cancers ». Parmi les experts du Comité, il y a une voix dissonante.
Quoi qu’il en soit, l’Agence « maintient néanmoins ses recommandations de prudence, en particulier pour les enfants ». Nous y reviendrons en fin d’article.
Études épidémiologiques sur l’Homme vs sur l’animal
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans une version bêta publiée le 25 novembre, Valve a introduit un changement technique majeur pour le client Steam : le passage au tout 64 bits pour Windows 10 et 11. Pour les personnes possédant un Windows 10 en 32 bits, la version 32 bits de Steam recevra des mises à jour jusqu’au 1ᵉʳ janvier 2026. Il ne reste donc qu’un mois.
Cette transition vers le 64 bits ne devrait rien changer côté utilisateurs. La nouvelle est « satisfaisante » d’un point de vue technique, mais un passage au 64 bits sur ce type d’application n’entraine aucun gain visible. La transition devenait pressante cependant pour d’autres raisons, principalement de compatibilité, les composants et pilotes 32 bits étant presque tous abandonnés.
On remarque cependant que Valve est en pleine modernisation de ses clients. Au cours des derniers mois, l’entreprise a ainsi lancé une version native pour les Mac Apple Silicon. Cette fois, le gain de performances était majeur, car l’ancienne version était prévue pour l’architecture x86 des anciens Mac Intel. L’application se lançait, mais via la couche d’émulation Rosetta, et offrait des performances particulièrement dégradées.
Cette phase de modernisation s’est incarnée également le 20 novembre avec le lancement du Steam Runtime 4.0 pour Linux, le composant principal de Steam pour le lancement des jeux et le lien avec la couche Proton (passée récemment en version 10). Cette version 4.0 a apporté des changements majeurs, notamment un appui sur les bibliothèques de Debian 13 contre 11 précédemment.
L’éditeur avertissait d’ailleurs les développeurs que l’utilisation de cette version entrainerait des cassures de rétrocompatibilité. On peut également voir dans les changements que la plupart des bibliothèques ne sont désormais plus disponibles qu’en x86_64.
Their announcement calls it "more than a multicloud solution," saying it's "a step toward a more open cloud environment. The API specifications developed for this product are open for other providers and partners to adopt, as we aim to simplify global connectivity for everyone."
Amazon and Google are introducing "a jointly developed multicloud networking service," reports Reuters. "The initiative will enable customers to establish private, high-speed links between the two companies' computing platforms in minutes instead of weeks."
The new service is being unveiled a little over a month after an Amazon Web Services outage on October 20 disrupted thousands of websites worldwide, knocking offline some of the internet's most popular apps, including Snapchat and Reddit. That outage will cost U.S. companies between $500 million and $650 million in losses, according to analytics firm Parametrix.
Google and Amazon are promising "high resiliency" through "quad-redundancy across physically redundant interconnect facilities and routers," with both Amazon and Google continuously watching for issues. (And they're using MACsec encryption between the Google Cloud and AWS edge routers, according to Sunday's announcement:
As organizations increasingly adopt multicloud architectures, the need for interoperability between cloud service providers has never been greater. Historically, however, connecting these environments has been a challenge, forcing customers to take a complex "do-it-yourself" approach to managing global multi-layered networks at scale.... Previously, to connect cloud service providers, customers had to manually set up complex networking components including physical connections and equipment; this approach required lengthy lead times and coordinating with multiple internal and external teams. This could take weeks or even months. AWS had a vision for developing this capability as a unified specification that could be adopted by any cloud service provider, and collaborated with Google Cloud to bring it to market.
Now, this new solution reimagines multicloud connectivity by moving away from physical infrastructure management toward a managed, cloud-native experience.
Reuters points out that Salesforce "is among the early users of the new approach, Google Cloud said in a statement."
It was an eventful past month with Valve announcing the new Steam Machine, a lot of new Linux kernel activity, the continued increase of Rust programming language adoption by open-source projects, a lot of fun hardware benchmarks, and more. There were 283 original news articles on Phoronix the past month about Linux/open-source software and hardware plus another 18 featured Linux hardware reviews / multi-page benchmark articles. Here is a look back at the most popular content over the past month...
ZEN 6 ce n'est pas pour demain, mais en attendant, AMD pourrait bien nous r�server des surprises avec des nouveaux processeurs ZEN 5 qui passeraient en mode surpuissance � tous les �tages.
On commence par vous parler du Ryzen 7 9850X3D, qui serait un mod�le en 8 cores et 16 threads, qui profiterait de 96 Mo de m�moire cache L3 et de vitesses folles, � savoir 4.7 GHz de base et 5.6 GHz en Boost. Nous serions sur un TDP de 120 watts. Bref, un 9800X3D Boost� au MHz. […]
Microsoft a r�cemment annonc� une �volution majeure de Windows 11 avec l'arriv�e de fonctions agentiques, autrement dit des agents autonomes capables d'effectuer des actions � votre place dans le syst�me. Et si cette refonte ouvre la voie � un Windows bien plus intelligent, elle apporte aussi son lot d'avertissements, dont un plut�t direct : oui, ces IA peuvent halluciner et c'est Microsoft, lui-m�me, qui l'indique...En effet, dans sa derni�re note, Microsoft indique clairement que les mod�les d'IA pr�sentent encore des limitations fonctionnelles et peuvent occasionnellement halluciner ou produire des r�sultats inattendus. […]
Nous avons pu le voir � plusieurs reprises, le simracing est le nouveau cheval de bataille de Thermaltake. La marque propose d�sormais de nombreux produits pour les amateurs de courses automobiles, et ce n'est que le d�but. Le mat�riel pr�sent� dans la boutique de Taipei pourrait bient�t �tre remplac� ou renforc� si on se fie aux pr�sentations de la gamescom, et c'est assez excitant de voir toutes les annonces. Y compris celles qui concernent de simples accessoires de confort, comme le Sim Rig Floor.
[…]
La semaine derni�re, nous relayions les premi�res rumeurs indiquant que la future Steam Machine de Valve pourrait co�ter aussi cher qu'un PC gaming classique, avec des estimations montant all�grement jusqu'� 1000 dollars. De quoi faire grimacer plus d'un joueur, surtout en pleine p�riode de hausse des co�ts des composants.Une nouvelle estimation vient cependant apporter un �clairage un peu plus nuanc�. […]
Avec les processeurs AMD Strix Halo, la course � la console portable la plus puissante est belle et bien lanc�e, en parall�le de celle � la console la plus ch�re. Et � ce petit jeu, AYANEO pourrait passer premier gr�ce � la NEXT II.
Les premi�res informations pr�sent�es par la marque en amont de l'annonce officielle laissent songeur : �cran OLED de 9" avec un affichage en 2400 x 1504, processeur AMD Ryzen AI Max+ 395, AYANEO ne laisse rien au hasard ! L'image mise en avant sur les r�seaux sociaux montre aussi la pr�sence de touchpads / trackpads � gauche et � droite de l'�cran, tandis que les joysticks proposent un �clairage RGB et que le D-pad est de type hybride.
[…]
Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.
L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.
« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.
Soutenir les ambitions d’investissements dans l’Hexagone
S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.
La DGE distingue cinq types de datacenters – crédit DGE
Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.
Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.
Rassurer, ou motiver, les collectivités territoriales
Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.
« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.
« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».
Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.
« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».
Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.
Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE
Une grille d’évaluation des projets
Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.
La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».
Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.
S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».
Considérée comme un « levier essentiel » au développement du secteur numérique français dans un contexte d’enjeux de souveraineté accrus, l’implantation de centres de données sur le territoire fait l’objet d’attentions particulières. Bercy et sa direction générale des entreprises publient ainsi un guide dédié, censé déminer les difficultés associées aussi bien pour les porteurs de projet que pour les propriétaires fonciers ou les collectivités.
L’implantation d’un datacenter en France serait trop complexe, la faute à la vieille antienne des lourdeurs administratives, du zéro artificialisation nette, de contraintes techniques ubuesques ou de l’hostilité des collectivités locales ? Que nenni, répondent avec enthousiasme Bercy et sa direction générale des entreprises (DGE), en produisant un guide dédié, censé déminer les difficultés… ou plutôt illustrer à quel point ces dernières sont finalement faciles à surmonter.
« Implanter des centres de données sur notre sol est une priorité, au service de notre souveraineté numérique. Je me réjouis donc de la publication de ce guide qui marque une étape concrète vers la réalisation de l’ambition fixée par le Sommet pour l’action sur l’IA : faire de la France un territoire attractif pour les centres de données. », commente Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dans un communiqué cosigné avec Roland Lescure, ministre de l’Économie, des Finances et de la Souveraineté industrielle, énergétique et numérique.
Soutenir les ambitions d’investissements dans l’Hexagone
S’il faut sensibiliser, c’est en effet que l’ambition fixée en début d’année est élevée : en février dernier, lors du fameux sommet, Emmanuel Macron avait annoncé 109 milliards d’euros d’investissements en direction de l’intelligence artificielle, fléchés principalement vers des projets d’infrastructure, donc des datacenters. Dans la foulée, Bercy a mis sur pied une task force associant la DGE à Business France et à RTE, gestionnaire du réseau électrique, dont le travail a permis « l’identification de 63 sites favorables à l’implantation de centres de données » dans l’Hexagone.
La DGE distingue cinq types de datacenters – crédit DGE
Problème : le temps des grands projets d’infrastructure n’est pas celui du politique et les annonces tardent à se concrétiser, même si plusieurs datacenters d’une envergure industrielle sont déjà dans les tuyaux.
Google prépare par exemple un projet à 58 millions d’euros près de Châteauroux, tandis que l’appel à projet lancé par EDF suite au sommet a permis de déboucher sur l’ouverture de négociations avec OpCore pour un centre de données dont la consommation électrique se chiffrera en centaines de mégawatts, associé à une enveloppe de l’ordre de 4 milliards d’euros. Enfin, impossible bien sûr de ne pas mentionner le Campus IA dont le financement, emmené par le fonds émirati MGX, fait aussi intervenir Bpifrance et NVIDIA, avec une vision cible à 1,4 GW et 50 milliards d’euros d’investissements.
Rassurer, ou motiver, les collectivités territoriales
Après la Banque des territoires, qui vient elle aussi de se fendre de son « Guide des datacenters de proximité », arrive donc un nouveau document (PDF) aux couleurs de la DGE, qui s’ouvre sur un rappel des raisons pour lesquelles la France cherche à multiplier les projets d’implantation. Aux bénéfices attendus à l’échelle nationale, régulièrement répétés (souveraineté numérique, compétitivité, limitation de la dépendance économique) s’ajoute la liste des retombées positives censées profiter au territoire.
« Au niveau local, l’installation d’un centre de données est source de recettes fiscales pour la collectivité, notamment au travers de la taxe foncière sur les propriétés bâties (TFPB), de la cotisation foncière des entreprises (CFE) et de la cotisation sur la valeur ajoutée des entreprises (CVAE) », rappelle ainsi la DGE avant d’embrayer sur les bénéfices attendus pour l’écosystème économique local.
« L’implantation d’un ou plusieurs centres de données dans un territoire peut alors stimuler l’attractivité de celui-ci auprès d’entreprises, de laboratoires et de centres d’innovation et contribuer à la constitution d’un pôle technologique local. De même, ces projets sont de nature à favoriser l’attraction de talents et peuvent participer au financement d’initiatives en faveur de l’éducation et de la formation dans le numérique ».
Le guide édité par Bercy souligne par ailleurs que si les « externalités négatives » liées à un datacenter peuvent légitimement être questionnées, ces dernières seraient bien souvent surestimées. Les phases de concertation publique associées aux grands projets de centres de données l’ont montré, encore récemment avec Campus IA : la question des externalités se pose sans surprise de façon particulièrement pressante au niveau local, et dans un contexte d’élections municipales (propices au phénomène du not in my backyard) programmées en 2026, le document se veut rassurant.
« Si certaines constructions plus anciennes peuvent souffrir d’une efficacité énergétique et hydrique non optimisées, les infrastructures plus récentes répondent mieux à ces enjeux (les technologies de refroidissement à eau les plus récentes, en circuit fermé, ont une consommation hydrique annuelle équivalente à celle de quelques dizaines de foyers) et prennent également en considération l’intégration paysagère et la réduction des éventuelles nuisances sonores ».
Sur le volet pratique, le guide rappelle que la possibilité d’un raccordement au réseau électrique est un prérequis indispensable, et il invite les porteurs de projet à éviter les régions les plus en tension sur le sujet. « L’Île-de-France, notamment, région très sollicitée pour implanter de nouveaux centres de données, subit actuellement une saturation du réseau de transport d’électricité, dont il résulte une élévation des coûts et des durées de raccordement du fait de la nécessité de renforcer le réseau », remarque notamment la DGE, qui invite également à prendre en compte la présence d’infrastructures réseau, et à considérer des terrains déjà artificialisés ou des friches industrielles. Une carte résume les régions dans lesquelles des sites faisant l’objet d’un accord préalable de raccordement accéléré au réseau RTE ont déjà été identifiés.
Conséquence de leur passé industriel, les Hauts-de-France disposent du plus grand nombre de sites considérés comme propices à l’installation d’un datacenter – crédit DGE
Une grille d’évaluation des projets
Entre autres rappels de la réglementation en vigueur, et notamment des dispositions visant à limiter l’impact environnemental des datacenters, le guide fournit surtout une « grille » des principaux enjeux à considérer pour déterminer l’intérêt, ou non, d’avancer sur un projet d’implantation.
La DGE distingue ici deux niveaux d’enjeux, économiques et environnementaux. Le premier liste donc l’ensemble des critères censés permettre de valider la viabilité du projet (assise financière du porteur, modalités de financement, maturité commerciale, clients envisagés), et les retombées directes en local. Le guide invite par exemple les collectivités à opter pour un bail à construire plutôt que sur une cession pure et simple du foncier, ou à se faire préciser « les contreparties offertes par le projet, qui constituent un élément essentiel et doivent notamment inclure la création d’emplois directs dûment chiffrés ».
Côté environnement, le guide suggère de veiller à la qualité des indicateurs d’exploitation, découlant directement du design du projet, tels que le PUE (efficacité énergétique), le WUE (efficacité de la consommation d’eau) ou le taux prévu de revalorisation de la chaleur fatale. Il liste également l’étude des systèmes de refroidissement, la réduction de l’empreinte globale du bâtiment, et l’étude du cycle de vie des équipements, notamment informatiques.
S’il se conclut avec une liste des portes d’entrée susceptibles de répondre aux questions, faciliter les procédures ou régler les potentiels litiges, le document n’avance cependant aucun chiffre, ni pour avaliser les bénéfices attendus au niveau des territoires (dont la réalité est discutée), ni pour permettre de déterminer les seuils au-delà desquels un projet peut être considéré comme vertueux d’un point de vue environnemental. La DGE renvoie, à ce niveau, vers des « travaux en cours de l’Ademe sur l’implantation des centres de données ».
doodlum nous annonce la disponibilit� d'un mod qui apporte le Frame Generation au jeu Fallout 4 de Bethesda, l'auteur nous promet un doublement des performances.br>
About this mod
The ultimate performance mod. F4SE plugin which adds Frame Generation to significantly boost FPS and stabilise frame pacing. Supports all game versions and ENB.
Le t�l�chargement est possible ici. […]
xoxor4d nous d�voile ce qu'apporterait le RTX Remixau jeu Grand Theft Auto IV, titre sorti en 2008 et sans surprise, l'apport du path tracing est plus que plaisant. On d�couvre une nouvelle version du jeu de Rockstar Games, avec des reflets, des ombres bien plus coh�rents.
Toutefois, les textures demeurent celles d'origine, il serait de bon aloi de coupler le projet avec de nouvelles textures, afin d'aboutir � un remake ultime ! […]
« 53 % des parents français ont déjà partagé sur les réseaux sociaux du contenu sur leurs enfants », commence par rappeler la CNIL. Un chiffre à mettre en balance avec une autre statistique : « 50 % des images ou des vidéos d’enfants échangées sur les forums pédocriminiels ont été initialement publiées par leurs parents via les réseaux sociaux ».
La Commission explique que partager du contenu de ses enfants « n’est pas un acte anodin » et qu’il « comporte de nombreux risques ». En conséquence, elle déconseille de le faire, surtout si votre profil sur les réseaux sociaux est public.
Les risques sont connus depuis longtemps, mais une piqure de rappel ne peut pas faire de mal : « Certains parents publient des photos dénudées de leur enfant (par exemple lorsqu’ils jouent dans le bain) : des internautes malveillants détournent ces photos pour créer de faux profils, les partagent avec d’autres inconnus ou les diffusent sur des réseaux de pornographie infantile ». De plus, avec l’intelligence artificielle et les deepfakes, dénuder des personnes – notamment des mineurs – est malheureusement très facile. Même avant l’arrivée de l’IA générative la problématique existait déjà.
La publication de photos des enfants peut aussi « alimenter le harcèlement scolaire et le cyberharcèlement ». Les clichés donnent des indications sur les centres d’intérêt des enfants, les lieux qu’ils fréquentent, etc. En effet, les « photos et vidéos contiennent des indications sur la localisation et l’heure à laquelle l’image a été prise ».
La CNIL rappelle que « les photographies et les vidéos partagées par les parents peuvent donc priver les enfants de leur capacité à définir leur propre image et leur identité ». Elle rappelle les bonnes pratiques : « Demandez l’accord de votre enfant et de l’autre parent avant toute publication ». Dans tous les cas, « évitez la publication de certaines photos et vidéos qui ont trait à l’intimité de votre enfant ». Il est « également conseillé de cacher le visage de votre enfant ». Enfin, faites régulièrement le tri dans vos abonnés, photos et vidéos publiées.
La CNIL liste aussi des histoires vécues, pour rappeler que les dangers sont bien réels : « Un mineur s’est adressé à la CNIL pour faire retirer des photographies, vidéos et enregistrements vocaux diffusées par ses parents sur un réseau social. Des parents ont appelé l’attention de la CNIL sur les difficultés qu’ils rencontraient à faire cesser la diffusion de photographies du baptême de leurs enfants mineurs ».
« 53 % des parents français ont déjà partagé sur les réseaux sociaux du contenu sur leurs enfants », commence par rappeler la CNIL. Un chiffre à mettre en balance avec une autre statistique : « 50 % des images ou des vidéos d’enfants échangées sur les forums pédocriminiels ont été initialement publiées par leurs parents via les réseaux sociaux ».
La Commission explique que partager du contenu de ses enfants « n’est pas un acte anodin » et qu’il « comporte de nombreux risques ». En conséquence, elle déconseille de le faire, surtout si votre profil sur les réseaux sociaux est public.
Les risques sont connus depuis longtemps, mais une piqure de rappel ne peut pas faire de mal : « Certains parents publient des photos dénudées de leur enfant (par exemple lorsqu’ils jouent dans le bain) : des internautes malveillants détournent ces photos pour créer de faux profils, les partagent avec d’autres inconnus ou les diffusent sur des réseaux de pornographie infantile ». De plus, avec l’intelligence artificielle et les deepfakes, dénuder des personnes – notamment des mineurs – est malheureusement très facile. Même avant l’arrivée de l’IA générative la problématique existait déjà.
La publication de photos des enfants peut aussi « alimenter le harcèlement scolaire et le cyberharcèlement ». Les clichés donnent des indications sur les centres d’intérêt des enfants, les lieux qu’ils fréquentent, etc. En effet, les « photos et vidéos contiennent des indications sur la localisation et l’heure à laquelle l’image a été prise ».
La CNIL rappelle que « les photographies et les vidéos partagées par les parents peuvent donc priver les enfants de leur capacité à définir leur propre image et leur identité ». Elle rappelle les bonnes pratiques : « Demandez l’accord de votre enfant et de l’autre parent avant toute publication ». Dans tous les cas, « évitez la publication de certaines photos et vidéos qui ont trait à l’intimité de votre enfant ». Il est « également conseillé de cacher le visage de votre enfant ». Enfin, faites régulièrement le tri dans vos abonnés, photos et vidéos publiées.
La CNIL liste aussi des histoires vécues, pour rappeler que les dangers sont bien réels : « Un mineur s’est adressé à la CNIL pour faire retirer des photographies, vidéos et enregistrements vocaux diffusées par ses parents sur un réseau social. Des parents ont appelé l’attention de la CNIL sur les difficultés qu’ils rencontraient à faire cesser la diffusion de photographies du baptême de leurs enfants mineurs ».
Il y a quelques semaines, on apprenait qu'AMD avait prévu semble-t-il de procéder à un ajout de deux références en X3D. Ces processeurs n'ayant aucune confirmation d'aucune sorte auraient été prévus pour être dévoilés au CES. Quels seraient ces CPU ? Il y aurait le petit Ryzen 7 9850X3D et le gros R...
After a successful November 27th launch to the International Space Station, Russia discovered an accident had occurred on their launch site's mobile maintenance cabin — when a drone spotted it lying upside down in a flame trench.
"The main issue with the structure collapse is that it puts Site 31/6 — the only Russian launch site capable of launching crew and cargo to the International Space Station (ISS) — out of service until the structure is fixed," reports the space-news site NASA Spaceflight
There are other Soyuz 2 rocket launch pads, but they are either located at an unsuitable latitude, like Plesetsk, or not certified for crewed flights, like Vostochny, or decommissioned and transferred to a museum, like Gagarin's Start at Baikonur. As a result, Russia is temporarily unable to launch Soyuz crewed spacecraft and Progress cargo ships to the ISS, whose nearest launch (Progress MS-33) was scheduled for December 21....
When the rocket launched, a pressure difference was created between the space under the rocket, where gases from running engines are discharged, and the nook where the [144-ton] maintenance cabin was located. The resulting pressure difference pulled the service cabin out of the nook and threw it into the flame trench, where it fell upside down from a height of 20 m. Photos of the accident showed significant damage to the maintenance cabin, which, according to experts, is too extensive to allow for repairs. The only way to resume launches from Site 31/6 is to install a spare maintenance cabin or construct a new one.
Despite the fact that the fallen structure was manufactured in the 1960s, two similar service cabins were manufactured recently at the Tyazhmash heavy-engineering plant in Syzran for other Soyuz launch complexes at the Guiana Space Center and Vostochny Cosmodrome. The production of each cabin took around two years to complete, however, it was not for an emergency situation.
"Various experts gave different possible estimates of the recovery time of the Site 31 launch complex: from several months to three years."
From the blog 9to5Linux:
Linux kernel 6.18 is now available for download, as announced today by Linus Torvalds himself, featuring enhanced hardware support through new and updated drivers, improvements to file systems and networking, and more.
Highlights of Linux 6.18 include the removal of the Bcachefs file system, support for the Rust Binder driver, a new dm-pcache device-mapper target to enable persistent memory as a cache for slower block devices, and a new microcode= command-line option to control the microcode loader's behavior on x86 platforms.
Linux kernel 6.18 also extends the support for file handles to kernel namespaces, implements initial 'block size > page size' support for the Btrfs file system, adds PTW feature detection on new hardware for LoongArch KVM, and adds support for running the kernel as a guest on FreeBSD's Bhyve hypervisor.
Some AI experts were reportedly shocked ChatGPT wasn't fully tested for sycophancy by last spring. "OpenAI did not see the scale at which disturbing conversations were happening," writes the New York Times — sharing what they learned after interviewing more than 40 current and former OpenAI employees, including safety engineers, executives, and researchers.
The team responsible for ChatGPT's tone had raised concerns about last spring's model (which the Times describes as "too eager to keep the conversation going and to validate the user with over-the-top language.") But they were overruled when A/B testing showed users kept coming back:
Now, a company built around the concept of safe, beneficial AI faces five wrongful death lawsuits... OpenAI is now seeking the optimal setting that will attract more users without sending them spiraling.
Throughout this spring and summer, ChatGPT acted as a yes-man echo chamber for some people. They came back daily, for many hours a day, with devastating consequences.... The Times has uncovered nearly 50 cases of people having mental health crises during conversations with ChatGPT. Nine were hospitalised; three died... One conclusion that OpenAI came to, as Altman put it on X, was that "for a very small percentage of users in mentally fragile states there can be serious problems." But mental health professionals interviewed by the Times say OpenAI may be understating the risk. Some of the people most vulnerable to the chatbot's unceasing validation, they say, were those prone to delusional thinking, which studies have suggested could include 5% to 15% of the population...
In August, OpenAI released a new default model, called GPT-5, that was less validating and pushed back against delusional thinking. Another update in October, the company said, helped the model better identify users in distress and de-escalate the conversations. Experts agree that the new model, GPT-5, is safer.... Teams from across OpenAI worked on other new safety features: The chatbot now encourages users to take breaks during a long session. The company is also now searching for discussions of suicide and self-harm, and parents can get alerts if their children indicate plans to harm themselves. The company says age verification is coming in December, with plans to provide a more restrictive model to teenagers.
After the release of GPT-5 in August, [OpenAI safety systems chief Johannes] Heidecke's team analysed a statistical sample of conversations and found that 0.07% of users, which would be equivalent to 560,000 people, showed possible signs of psychosis or mania, and 0.15% showed "potentially heightened levels of emotional attachment to ChatGPT," according to a company blog post. But some users were unhappy with this new, safer model. They said it was colder, and they felt as if they had lost a friend. By mid-October, Altman was ready to accommodate them. In a social media post, he said that the company had been able to "mitigate the serious mental health issues." That meant ChatGPT could be a friend again. Customers can now choose its personality, including "candid," "quirky," or "friendly." Adult users will soon be able to have erotic conversations, lifting the Replika-era ban on adult content. (How erotica might affect users' well-being, the company said, is a question that will be posed to a newly formed council of outside experts on mental health and human-computer interaction.)
OpenAI is letting users take control of the dial and hopes that will keep them coming back. That metric still matters, maybe more than ever. In October, [30-year-old "Head of ChatGPT" Nick] Turley, who runs ChatGPT, made an urgent announcement to all employees. He declared a "Code Orange." OpenAI was facing "the greatest competitive pressure we've ever seen," he wrote, according to four employees with access to OpenAI's Slack. The new, safer version of the chatbot wasn't connecting with users, he said.
The message linked to a memo with goals. One of them was to increase daily active users by 5% by the end of the year.