Vue lecture

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

  •  

☕️ Le temps légal français en passe de valider une nouvelle optimisation énergétique

Cela fait maintenant longtemps que l’Agence nationale des fréquences (ANFR) s’est lancée dans une opération de sobriété énergétique pour la diffusion du temps légal français via les ondes. Ce temps légal permet pour rappel aux équipements « d’être synchronisés de façon extrêmement précise ».

« Disposer d’un signal horaire permettant une synchronisation de tous les équipements concernés est donc essentiel pour la vie de la Nation, notamment dans des domaines touchant à la sécurité », expliquait l’Agence. Cet impératif peut se conjuguer avec la sobriété énergétique.

Des baisses ont déjà eu lieu. En 2020 par exemple, la puissance du site d’Allouis qui diffuse le signal est passée de 1 110 à 800 kW. Il y a un an, des expérimentations ont débuté pour la réduire encore, à 675 kW, pendant une semaine. Entre mai et novembre 2025, la puissance de diffusion a de nouveau été abaissée de 800 à 675 kW.

Dans les deux cas, tout s’est bien passé. La deuxième phase était plus complexe car elle « incluait une opération sensible : le passage de la diffusion du pylône nord au pylône sud le 14 octobre. Même durant cette manœuvre technique, aucune dégradation notable du signal n’a été enregistrée. Ces résultats confirment la robustesse de la diffusion, même avec une puissance réduite ».

De nouvelles phases de tests sont prévues pour valider définitivement l’optimisation énergétique avec le passage à 675 kW (soit quasiment deux fois moins que les 1 110 kW d’avant 2020) :

  • Retour à 800 kW à partir du 18 novembre 2025.
  • Nouvelle période à 675 kW du 16 décembre 2025 au 31 mars 2026.

« À l’issue de cet hiver d’observation, un passage permanent à 675 kW pourrait être décidé dès le deuxième trimestre 2026 », ajoute l’ANFR.

  •  

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

  •  

☕️ Le temps légal français en passe de valider une nouvelle optimisation énergétique

Cela fait maintenant longtemps que l’Agence nationale des fréquences (ANFR) s’est lancée dans une opération de sobriété énergétique pour la diffusion du temps légal français via les ondes. Ce temps légal permet pour rappel aux équipements « d’être synchronisés de façon extrêmement précise ».

« Disposer d’un signal horaire permettant une synchronisation de tous les équipements concernés est donc essentiel pour la vie de la Nation, notamment dans des domaines touchant à la sécurité », expliquait l’Agence. Cet impératif peut se conjuguer avec la sobriété énergétique.

Des baisses ont déjà eu lieu. En 2020 par exemple, la puissance du site d’Allouis qui diffuse le signal est passée de 1 110 à 800 kW. Il y a un an, des expérimentations ont débuté pour la réduire encore, à 675 kW, pendant une semaine. Entre mai et novembre 2025, la puissance de diffusion a de nouveau été abaissée de 800 à 675 kW.

Dans les deux cas, tout s’est bien passé. La deuxième phase était plus complexe car elle « incluait une opération sensible : le passage de la diffusion du pylône nord au pylône sud le 14 octobre. Même durant cette manœuvre technique, aucune dégradation notable du signal n’a été enregistrée. Ces résultats confirment la robustesse de la diffusion, même avec une puissance réduite ».

De nouvelles phases de tests sont prévues pour valider définitivement l’optimisation énergétique avec le passage à 675 kW (soit quasiment deux fois moins que les 1 110 kW d’avant 2020) :

  • Retour à 800 kW à partir du 18 novembre 2025.
  • Nouvelle période à 675 kW du 16 décembre 2025 au 31 mars 2026.

« À l’issue de cet hiver d’observation, un passage permanent à 675 kW pourrait être décidé dès le deuxième trimestre 2026 », ajoute l’ANFR.

  •  

☕️ Après AOL, Bending Spoons va s’offrir Eventbrite et sa billetterie

Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).

Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.

« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.

Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).

En 2025, Bending Spoons s’est déjà engagé dans le rachat de Vimeo, puis dans celui du portail AOL.

Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.

Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next

  •  

Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Mélange de puces et de chiffres
Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Amazon présente ses UltraServers pour les entrainements et l’inférence d’IA avec Trainium3. Le géant du Net augmente à la fois la densité et les performances de sa puce maison, lui permettant ainsi d’afficher un gros x4,4 sur les performances. On vous détaille cette annonce.

Amazon vient d’annoncer la disponibilité pour les clients de sa nouvelle puce Trainium3 pour l’entrainement et l’inférence des intelligences artificielles. La division cloud du géant américain continue sur sa lancée, avec une nouvelle génération par an.

Des UltraServers et UltraClusters avec Trainium3 disponibles

L’année dernière, durant la conférence re:Invent, c’était Trainium2 qui était disponible et la puce Trainium3 présentée. Encore un an avant (en 2023), Trainium2 était annoncée pour remplacer le SoC Trainium de première génération.

On rembobine cette fois avec les performances. Trainium2 était annoncée comme quatre fois plus rapide sur les entrainements, avec une capacité mémoire multipliée par trois. L’efficacité énergétique (performances/watt) était multipliée par deux.

Amazon promettait des instances Trn2 avec jusqu’à 100 000 puces Trainium2 via les UltraClusters, pour une puissance de calcul pouvant atteindre « jusqu’à 65 exaflops ». Des UltraServers plus raisonnables avec 64 Trainium2 interconnectés étaient aussi de la partie, pour une puissance maximale de 83,2 pétaflops.

Les UltraClusters Elastic Compute Cloud (EC2) « sont composés de milliers d’instances EC2 accélérées, colocalisées dans une zone de disponibilité AWS donnée et interconnectées via un réseau », explique Amazon. Les UltraServers sont d’au moins un ordre de grandeur plus petits, puisqu’il est question de « plusieurs instances EC2 ».

AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3

Trainium3 : x2 sur les performances, 50 % de mémoire en plus

Nous revoilà à Trainium3, dont les UltraServers équipés de cette génération proposent « une puissance de calcul jusqu’à 4,4 fois supérieure, une efficacité énergétique quatre fois plus grande et une bande passante mémoire presque quatre fois supérieure à celle des serveurs Trainium2 UltraServers ». Trainium3 est gravée avec une technologie 3 nm.

Un UltraServer peut héberger jusqu’à 144 puces Trainium3 pour une puissance de 362 pétaflops, avec une précision en virgule flottante de 8 bits (FP8). Avec un arrondi, on arrive bien au rapport x4,4 annoncé par Amazon par rapport aux 83,2 pétaflops de la génération précédente. Un UltraServer Trn3 complet dispose de 20,7 To de mémoire HBM3e et d’une bande passante agrégée de 706 To/s.

Avec une division par 144, cela nous donne 2,5 pétaflops de calculs en FP8 et 144 Go de mémoire par puce. Le même calcul donne respectivement 1,3 pétaflop et 96 Go pour la puce Trainium2. La bande passante mémoire totale de Trn2 est de 185 To/s (on a donc un gain de x3,8 avec Trainium3).

2 500 téraflops (ou 2,5 pétaflops) pour Trainium3 alors que NVIDIA revendique pour rappel 5 000 téraflops en FP8 pour un die Blackwell, mais le fabricant en intègre deux par puce, soit 10 000 téraflops. Pour rappel, la H100 de NVIDIA est annoncée pour 3 958 téraflops en FP8.

UltraClusters : jusqu’à un million de puces Trainium3

L’entreprise affirme avoir amélioré sa partie réseau, notamment son NeuronSwitch-v1 qui permet de doubler la bande passante à l’intérieur des UltraServers. Pour les échanges entre les puces, une version améliorée de Neuron Fabric permet de réduire la latence à moins de 10 ms.

Les UltraClusters sont aussi améliorés et peuvent connecter entre eux des milliers d’UltraServers pour arriver à un total d’un million de puces Trainium, soit 10 fois plus que les 100 000 puces de la génération précédente.

Prudence sur les chiffres d’Amazon toutefois. La société se faisait récemment l’écho du projet Rainier : une « infrastructure collaborative avec près d’un demi-million de puces Trainium2 ». Trainium3 ne fait donc « que » deux fois mieux, pas 10. Les puces de Rainier sont réparties entre plusieurs centres de données aux États-Unis.

Selon Amazon, ses UltraClusters permettent « l’entraînement de modèles multimodaux avec des milliards de jetons et de l’inférence en temps réel pour des millions d’utilisateurs en simultané ».

AWS re:Invent 2025 Trainium3

Trainium4 : FP4 et au NVLink Fusion

Si vous avez lu attentivement le début de cet article, vous savez certainement de quoi parle la fin : Trainium4. Amazon annonce « six fois plus de performances de traitement (FP4), trois fois plus de performances en FP8 et quatre fois plus de bande passante mémoire ».

L’annonce sur FP4 est la conséquence directe du x3 en FP8. En divisant la précision par deux, on multiplie les performances par deux. Amazon rejoint donc NVIDIA qui était le premier à se lancer en FP4 avec Blackwell.

Enfin, Amazon prévoit de rendre Trainium4 compatible avec NVLink Fusion, une technologie NVIDIA permettant de monter « une infrastructure d’IA semi-personnalisée », avec des puces du Caméléon et celles de partenaires. Au lancement, MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys et Cadence s’étaient associés à l’annonce.

  •  

☕️ Après AOL, Bending Spoons va s’offrir Eventbrite et sa billetterie

Eventbrite, poids lourd américain de la billetterie en ligne, annonce son entrée en négociations exclusives avec le groupe italien Bending Spoons, qui propose de racheter l’entreprise, en cash, pour 500 millions de dollars (environ 430 millions d’euros).

Le prix de rachat, fixé à 4,5 dollars par action, représente une prime de 60 % par rapport au cours quelque peu végétant de l’action Eventbrite à Wall Street sur les soixante derniers jours. La proposition a été acceptée à l’unanimité par le conseil d’administration d’Eventbrite, et la transaction devrait être bouclée dans le premier semestre 2026, affirme l’acquéreur, après validation des différentes instances représentatives ou réglementaires concernées. Eventbrite vise pour son exercice fiscal 2025 un chiffre d’affaires de l’ordre de 290 millions de dollars.

« En tant que fans de longue date, nous avons identifié plusieurs pistes que nous avons hâte d’explorer avec l’équipe d’Eventbrite après la finalisation de la transaction. Il s’agit notamment de développer une messagerie dédiée, d’intégrer l’IA pour simplifier la création d’événements, d’améliorer la recherche et de créer un système pour le marché des billets de seconde main », indique Luca Ferrari, CEO de Bending Spoons.

Le groupe italien aux dents longues réalisera-t-il vraiment ces projets avec l’équipe actuelle d’Eventbrite ? La plupart de ses acquisitions récentes se sont soldées par des départs massifs au sein des entreprises ciblées par sa stratégie de build-up (construction d’un groupe par accumulation de sociétés distinctes, avec une recherche de synergies opérationnelles).

En 2025, Bending Spoons s’est déjà engagé dans le rachat de Vimeo, puis dans celui du portail AOL.

Le groupe dispose sur le papier des moyens de ses ambitions : fin octobre, il a annoncé coup sur coup une levée de fonds de 710 millions de dollars, sur la base d’une valorisation préalable à 11 milliards de dollars, et l’obtention d’une enveloppe de 2,8 milliards de dollars sous forme de dette bancaire.

Eventbrite revendique 4,7 millions d’événements et 83 millions d’entrées payantes distribuées en 2024 – extrait des résultats financiers, capture d’écran Next

  •  

Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Mélange de puces et de chiffres
Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Amazon présente ses UltraServers pour les entrainements et l’inférence d’IA avec Trainium3. Le géant du Net augmente à la fois la densité et les performances de sa puce maison, lui permettant ainsi d’afficher un gros x4,4 sur les performances. On vous détaille cette annonce.

Amazon vient d’annoncer la disponibilité pour les clients de sa nouvelle puce Trainium3 pour l’entrainement et l’inférence des intelligences artificielles. La division cloud du géant américain continue sur sa lancée, avec une nouvelle génération par an.

Des UltraServers et UltraClusters avec Trainium3 disponibles

L’année dernière, durant la conférence re:Invent, c’était Trainium2 qui était disponible et la puce Trainium3 présentée. Encore un an avant (en 2023), Trainium2 était annoncée pour remplacer le SoC Trainium de première génération.

On rembobine cette fois avec les performances. Trainium2 était annoncée comme quatre fois plus rapide sur les entrainements, avec une capacité mémoire multipliée par trois. L’efficacité énergétique (performances/watt) était multipliée par deux.

Amazon promettait des instances Trn2 avec jusqu’à 100 000 puces Trainium2 via les UltraClusters, pour une puissance de calcul pouvant atteindre « jusqu’à 65 exaflops ». Des UltraServers plus raisonnables avec 64 Trainium2 interconnectés étaient aussi de la partie, pour une puissance maximale de 83,2 pétaflops.

Les UltraClusters Elastic Compute Cloud (EC2) « sont composés de milliers d’instances EC2 accélérées, colocalisées dans une zone de disponibilité AWS donnée et interconnectées via un réseau », explique Amazon. Les UltraServers sont d’au moins un ordre de grandeur plus petits, puisqu’il est question de « plusieurs instances EC2 ».

AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3

Trainium3 : x2 sur les performances, 50 % de mémoire en plus

Nous revoilà à Trainium3, dont les UltraServers équipés de cette génération proposent « une puissance de calcul jusqu’à 4,4 fois supérieure, une efficacité énergétique quatre fois plus grande et une bande passante mémoire presque quatre fois supérieure à celle des serveurs Trainium2 UltraServers ». Trainium3 est gravée avec une technologie 3 nm.

Un UltraServer peut héberger jusqu’à 144 puces Trainium3 pour une puissance de 362 pétaflops, avec une précision en virgule flottante de 8 bits (FP8). Avec un arrondi, on arrive bien au rapport x4,4 annoncé par Amazon par rapport aux 83,2 pétaflops de la génération précédente. Un UltraServer Trn3 complet dispose de 20,7 To de mémoire HBM3e et d’une bande passante agrégée de 706 To/s.

Avec une division par 144, cela nous donne 2,5 pétaflops de calculs en FP8 et 144 Go de mémoire par puce. Le même calcul donne respectivement 1,3 pétaflop et 96 Go pour la puce Trainium2. La bande passante mémoire totale de Trn2 est de 185 To/s (on a donc un gain de x3,8 avec Trainium3).

2 500 téraflops (ou 2,5 pétaflops) pour Trainium3 alors que NVIDIA revendique pour rappel 5 000 téraflops en FP8 pour un die Blackwell, mais le fabricant en intègre deux par puce, soit 10 000 téraflops. Pour rappel, la H100 de NVIDIA est annoncée pour 3 958 téraflops en FP8.

UltraClusters : jusqu’à un million de puces Trainium3

L’entreprise affirme avoir amélioré sa partie réseau, notamment son NeuronSwitch-v1 qui permet de doubler la bande passante à l’intérieur des UltraServers. Pour les échanges entre les puces, une version améliorée de Neuron Fabric permet de réduire la latence à moins de 10 ms.

Les UltraClusters sont aussi améliorés et peuvent connecter entre eux des milliers d’UltraServers pour arriver à un total d’un million de puces Trainium, soit 10 fois plus que les 100 000 puces de la génération précédente.

Prudence sur les chiffres d’Amazon toutefois. La société se faisait récemment l’écho du projet Rainier : une « infrastructure collaborative avec près d’un demi-million de puces Trainium2 ». Trainium3 ne fait donc « que » deux fois mieux, pas 10. Les puces de Rainier sont réparties entre plusieurs centres de données aux États-Unis.

Selon Amazon, ses UltraClusters permettent « l’entraînement de modèles multimodaux avec des milliards de jetons et de l’inférence en temps réel pour des millions d’utilisateurs en simultané ».

AWS re:Invent 2025 Trainium3

Trainium4 : FP4 et au NVLink Fusion

Si vous avez lu attentivement le début de cet article, vous savez certainement de quoi parle la fin : Trainium4. Amazon annonce « six fois plus de performances de traitement (FP4), trois fois plus de performances en FP8 et quatre fois plus de bande passante mémoire ».

L’annonce sur FP4 est la conséquence directe du x3 en FP8. En divisant la précision par deux, on multiplie les performances par deux. Amazon rejoint donc NVIDIA qui était le premier à se lancer en FP4 avec Blackwell.

Enfin, Amazon prévoit de rendre Trainium4 compatible avec NVLink Fusion, une technologie NVIDIA permettant de monter « une infrastructure d’IA semi-personnalisée », avec des puces du Caméléon et celles de partenaires. Au lancement, MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys et Cadence s’étaient associés à l’annonce.

  •  

Study Finds Tattoo Ink Moves Through the Body, Killing Immune Cells

Bruce66423 shares a report from the Los Angeles Times: Tattoo ink doesn't just sit inertly in the skin. New research shows it moves rapidly into the lymphatic system, where it can persist for months, kill immune cells, and even disrupt how the body responds to vaccines. Scientists in Switzerland used a mouse model to trace what happens after tattooing. Pigments drained into nearby lymph nodes within minutes and continued to accumulate for two months, triggering immune-cell death and sustained inflammation. The ink also weakened the antibody response to Pfizer Inc. and BioNTech SE's COVID vaccine when the shot was administered in tattooed skin. In contrast, the same inflammation appeared to boost responses to an inactivated flu vaccine. "This work represents the most extensive study to date regarding the effect of tattoo ink on the immune response and raises serious health concerns associated with the tattooing practice," the researchers said. "Our work underscores the need for further research to inform public health policies and regulatory frameworks regarding the safety of tattoo inks." The findings have been published in the journal Proceedings of the National Academy of Sciences.

Read more of this story at Slashdot.

  •  

Defcon Zero: Frontlines of Tomorrow s'annonce comme un digne successeur des Command and Conquer !

En découvrant les premiers screenshots et la première vidéo du jeu Defcon Zero: Frontlines of Tomorrow, on ne peut s'empêcher d'éprouver une certaine nostalgie, tant la franchise Command and Conquer nous manque et tant il semble peu probable qu'Electronic Arts la fasse dignement revivre ! Le futur titre du studio TriArts dévoile un jeu de stratégie en temps réel, qui reprend tous les codes de la série Command and Conquer, visuellement l'héritage est indéniable et le gameplay semble être un autre hommage, on bâtit sa base, on la fortifie, on produit des unités et on lance un assaut ! Nous attendons, avec hâte, la date de sortie et le prix... […]

Lire la suite
  •  

L'originale GIGABYTE X870E AERO X3D WOOD a droit à un unboxing complet. Une carte mère avec du bois, oui !

Le 12 septembre 2025, GIGABYTE officialisait une nouvelle série de cartes mères au socket AM5: les X3D, toujours "plus mieux meilleures" que ce qui avait été fait auparavant, évidemment. À ce moment là, quatre cartes étaient lancées dans l'arène, dont la GIGABYTE X870E AORUS MASTER X3D ICE, qui a d'...

  •  

Sortie de Where Winds Meet avec le DLSS 4

Cette semaine, deux nouveaux jeux compatibles DLSS sont disponibles : Where Winds Meet et Forest Doesn't Care, permettant aux joueurs d'accélérer les performances et d'améliorer la qualité d'image. Voici un aperçu des nouveaux jeux intégrant les technologies RTX, consultez cet article pour en savoir plus : - Where Winds Meet : Développé par Everstone Studio, ce RPG d'action-aventure en monde ouvert inspiré du Wuxia se déroule dans la Chine tumultueuse du Xe siècle. Les joueurs incarnent un jeune maître d'épée et partent en quête pour percer les mystères de leur identité, tout en vivant des aventures dans une époque historique riche en possibilités. Les joueurs équipés d'une GeForce RTX peuvent tirer pleinement parti du DLSS pour améliorer leur expérience. Le DLSS 4 avec Multi Frame Generation peut multiplier les fréquences d'images jusqu'à 3,9 fois en 4K, avec des paramètres maximisés, permettant ainsi un gameplay pouvant atteindre 500 images par seconde sur la GeForce RTX 5090. La technologie DLSS Frame Generation peut doubler la fréquence d'images de la GeForce RTX série 40, tandis que la technologie DLSS Super Resolution permet à tous les propriétaires de GeForce RTX d'accélérer les performances et d'améliorer la qualité d'image grâce à notre tout dernier modèle d'IA Transformer. De plus, les joueurs disposant de performances suffisantes peuvent opter pour la technologie DLAA, qui optimise la fidélité. Tous les joueurs GeForce peuvent activer NVIDIA Reflex, qui réduit la latence du PC jusqu'à 53 %, rendant le gameplay encore plus réactif. […]

Lire la suite
  •  

Le jeu Lies of P s'essaie au coop grâce à un mod !

Le titre Lies of P est un excellent jeu, nous n'en doutons point, toutefois, l'aspect coopératif lui fait quelque peu défaut, bonne nouvelle, le mod de Ember Wave tente d'initier la création du studio NEOWIZ à ce pendant ! Pour le moment, ledit mod offre uniquement l'opportunité d'effectuer les combats à plusieurs, toutefois un mod coop complet est en développement, si vous souhaitez faire vos armes sur la première mouture, c'est ici. […]

Lire la suite
  •  

Anthropic Acquires Bun In First Acquisition

Anthropic has made its first acquisition by buying Bun, the engine behind its fast-growing Claude Code agent. The move strengthens Anthropic's push into enterprise developer tooling as it scales Claude Code with major backers like Microsoft, Nvidia, Amazon, and Google. Adweek reports: Claude Code is a coding agent that lets developers write, debug and interpret code through natural-language instructions. Claude Code had already hit $1 billion in revenue six months since its public debut in May, according to a LinkedIn post from Anthropic's chief product officer, Mike Krieger. The coding agent continues to barrel toward scale with customers like Netflix, Spotify, and Salesforce. Further reading: Meet Bun, a Speedy New JavaScript Runtime

Read more of this story at Slashdot.

  •  

San Francisco Will Sue Ultraprocessed Food Companies

An anonymous reader quotes a report from the New York Times: The San Francisco city attorney filed on Tuesday the nation's first government lawsuit against food manufacturers over ultraprocessed fare (source may be paywalled; alternative source), arguing that cities and counties have been burdened with the costs of treating diseases that stem from the companies' products. David Chiu, the city attorney, sued 10 corporations that make some of the country's most popular food and drinks. Ultraprocessed products now comprise 70 percent of the American food supply and fill grocery store shelves with a kaleidoscope of colorful packages. Think Slim Jim meat sticks and Cool Ranch Doritos. But also aisles of breads, sauces and granola bars marketed as natural or healthy. It is a rare issue on which the liberal leaders in San Francisco City Hall are fully aligned with the Trump administration, which has targeted ultraprocessed foods as part of its Make America Healthy Again mantra. Mr. Chiu's lawsuit, which was filed in San Francisco Superior Court on behalf of the State of California, seeks unspecified damages for the costs that local governments bear for treating residents whose health has been harmed by ultraprocessed food. The city accuses the companies of "unfair and deceptive acts" in how they market and sell their foods, arguing that such practices violate the state's Unfair Competition Law and public nuisance statute. The city also argues the companies knew that their food made people sick but sold it anyway.

Read more of this story at Slashdot.

  •  

Waymo Hits a Dog In San Francisco, Reigniting Safety Debate

A Waymo robotaxi struck a small unleashed dog in San Francisco -- just weeks after another Waymo killed a beloved neighborhood cat. The dog's condition is unknown. The Los Angeles Times reports: The incident occurred near the intersection of Scott and Eddy streets and drew a small crowd, according to social media posts. A person claiming to be one of the passengers posted about the accident on Reddit. "Our Waymo just ran over a dog," the passenger wrote. "Kids saw the whole thing." The passenger described the dog as between 20 and 30 pounds and wrote that their family was traveling back home after a holiday tree lighting event. The National Highway Traffic Safety Administration has recorded Waymo taxis as being involved in at least 14 animal collisions since 2021. "Unfortunately, a Waymo vehicle made contact with a small, unleashed dog in the roadway," a company spokesperson said. "We are dedicated to learning from this situation and how we show up for our community as we continue improving road safety in the cities we serve." The spokesperson added that Waymo vehicles have a much lower rate of injury-causing collisions than human drivers. Human drivers run into millions of animals while driving each year. "I'm not sure a human driver would have avoided the dog either, though I do know that a human would have responded differently to a 'bump' followed by a car full of screaming people," the Waymo passenger wrote on Reddit. One person who commented on the discussion said that Waymo vehicles should be held to a higher standard than human drivers, because the autonomous taxis are supposed to improve road safety. "The whole point of this is because Waymo isn't supposed to make those mistakes," the person wrote on Reddit.

Read more of this story at Slashdot.

  •  

Kubernetes Is Retiring Its Popular Ingress NGINX Controller

During last month's KubeCon North America in Atlanta, Kubernetes maintainers announced the upcoming retirement of Ingress NGINX. "Best-effort maintenance will continue until March 2026," noted the Kubernetes SIG Network and the Security Response Committee. "Afterward, there will be no further releases, no bugfixes, and no updates to resolve any security vulnerabilities that may be discovered." In a recent op-ed for The Register, Steven J. Vaughan-Nichols reflects on the decision and speculates about what might have prevented this outcome: Ingress NGINX, for those who don't know it, is an ingress controller in Kubernetes clusters that manages and routes external HTTP and HTTPS traffic to the cluster's internal services based on configurable Ingress rules. It acts as a reverse proxy, ensuring that requests from clients outside the cluster are forwarded to the correct backend services within the cluster according to path, domain, and TLS configuration. As such, it's vital for network traffic management and load balancing. You know, the important stuff. Now this longstanding project, once celebrated for its flexibility and breadth of features, will soon be "abandonware." So what? After all, it won't be the first time a once-popular program shuffled off the stage. Off the top of my head, dBase, Lotus 1-2-3, and VisiCalc spring to my mind. What's different is that there are still thousands of Ingress NGINX controllers in use. Why is it being put down, then, if it's so popular? Well, there is a good reason. As Tabitha Sable, a staff engineer at Datadog who is also co-chair of the Kubernetes special interest group for security, pointed out: "Ingress NGINX has always struggled with insufficient or barely sufficient maintainership. For years, the project has had only one or two people doing development work, on their own time, after work hours, and on weekends. Last year, the Ingress NGINX maintainers announced their plans to wind down Ingress NGINX and develop a replacement controller together with the Gateway API community. Unfortunately, even that announcement failed to generate additional interest in helping maintain Ingress NGINX or develop InGate to replace it." [...] The final nail in the coffin was when security company Wix found a killer Ingress NGINX security hole. How bad was it? Wix declared: "Exploiting this flaw allows an attacker to execute arbitrary code and access all cluster secrets across namespaces, which could lead to complete cluster takeover." [...] You see, the real problem isn't that Ingress NGINX has a major security problem. Heck, hardly a month goes by without another stop-the-presses Windows bug being uncovered. No, the real issue is that here we have yet another example of a mission-critical open source program no one pays to support...

Read more of this story at Slashdot.

  •  

OpenAI Declares 'Code Red' As Google Catches Up In AI Race

OpenAI has reportedly issued a "code red" on Monday, pausing projects like ads, shopping agents, health tools, and its Pulse assistant to focus entirely on improving ChatGPT. "This includes core features like greater speed and reliability, better personalization, and the ability to answer more questions," reports The Verge, citing a memo reported by the Wall Street Journal and The Information. "There will be a daily call for those tasked with improving the chatbot, the memo said, and Altman encouraged temporary team transfers to speed up development." From the report: The newfound urgency illustrates an inflection point for OpenAI as it spends hundreds of billions of dollars to fund growth and figures out a path to future profitability. It is also something of a full-circle moment in the AI race. Google, which declared its own "code red" after the arrival of ChatGPT, is a particular concern. Google's AI user base is growing -- helped by the success of popular tools like the Nano Banana image model -- and its latest AI model, Gemini 3, blew past its competitors on many industry benchmarks and popular metrics.

Read more of this story at Slashdot.

  •  

Apple To Resist India Order To Preload State-Run App As Political Outcry Builds

Apple does not plan to comply with India's mandate to preload its smartphones with a state-owned cyber safety app that cannot be disabled. According to Reuters, the order "sparked surveillance concerns and a political uproar" after it was revealed on Monday. From the report: In the wake of the criticism, India's telecom minister Jyotiraditya M. Scindia on Tuesday said the app was a "voluntary and democratic system," adding that users can choose to activate it and can "easily delete it from their phone at any time." At present, the app can be deleted by users. Scindia did not comment on or clarify the November 28 confidential directive that ordered smartphone makers to start preloading it and ensure "its functionalities are not disabled or restricted." Apple however does not plan to comply with the directive and will tell the government it does not follow such mandates anywhere in the world as they raise a host of privacy and security issues for the company's iOS ecosystem, said two of the industry sources who are familiar with Apple's concerns. They declined to be named publicly as the company's strategy is private. "Its not only like taking a sledgehammer, this is like a double-barrel gun," said the first source.

Read more of this story at Slashdot.

  •