Vue lecture

Power Shortage To Hit 40% of AI Data Centres by 2027, Gartner Warns

40% of AI data centers will face operational constraints due to power shortages by 2027 as AI drives unprecedented energy consumption, research firm Gartner said on Tuesday. Data center power requirements for AI-optimized servers are projected to reach 500 terawatt-hours annually by 2027, more than double 2023 levels, as companies rapidly expand facilities to handle large language model training and implementation. The surge in power demand will outpace utility providers' ability to expand capacity, Gartner analyst Bob Johnson said, leading to higher electricity costs that will cascade through the AI industry. Some operators are already seeking direct agreements with power producers to secure guaranteed supply.

Read more of this story at Slashdot.

US Senate To Revive Software Patents With PERA Bill Vote On Thursday

zoobab writes: The US Senate to set to revive Software Patents with the PERA Bill, with a vote on Thursday, November 14, 2024. A crucial Senate Committee is on the cusp of voting on two bills that would resurrect some of the most egregious software patents and embolden patent trolls. The Patent Eligibility Restoration Act (PERA), S. 2140, would dismantle vital safeguards that prohibit software patents on overly broad concepts. If passed, courts would be compelled to approve software patents on mundane activities like mobile food ordering or basic online financial transactions. This would unleash a torrent of vague and overbroad software patents, which would be wielded by patent trolls to extort small businesses and individuals. The EFF is inviting members of the public to contact their Senators.

Read more of this story at Slashdot.

Lancement officiel de Nvidia App qui sort de sa phase beta

Nvidia App c’est la nouvelle solution logicielle de la marque pour piloter ses cartes graphiques sur PC. Les solutions GeForce Experience et Nvidia Control Panel sont toujours actives mais ne seront plus mises à jour.

Depuis son lancement en beta en février, Nvidia App a connu de multiples mises à jour avant d’aboutir a cette version officielle. Plus rapide et facile a maintenir que GFE, l’application se distingue par son efficacité et sa simplicité d’emploi.

Si Nvidia App en fait peut être un peu trop avec de la publicité pour les solutions de la marque ou un panneau de raccourcis vers vos jeu qui fait doublon – ou pire – avec ceux proposés par les magasins de jeu virtuel comme Steam, GoG ou Epic, c’est également une solution clé-en-main efficace.

On retrouve tous les outils de la marque d’un coup d’oeil, même ceux que la majorité des gens ignorent pouvoir utiliser comme les fonctions Nvidia Broadcast pour la vidéo conférence. La lisibilité des mises à jour nécessaire est bien meilleure et le détail de ces mises à jour bien mieux expliqué. Un clic suffit à lancer le téléchargement et la mise à jour du pilote sans avoir besoin de se connecter à un compte quelconque. Il est même possible de naviguer entre plusieurs pilotes ce qui s’avère particulièrement pratique sur des machines destinées à du travail graphique ou les pilotes « Studio » sont préconisés comme à du jeu ou les pilotes « Game Ready » seront plus efficaces.

Les réglages techniques pour chaque application ou jeu reconnu peuvent se faire directement en quelques clics. Activer le G-Sync d’un écran, forcer des fonctions qui seront prises en charge matériellement par votre carte graphique, limiter le nombre d’image par seconde, tout cela se fait simplement sur cette interface.

Les fonctions du Control Panel sont également intégrées à l’interface ce qui s’avère assez pratique et efficace. On a le détail de sa configuration en un clin d’oeil mais aussi et surtout un onglet performance qui permet d’optimiser son materiel suivant ses besoins de manière fine ou automatique. 

Enfin, le On Screen Display qui s’affiche par dessus les jeux a été repensé et amélioré. Il permet d’enregistrer ses parties (jusqu’en 120 ips compressé sous CODEC AV1) , de lancer des captures d’écrans en mode « photo » ou de suivre le nombre d’images par seconde ainsi que l’impact de votre activité sur le processeur graphique. Le pilotage des fonctions RTX est également intégré dans cette interface.

Au final Nvidia App permet de concentrer les deux applications nécessaires au préalable en une seule et de les piloter de manière plus lisible. La possibilité d’optimiser un jeu en un clic sur le bouton proposé est vraiment un plus. 

Pour télécharger Nvidia App, cela se passe ici.

Nvidia App : une gestion plus sereine de sa carte graphique

Minimachines.net en partenariat avec Geekbuying.com
Lancement officiel de Nvidia App qui sort de sa phase beta © MiniMachines.net. 2024.

☕️ Signal peut créer des liens pour rejoindre des appels en cours ou des réunions

L’application de conversation, du même nom que le protocole de communication chiffré de bout en bout (utilisé notamment par WhatsApp), modernise largement ses capacités et veut séduire les entreprises. Elle vient ainsi chasser sur les terres de Google Meet, Zoom et autres, notamment avec la création de liens d’appels.

Il ne s’agit pas seulement de liens pour des appels existants. Depuis le nouvel onglet Appels, un raccourci « Créer un lien » est désormais présent. Une interface classique apparait alors, dans laquelle on peut configurer le nom, l’approbation d’un administrateur (activée par défaut), la copie et le partage. Il suffit ensuite d’envoyer le lien aux contacts.

Ce fonctionnement, qui a fait le succès de services comme Meet chez Google, s’accompagne de quelques autres fonctions tout aussi classiques. Par exemple, la possibilité de lever la main pour demander à parler. De même, on peut envoyer des émojis pour réagir à l’intervention d’une personne. Les réactions apparaissent sur la gauche de la vidéo, accompagnées du nom des personnes. L’activation/désactivation du micro et de la caméra est également plus simple.

Enfin, la version de l’application pour ordinateurs intègre plus de choix pour l’affichage des participants. « Vous pouvez désormais choisir de les afficher en mode grille, en mode barre latérale ou en mode haut-parleur », indique Signal sur son blog.

Pour profiter des nouveautés, il faut posséder la dernière version (7.32.0) de l’application, qui a été mise à jour sur toutes les plateformes.

IA générative : la course au plus gros modèle commence à montrer ses limites

IA pas que la taille qui compte
IA générative : la course au plus gros modèle commence à montrer ses limites

Les leaders de l’IA générative ont, depuis l’arrivée de ChatGPT, mené une course au plus gros modèle. Mais OpenAI et ses concurrents ont de plus en plus de mal à créer des modèles qui dépassent les performances de leurs précédents. La course à l’entrainement de modèles de plus en plus gros ne suffit plus.

Les entreprises de l’IA génératives qui se sont concentrées sur la création de modèles toujours plus gros pour toujours plus de capacités commencent à voir les limites de cette stratégie arriver.

Le média américain The Information raconte que le nouveau modèle d’OpenAI, Orion, dont la sortie a été annoncée pour décembre prochain par The Verge et immédiatement démenti par Sam Altman, devrait apporter à lui seul une augmentation de performance beaucoup moins importante que le saut qu’avait pu avoir lieu entre GPT-3 et GPT-4. Orion n’est pourtant pas une nouvelle version de GPT-4 comme GPT-4o mais vraiment un nouveau modèle de l’entreprise et pourrait donc être considéré comme GPT-5 (même si OpenAI ne le publiera peut-être pas sous cette nomenclature).

Un Orion moins géant que prévu

Nous savons depuis quelque temps que les benchmarks des modèles de langage nous désinforment et ont tendance à nous faire croire à une évolution difficile à mesurer. Mais certains chercheurs d’OpenAI, selon The Information, pensent que les performances d’Orion ne seront pas meilleures dans ces comparaisons de modèles pour certaines tâches comme la génération de code.

Comme le disent nos confrères, cela remet en cause l’application aux modèles de langage de ce que certains appellent les « lois d’échelle » (scaling laws). Celles-ci voudraient qu’en entrainant les modèles avec des données toujours plus importantes sur des machines de plus en plus puissantes, on obtiendrait forcément des modèles plus puissants. Tadao Nagasaki, responsable d’OpenAI au Japon, s’appuyait pourtant encore très récemment sur ces « lois d’échelle » pour vanter la progression inexorable des modèles de son entreprise.

Des ressources presque épuisées ?

Une des hypothèses évoquées pour expliquer ce ralentissement serait que les entreprises d’IA génératives ont déjà puisé dans les plus grosses sources de textes de qualité et finalement presque épuisé les ressources sur lesquelles elles comptaient pour améliorer indéfiniment leurs modèles.

Le problème pour OpenAI, dans ces circonstances, est qu’utiliser un modèle plus gros demande plus d’énergie et coûte inévitablement plus cher.

La destruction du mythe du « plus c’est gros, mieux c’est » était déjà bien entamée, mais l’élaboration d’Orion chez OpenAI semble bien la confirmer.

Interrogé par Reuters, Ilya Sutskever, co-fondateur d’OpenAI ensuite parti créer la Safe Superintelligence, confirme que, pour lui, l’intensification du pré-entrainement a maintenant atteint un plateau. Lui-même a pourtant plaidé longtemps pour s’appuyer sur toujours plus de données et de puissance de calcul pour faire progresser les IA génératives.

À notre niveau, nous avons également exploré la question de l’importance des données d’entrainement sur les IA et les dangers du surapprentissage. En faire toujours plus n’est effectivement pas synonyme d’être toujours meilleur, loin de là même.

Des besoins d’optimisation

Ces entreprises prennent de plus en plus en compte d’autres techniques pour améliorer les réponses de leurs IA. Des chercheurs de Google et de l’université de Berkeley ont exploré cet été les moyens d’améliorer les performances des modèles pendant la phase d’inférence, c’est-à-dire après la phase d’entrainement, quand le modèle doit répondre à des questions des utilisateurs. Selon Reuters, la technique aurait été utilisée par OpenAI pour GPT-4o.

Ces entreprises essayaient déjà d’optimiser leurs modèles. Chez OpenAI, les sparse autoencoders, « méthode qui permet d’identifier une poignée de « caractéristiques » dans le réseau neuronal qui sont importantes pour produire un résultat donné », ont été utilisés pour optimiser les résultats de GPT-4, par exemple. Mais il semble que ces entreprises vont devoir redoubler d’effort et s’appuyer d’autant plus sur la recherche en cours pour améliorer les performances de leurs modèles.

Ce plafond de verre de la course aux modèles toujours plus gros pose aussi des questions sur la place de NVIDIA dans cette industrie. Cette course au « toujours plus » plaçait le producteur de GPU dans une situation idéale de pourvoyeur de puissance inévitable pour créer des modèles toujours plus puissants. Mais il est donc possible que les besoins en calcul ne suivent pas l’évolution prévue et que les espoirs de certains investisseurs soient quelque peu douchés.

☕️ Bluesky fait le plein aux États-Unis et atteint 14,5 millions d’utilisateurs

The Verge, s’appuyant sur des déclarations de Rose Wang (directrice de l’exploitation de Bluesky) annonce que le réseau social Bluesky « a gagné plus de 700 000 nouveaux utilisateurs au cours de la semaine dernière et compte désormais plus de 14,5 millions d’utilisateurs au total ».

Bluesky est désormais l’application sociale n°2 aux États-Unis, au Canada et n°3 au Royaume-Uni. Outre-Atlantique, elle se place « juste derrière Threads de Meta », ajoutent nos confrères.

Fin octobre, la plateforme revendiquait plus de 13 millions d’utilisateurs. La barre des 10 millions avait été dépassée mi-septembre de cette année. Fin août/début septembre, le réseau social avait déjà gagné plus d’un million d’utilisateurs en quelques jours, suite à la mise en place de la « suspension immédiate, complète et intégrale du fonctionnement de “ X Brasil internet LTDA ” sur le territoire national ».

Checking in a little bit later now and we're still on a roll, up to just about 13.5M users from ~6.2M users 2 months ago. Good thing there's nothing exciting happening next week and things will be nice and normal and stable for a while…

[image or embed]

— Jaz (@jaz.bsky.social) 30 octobre 2024 à 00:45

Cette fois-ci, la « majorité » des nouveaux utilisateurs vient des États-Unis, suite notamment à la victoire de Donald Trump à l’élection présidentielle américaine de la semaine dernière, avec le soutien marqué et appuyé d’Elon Musk, patron de X.

« Les gens cherchent peut-être à utiliser une plateforme qui n’appartient pas à Musk ou, comme certains fans de Taylor Swift, peuvent être à la recherche d’une nouvelle plateforme à la suite d’une augmentation des discours de haine sur X », expliquent nos confrères. Ce n’est pas la seule polémique autour de X et de son patron.

De son côté, Bluesky a levé 15 millions de dollars et continue de se développer.

☕️ L’Europe demande à Apple de mettre fin au géoblocage dans ses services

Nouvelles frictions entre l’Europe et Apple. Dans un communiqué paru aujourd’hui, la Commission et le réseau des CPC (organismes de défense des consommateurs, dont l’UFC-Que Choisir fait partie) demandent à Apple de bien bouloir arrêter ses pratiques de géoblocage sur plusieurs de ses services : App Store, Apple Arcade, Music, iTunes Store, Books et Podcasts.

De quoi s’agit-il ? Du choix de ne proposer certains services ou contenus que dans des pays spécifiques. Conséquence, les différents consommateurs au sein de l’Union n’ont pas accès à la même chose, ni même ne voient parfois la même interface.

L’enquête, menée sous la coordination de la Commission par les autorités nationales compétentes de Belgique, d’Allemagne et d’Irlande, pointe plusieurs problèmes, répartis dans trois catégories. L’accès en ligne d’abord. « Les services multimédias d’Apple ont une interface différente selon les pays de l’UE/EEE », accuse la Commission. Les consommateurs ne peuvent voir l’interface conçue pour leur pays. Il est très difficile d’en changer.

Même chose pour les méthodes de paiement : on ne peut payer un service dans un pays qu’avec les moyens de paiement émis dans ce dernier. Quant à l’App Store, les consommateurs européens ne peuvent télécharger que les applications présentes dans leur pays. Il n’est pas possible d’aller récupérer des applications, jeux et autres sur les boutiques des voisins.

Or, toujours dans une optique liée au marché unique, le Règlement sur le géoblocage et la Directive sur les services sont clairs : ces pratiques sont illégales.

« Le règlement sur le géoblocage interdit toute discrimination injustifiée entre les clients de l’UE sur la base de leur nationalité, de leur résidence ou de leur lieu d’établissement lorsqu’ils souhaitent acheter des biens et des services à des commerçants situés dans un autre État membre. La directive sur les services exige que les conditions générales d’accès à un service ne contiennent pas de dispositions discriminatoires relatives à la nationalité ou au lieu de résidence du destinataire du service, à moins qu’elles ne soient directement justifiées par des critères objectifs », explique ainsi la Commission.

Comme l’indique le communiqué, Apple a maintenant un mois pour répondre. La société n’aura que deux solutions : soit apporter des justifications crédibles à la Commission et au réseau des CPC, soit harmoniser ses pratiques dans l’Union européenne.

AMD annonce ses « SoC adaptatifs » Versal Premium Gen 2

AMD annonce ses « SoC adaptatifs » Versal Premium Gen 2

AMD annonce ses FPGA Versal Premium de seconde génération, avec le passage au PCIe 6.0, au CXL 3.1 et à la LPDDR5X. Quatre références sont annoncées, mais il faudra être patient pour la disponibilité.

Les Versal d’AMD (lancés par Xilinx, une société rachetée par AMD en 2020) sont des SoC adaptatifs (ou FPGA) « pour toutes les applications, du cloud à la périphérie ». La première génération comprend cinq gammes de produits : AI Edge, AI Core, HBM, Prime et Premium.

Les deux premières ciblent évidemment l’intelligence artificielle. AI Edge propose des « performances IA/watt exceptionnelles », tandis que la seconde cible des « performances de calcul exceptionnelles ». HBM porte bien son nom puisque cette gamme intègre de la mémoire HBM2e (High Bandwidth Memory) avec une large bande passante. AMD annonce ainsi « jusqu’à 6 fois plus de bande passante pour une consommation par bit réduite de 65 % par rapport à la série Versal Premium ».

Enfin, Prime est la « série fondamentale […] offrant une large applicabilité sur plusieurs marchés », tandis que Premium se place un cran au-dessus et vise les « applications de calcul et de mise en réseau les plus exigeantes ». AMD cite différents cas d’usage sur cette page.

Versal Premium Gen 2 : PCIe 6.0 et CXL 3.1

Les gammes séries AI Edge et Prime ont déjà eu droit à une seconde génération, c’est maintenant au tour de Premium de passer la seconde, avec des améliorations sur plusieurs points. Série haut de gamme oblige, on y retrouve logiquement du PCIe 6.0 avec 2 x 8 lignes, du CXL 3.1 (Compute Express Link) basé sur PCIe 6.0, ainsi que de la (LP)DDR5(X) jusqu’à 8 533 MHz avec 4 ou 8 canaux suivant les références.

Le PCIe 6.0 propose pour rappel une bande passante de 64 GT/s (en PAM4, ou Pulse Amplitude Modulation avec 4 niveaux). Si les versions 1.x et 2.0 de CXL utilisaient la norme PCIe 5.0 (32 GT/s), CXL 3.0 et 3.1 exploitent le PCIe 6.0 avec une bande passante doublée de 64 GT/s.

Quatre références, avec 0,6 à 1,5 million de LTU

Alors que la première génération de SoC Versal Premium comprenait douze références (du VP1002 au VP1902), AMD n’en annonce que quatre nouvelles pour l’instant : les 2VP3102. 2VP3202, 2VP3402 et 2VP3602. Le 2 devant VP pour seconde génération. Le V pour Versal et P pour Premium pour rappel.

Le nouveau FPGA Versal 2VP3102 vient donc se placer en face du VP1102, avec un peu moins de cellules logiques du système (1,408 million contre 1,575 million) et donc des tables de correspondance (LookUp Table ou LTU) moins nombreuses également (643 456 contre 719 872). Par contre, le nombre de moteurs DSP est en hausse : 3 332 au lieu de 1 904.

Aucun des quatre Versal Premium Gen 2 n’a pour le moment de moteurs d’IA, comme c’est le cas des VP2502 et VP2802 (peut-être aurons-nous droit à des 2VP4x02 à l’avenir ?).

Les caractéristiques techniques complètes des nouveaux SoC adaptatifs sont regroupées sur ce tableau :

Avec « seulement » 3,273 millions de cellules logiques système, le Versal 2VP3602 est juste en dessous des Versal VP1802 et VP2802 (un VP1802 avec des moteurs d’IA) et reste très loin du record système du VP1902. Ce dernier comprend pour rappel 18,5 millions de cellules logiques et 8,46 millions de LUT, mais « seulement » 6 864 moteurs DSP, contre plus de 14 000 pour les VPx802.

Longue attente avant la disponibilité

Il faudra encore être patient, puisque la disponibilité n’est pas prévue avant le premier semestre 2026 pour les échantillons et les kits de développement. Les expéditions des puces en production devraient débuter durant la seconde moitié de 2026.

☕️ Data centers : Tencent investit 500 millions de dollars en Indonésie

Data centers : Tencent investit 500 millions de dollars en Indonésie

Tencent prévoit de dépenser un demi-milliard de dollars dans le développement d’un troisième data center en Indonésie.

L’opération fait partie d’un partenariat entre les groupes GoTo et Alibaba pour déployer des infrastructures cloud dans le pays, relève Data Center Dynamics.


Le géant chinois, qui détient déjà deux centres de données à Jakarta, doit investir les 500 millions de dollars annoncés d’ici 2030.

En parallèle, Alibaba Cloud prévoit de doubler le nombre de personnes qu’elle forme à l’intelligence artificielle et à l’informatique en nuage en Indonésie.

Elle devrait créer un centre d’expertise au sein de l’université d’Indonésie.

☕️ Signal peut créer des liens pour rejoindre des appels en cours ou des réunions

L’application de conversation, du même nom que le protocole de communication chiffré de bout en bout (utilisé notamment par WhatsApp), modernise largement ses capacités et veut séduire les entreprises. Elle vient ainsi chasser sur les terres de Google Meet, Zoom et autres, notamment avec la création de liens d’appels.

Il ne s’agit pas seulement de liens pour des appels existants. Depuis le nouvel onglet Appels, un raccourci « Créer un lien » est désormais présent. Une interface classique apparait alors, dans laquelle on peut configurer le nom, l’approbation d’un administrateur (activée par défaut), la copie et le partage. Il suffit ensuite d’envoyer le lien aux contacts.

Ce fonctionnement, qui a fait le succès de services comme Meet chez Google, s’accompagne de quelques autres fonctions tout aussi classiques. Par exemple, la possibilité de lever la main pour demander à parler. De même, on peut envoyer des émojis pour réagir à l’intervention d’une personne. Les réactions apparaissent sur la gauche de la vidéo, accompagnées du nom des personnes. L’activation/désactivation du micro et de la caméra est également plus simple.

Enfin, la version de l’application pour ordinateurs intègre plus de choix pour l’affichage des participants. « Vous pouvez désormais choisir de les afficher en mode grille, en mode barre latérale ou en mode haut-parleur », indique Signal sur son blog.

Pour profiter des nouveautés, il faut posséder la dernière version (7.32.0) de l’application, qui a été mise à jour sur toutes les plateformes.

IA générative : la course au plus gros modèle commence à montrer ses limites

IA pas que la taille qui compte
IA générative : la course au plus gros modèle commence à montrer ses limites

Les leaders de l’IA générative ont, depuis l’arrivée de ChatGPT, mené une course au plus gros modèle. Mais OpenAI et ses concurrents ont de plus en plus de mal à créer des modèles qui dépassent les performances de leurs précédents. La course à l’entrainement de modèles de plus en plus gros ne suffit plus.

Les entreprises de l’IA génératives qui se sont concentrées sur la création de modèles toujours plus gros pour toujours plus de capacités commencent à voir les limites de cette stratégie arriver.

Le média américain The Information raconte que le nouveau modèle d’OpenAI, Orion, dont la sortie a été annoncée pour décembre prochain par The Verge et immédiatement démenti par Sam Altman, devrait apporter à lui seul une augmentation de performance beaucoup moins importante que le saut qu’avait pu avoir lieu entre GPT-3 et GPT-4. Orion n’est pourtant pas une nouvelle version de GPT-4 comme GPT-4o mais vraiment un nouveau modèle de l’entreprise et pourrait donc être considéré comme GPT-5 (même si OpenAI ne le publiera peut-être pas sous cette nomenclature).

Un Orion moins géant que prévu

Nous savons depuis quelque temps que les benchmarks des modèles de langage nous désinforment et ont tendance à nous faire croire à une évolution difficile à mesurer. Mais certains chercheurs d’OpenAI, selon The Information, pensent que les performances d’Orion ne seront pas meilleures dans ces comparaisons de modèles pour certaines tâches comme la génération de code.

Comme le disent nos confrères, cela remet en cause l’application aux modèles de langage de ce que certains appellent les « lois d’échelle » (scaling laws). Celles-ci voudraient qu’en entrainant les modèles avec des données toujours plus importantes sur des machines de plus en plus puissantes, on obtiendrait forcément des modèles plus puissants. Tadao Nagasaki, responsable d’OpenAI au Japon, s’appuyait pourtant encore très récemment sur ces « lois d’échelle » pour vanter la progression inexorable des modèles de son entreprise.

Des ressources presque épuisées ?

Une des hypothèses évoquées pour expliquer ce ralentissement serait que les entreprises d’IA génératives ont déjà puisé dans les plus grosses sources de textes de qualité et finalement presque épuisé les ressources sur lesquelles elles comptaient pour améliorer indéfiniment leurs modèles.

Le problème pour OpenAI, dans ces circonstances, est qu’utiliser un modèle plus gros demande plus d’énergie et coûte inévitablement plus cher.

La destruction du mythe du « plus c’est gros, mieux c’est » était déjà bien entamée, mais l’élaboration d’Orion chez OpenAI semble bien la confirmer.

Interrogé par Reuters, Ilya Sutskever, co-fondateur d’OpenAI ensuite parti créer la Safe Superintelligence, confirme que, pour lui, l’intensification du pré-entrainement a maintenant atteint un plateau. Lui-même a pourtant plaidé longtemps pour s’appuyer sur toujours plus de données et de puissance de calcul pour faire progresser les IA génératives.

À notre niveau, nous avons également exploré la question de l’importance des données d’entrainement sur les IA et les dangers du surapprentissage. En faire toujours plus n’est effectivement pas synonyme d’être toujours meilleur, loin de là même.

Des besoins d’optimisation

Ces entreprises prennent de plus en plus en compte d’autres techniques pour améliorer les réponses de leurs IA. Des chercheurs de Google et de l’université de Berkeley ont exploré cet été les moyens d’améliorer les performances des modèles pendant la phase d’inférence, c’est-à-dire après la phase d’entrainement, quand le modèle doit répondre à des questions des utilisateurs. Selon Reuters, la technique aurait été utilisée par OpenAI pour GPT-4o.

Ces entreprises essayaient déjà d’optimiser leurs modèles. Chez OpenAI, les sparse autoencoders, « méthode qui permet d’identifier une poignée de « caractéristiques » dans le réseau neuronal qui sont importantes pour produire un résultat donné », ont été utilisés pour optimiser les résultats de GPT-4, par exemple. Mais il semble que ces entreprises vont devoir redoubler d’effort et s’appuyer d’autant plus sur la recherche en cours pour améliorer les performances de leurs modèles.

Ce plafond de verre de la course aux modèles toujours plus gros pose aussi des questions sur la place de NVIDIA dans cette industrie. Cette course au « toujours plus » plaçait le producteur de GPU dans une situation idéale de pourvoyeur de puissance inévitable pour créer des modèles toujours plus puissants. Mais il est donc possible que les besoins en calcul ne suivent pas l’évolution prévue et que les espoirs de certains investisseurs soient quelque peu douchés.

☕️ Bluesky fait le plein aux États-Unis et atteint 14,5 millions d’utilisateurs

The Verge, s’appuyant sur des déclarations de Rose Wang (directrice de l’exploitation de Bluesky) annonce que le réseau social Bluesky « a gagné plus de 700 000 nouveaux utilisateurs au cours de la semaine dernière et compte désormais plus de 14,5 millions d’utilisateurs au total ».

Bluesky est désormais l’application sociale n°2 aux États-Unis, au Canada et n°3 au Royaume-Uni. Outre-Atlantique, elle se place « juste derrière Threads de Meta », ajoutent nos confrères.

Fin octobre, la plateforme revendiquait plus de 13 millions d’utilisateurs. La barre des 10 millions avait été dépassée mi-septembre de cette année. Fin août/début septembre, le réseau social avait déjà gagné plus d’un million d’utilisateurs en quelques jours, suite à la mise en place de la « suspension immédiate, complète et intégrale du fonctionnement de “ X Brasil internet LTDA ” sur le territoire national ».

Checking in a little bit later now and we're still on a roll, up to just about 13.5M users from ~6.2M users 2 months ago. Good thing there's nothing exciting happening next week and things will be nice and normal and stable for a while…

[image or embed]

— Jaz (@jaz.bsky.social) 30 octobre 2024 à 00:45

Cette fois-ci, la « majorité » des nouveaux utilisateurs vient des États-Unis, suite notamment à la victoire de Donald Trump à l’élection présidentielle américaine de la semaine dernière, avec le soutien marqué et appuyé d’Elon Musk, patron de X.

« Les gens cherchent peut-être à utiliser une plateforme qui n’appartient pas à Musk ou, comme certains fans de Taylor Swift, peuvent être à la recherche d’une nouvelle plateforme à la suite d’une augmentation des discours de haine sur X », expliquent nos confrères. Ce n’est pas la seule polémique autour de X et de son patron.

De son côté, Bluesky a levé 15 millions de dollars et continue de se développer.

☕️ L’Europe demande à Apple de mettre fin au géoblocage dans ses services

Nouvelles frictions entre l’Europe et Apple. Dans un communiqué paru aujourd’hui, la Commission et le réseau des CPC (organismes de défense des consommateurs, dont l’UFC-Que Choisir fait partie) demandent à Apple de bien bouloir arrêter ses pratiques de géoblocage sur plusieurs de ses services : App Store, Apple Arcade, Music, iTunes Store, Books et Podcasts.

De quoi s’agit-il ? Du choix de ne proposer certains services ou contenus que dans des pays spécifiques. Conséquence, les différents consommateurs au sein de l’Union n’ont pas accès à la même chose, ni même ne voient parfois la même interface.

L’enquête, menée sous la coordination de la Commission par les autorités nationales compétentes de Belgique, d’Allemagne et d’Irlande, pointe plusieurs problèmes, répartis dans trois catégories. L’accès en ligne d’abord. « Les services multimédias d’Apple ont une interface différente selon les pays de l’UE/EEE », accuse la Commission. Les consommateurs ne peuvent voir l’interface conçue pour leur pays. Il est très difficile d’en changer.

Même chose pour les méthodes de paiement : on ne peut payer un service dans un pays qu’avec les moyens de paiement émis dans ce dernier. Quant à l’App Store, les consommateurs européens ne peuvent télécharger que les applications présentes dans leur pays. Il n’est pas possible d’aller récupérer des applications, jeux et autres sur les boutiques des voisins.

Or, toujours dans une optique liée au marché unique, le Règlement sur le géoblocage et la Directive sur les services sont clairs : ces pratiques sont illégales.

« Le règlement sur le géoblocage interdit toute discrimination injustifiée entre les clients de l’UE sur la base de leur nationalité, de leur résidence ou de leur lieu d’établissement lorsqu’ils souhaitent acheter des biens et des services à des commerçants situés dans un autre État membre. La directive sur les services exige que les conditions générales d’accès à un service ne contiennent pas de dispositions discriminatoires relatives à la nationalité ou au lieu de résidence du destinataire du service, à moins qu’elles ne soient directement justifiées par des critères objectifs », explique ainsi la Commission.

Comme l’indique le communiqué, Apple a maintenant un mois pour répondre. La société n’aura que deux solutions : soit apporter des justifications crédibles à la Commission et au réseau des CPC, soit harmoniser ses pratiques dans l’Union européenne.

Apple Gets EU Warning To Stop Geo-Blocking on App, iTunes Stores

Apple was notified by the European Union that its geo-blocking practices are potentially in breach of consumer protection rules, adding to the iPhone maker's regulatory issues in the bloc. From a report: Apple's App Store, iTunes Store and other media services unlawfully discriminate against European customers based on their place of residence, according to a European Commission statement on Tuesday. The notification comes as Apple is facing the first-ever fine under the Digital Markets Act, or DMA, for failing to allow app developers to steer users to cheaper deals, Bloomberg News reported last week. That penalty is set to come months after the Cupertino, California-based company was hit with a $1.9 billion fine for similar abuses under the bloc's traditional competition rules. The geo-locating investigation was conducted together with a network of national consumer authorities and found Apple media services only allow users to use payment cards issued in the countries they registered their Apple accounts, according to the statement. The App Store also blocks users from downloading apps offered in other countries, the investigation found.

Read more of this story at Slashdot.

Early Benchmarks: AMD EPYC 9005 Performance & Power Efficiency To Lead Further With Linux 6.13

One of the many changes to look forward to with the upcoming Linux 6.13 kernel cycle is the AMD P-State driver to be used by default with the new EPYC 9005 series processors. While AMD Ryzen CPUs for a while now have been defaulting to the modern AMD P-State driver that makes use of ACPI CPPC platform support for allowing better power efficiency, AMD EPYC CPUs have kept to using the generic ACPI CPUFreq frequency scaling driver. But now AMD engineers have deemed amd_pstate ready for use with EPYC 9005 "Turin" CPUs and will be the default choice moving forward. Here is more information and power/performance benchmarks for this shift while testing using the EPYC 9755 processors.

Creality K2 Plus : une énorme imprimante fermée et multi filament

La nouvelle imprimante Creality K2 Plus se distingue de beaucoup de ses concurrentes à plusieurs niveaux. Il s’agit de la série K de la marque et donc d’un modèle fermé. Elle est compatible avec les modules CFS de gestion de filament qu’elle peut combiner, vitesse d’impression élevée, prise en charge des filaments spéciaux et intégration d’un contrôle de qualité en temps réel à l’aide de caméras. Mais ce qui distingue le plus ce nouveau modèle c’est bien le volume d’impression disponible.

La Creality K2 Plus en version Combo avec son CFS au dessus.

La Creality K2 Plus propose un volume de 350 x 350 x 350 mm au total, c’est énorme, beaucoup plus que la concurrence grand public. On retrouve ce genre de volume dans les modèles à destination des pros et cela se ressent d’ailleurs assez fortement dans le prix de la machine. A 1499€ TTC prix public dans sa version « Combo » et à 1299€ en version classique, cet outil ne sera pas vraiment à la portée de toutes les bourses.

La Creality K1

K1-caha

L’histoire de la série K chez Creality a débuté avec les K1. Si la marque était connue et reconnue pour ses modèles d’imprimantes classiques de la série Ender et en particulier les très nombreuses déclinaisons des Ender 3, la K1 a été son premier engin fermé. Et, pour en avoir une, c’est un excellent modèle d’imprimante à l’espace contrôlé, capable d’imprimer de multiples matériaux, efficace et robuste. Pas mal de filament a coulé sous les buses à propos de cette série. En particulier parce qu’une armée de possesseurs d’imprimantes d’autres marques se sentent investit dans la mission de venir expliquer en quoi leur modèle est bien meilleur dès qu’une solution se profile. Je vous toujours ce genre de témoignage d’un inconnu expliquant à d’autres inconnus en quoi son materiel deux fois plus cher est meilleur que le reste comme une manière de se réassurer sur son investissement. Comme une sorte de méthode Coué post achat. En pratique les Creality K1, K1 Max, K1C et K1 SE qui sont sorties au fils des mois corrigent des problèmes remontés par la communauté d’utilisateurs. Et entre une K1 et une K1C ou SE, on sent que la marque a travaillé son sujet.

Ma toute première impression avec une K1 n’était pas flatteuse…

Mais, encore une fois, avec un Creality K1 entre les mains et après avoir réglé des petits soucis de jeunesse, l’imprimante était déjà un formidable outil dès sa sortie. Un de ses gros défaut venait de son absence de profil « clé en main » dans les logiciels de découpage grand public. Ce qui rendait certaines impressions plus compliquées qu’avec une Ender classique bien maitrisée par la communauté. L’autre défaut étant l’optimisme débridé des ingénieurs de Creality qui a eu un effet dévastateur sur l’image de la première K1. En effet l’imprimante était livrée avec en mémoire un « benchy » de test poussant les paramètres d’impression de la machine au maximum de ses capacités. Ce qui faisait non seulement un bruit énorme mais également de grosses vibrations. Beaucoup de remontées du public laissaient vor une certaine déception à l’impression de ce modèle de test. Tout simplement parce que la machine était tellement sollicitée qu’elle exigeait d’être posée sur une plaque de béton et calée au mieux pour résister à ce qu’impose cette impression ultra rapide et bruyante. Certains ont vu là des failles matérielles alors que quelques réglages transformaient totalement l’outil.

C’est aussi un problème rencontré par ces modèles fermés, comme si le fait que cela ressemble à un produit « fini », bien plus qu’une imprimante 3D classique, poussait les gens a estimer qu’il n’y avait plus de différence d’avec une imprimante papier classique. L’impression 3D reste une pratique demandant doigté et expérience et on ne peut pas faire n’importe quoi sans en subir les conséquences à l’impression finale. Un minimum de réglages s’imposent.

Bref, la série K1 existe, a fait de nombreux pas en avant dans sa courte vie et on sent à la découverte de cette Creality K2 Plus, que la marque a pris en compte de nombreux retours mais qu’elle a également analysé le marché concurrent.

Creality K2 Plus : volume, confort et potentiel

Parmi les point clé de ce nouveau modèle, le volume d’impression impressionnant proposé. Le marché est en général coincé dans un espace cubique entre 250 et 260 mm de côté. Un volume très suffisant pour de nombreuses pièces mais pouvoir ajouter 10 cm de plus est assez impressionnant. En plus de ce volume, Creality présente son propre module, le « Creality Filament System » ou CFS. Une gestion multi filament qui permet d’imprimer avec de multiples coloris mais également de jouer avec les matériaux.

On peut sans avoir a changer de bobine passer d’un PLA classique à un ABS ou un PETG pour des projets aux besoins différents. Il est également possible de mixer des filament de différents matériaux compatibles entre eux ce qui ouvre des perspectives très intéressantes. La Creality K2 Plus pourra combiner jusqu’à quatre modules CFS ensemble. A raison de 4 bobines par module on obtient ainsi un total de 16 filaments différents. Un peu « trop » pour un particulier mais une possibilité intéressante pour certains usages.

Pour gérer ces différents filaments on retrouvera le chargement automatique des différents matériaux gérer le changement automatisé de chaque filament, la purge sera automatiquement rafraichie pour enlever les résidus du dernier matériau et les déchets de purge du corps de chauffe seront éjectés dans un compartiment prévu à cet effet. Tout cela nécessite des conditions de températures spécifiques pour obtenir le meilleur résultat possible. On retrouve donc un corps fermé et un chauffage actif de la chambre d’impression piloté par différents capteurs. L’intérieur de la chambre pourra atteindre 60°C, ce qui permet d’accepter des filament spéciaux.

Le risque d’un soucis d’impression en utilisant plusieurs matériaux est grand et Creality reprend donc son système de caméras internes qui analysent l’impression pour repérer d’éventuels soucis. J’avoue ne pas être emballé par ce dispositif actuellement, il fait encore de nombreuses erreurs d’appréciation et j’ai du le couper sur la K1. Peut être que l’arrivée de la K2 sera suivi d’une mise à jour plus convaincante.

Autre point positif de la nouvelle venue, la reprise de l’extrudeur Direct Drive « Apus » de la marque. C’est une solution très efficace et particulièrement rapide pour peu qu’on utilise des matériaux adaptés. Avec un PLA conçu pour une fonte rapide et fluide, la K2 promet jusqu’à 600 mm/s. Les autres PLA devront s’étalonner à des vitesses moins grandes. On retrouve également un corps de chauffe en céramique, un changement de buse rapide et une très bonne gestion du refroidissement. Avec une chauffe maximale de 350°C, la K2 promet de gérer des filaments complexes et notamment les éléments enrichis en fibre de carbone.

Enfin l’imprimante est munie d’une connectique Ethernet, d’un Wi-Fi et peut exploiter le Creality Cloud pour imprimer facilement.

Creality Print

Le logiciel de gestion maison évolue pour prendre en compte plusieurs points. Le constructeur ne s’est pas trop compliqué la tâche et a simplement cloné son concurrent Bambu Lab pour proposer une gestion multi filament efficace. Le logiciel prend en charge les fichiers 3MF pour prendre en charge les multiples filaments et une détection RFID liée au CFS est proposée. Rien d’obligatoire mais une façon maline des constructeurs comme Creality de proposer un filament plus simple d’emploi puisque les informations contenues dans la puce RFID intégrée dans la bobine proposeront d’emblée les meilleures réglages d’impression au logiciel. Il sera parfaitement possible d’intégrer d’autres types de filaments de n’importe quelle marque en réglant ses paramètres manuellement.

Le Creality Filament System 

Associé avec la Creality K2 Plus, le constructeur annonce donc son CFS. Vendu seul à 299€ il permet d’intégrer 4 bobines de filaments au dispositif. Compatible avec les classiques PLA, PETG et ABS, la  solution permet de prendre en charge les formules PET-CF, PA-CF et ASA. Attention, les filaments flexibles ne peuvent pas faire le voyage du CFS à l’extrudeuse, pas plus que les filaments soluble et j’ai de gros doute pour ls filaments type « cire perdue » qui sont moins rigides que les autres. cela ne veut pas dire que l’imprimante ne peux pas prendre en charge ces filaments de manière classique. Il reste parfaitement possible de désactiver le CFS et d’entrainer une bobine directement dans la K2 Plus. 

Le module prendra en charge vos filament et assurera que ceux-ci soient à la bonne température et à la bonne humidité en desséchant l’air dans l’habitacle.


Sur le site de Creality…

Et les K1 alors ? Creality vend le CFS seul, probablement pour laisser aux gens la possibilité d’en acheter plusieurs facilement. Mais je ne serais pas surpris de voir un kit pour adapter les K1 à ce dispositif à l’avenir, C’est de la pure spéculation de ma part mais comme rien ne l’interêt techniquement parlant et que ce serait un bon moyen de rentabiliser rapidement la R&D du CFS, c’est plus que probable.

Le kit Creality K2 Plus Combo est listé à 1499€ chez Creality et chez Geekbuying

 

Technologie d’impression : modélisation par dépôt de fil fondu
Volume de construction : 350*350*350mm
Dimensions du K2 Plus : 495 x 515 x 640 mm
Dimensions du combiné K2 Plus : 495 x 515 x 916 mm
Poids net du K2 Plus : 35 kg
Vitesse d’impression : < 600 mm/s
Accélération : 30000mm/s²
Précision d’impression : 100 mm ± 0,1 mm
Hauteur de couche : 0,05-0,3 mm
Extrudeuse : Extrudeuse à entraînement direct à double engrenage
Diamètre du filament : 1,75 mm
Diamètre de la buse : 4 mm
Température de la buse : ≤ 350 °C
Température du lit chauffant : ≤ 120 °C
Température de la chambre : ≤60°C
Plaque de construction : plaque de construction flexible
Mode de mise à niveau : mise à niveau entièrement automatique
Moteur XYZE : servomoteur pas à pas
Transfert de fichiers : clé USB/Ethernet/WiFi
Stockage de fichiers : 32 Go EMMC
Wifi : 2,4 GHz/5 GHz
Capteur RFID dans l’imprimante : inclus
Tension nominale : 100-240 V~ CA 50/60 Hz
Écran d’affichage : écran tactile couleur de 4,3 pouces
Puissance nominale : 1200 W
Filaments pris en charge : PLA/ABS/PETG/PA-CF/ PLA-CF/ PET/ASA/PPA-CF
Caméra Al pour la surveillance : Standard
Caméra Al pour l’étalonnage : Standard
Récupération après perte de puissance : Oui
Relais à filament automatique : Oui
Détection d’enchevêtrement de filaments : Oui
Purificateur d’air : Oui
Mise en forme des entrées : Oui
Kit d’éclairage : Oui
Étalonnage actif de l’inclinaison du lit : Oui
Tension active de la courroie : Oui
Chauffage de chambre actif : Oui
Filaments étiquetés RFID : Oui
Format de fichier imprimable : Gcode/3MF
Compatibilité CFS : Oui
Nombre d’extensions CFS : ≤4
Logiciel de découpage : Creality Print 5.0 ou versions plus récentes
Langues de l’interface utilisateur : anglais/allemand/espagnol/français/italien/portugais/russe/turc/japonais/coréen/chinois

Minimachines.net en partenariat avec Geekbuying.com
Creality K2 Plus : une énorme imprimante fermée et multi filament © MiniMachines.net. 2024.

Retailers Explore Radio-Emitting Threads To Combat Surging Theft

Major retailers are considering embedding radio-emitting threads into clothing as a novel anti-theft measure amid soaring retail crime rates, according to Bloomberg, citing industry sources. The technology, developed by Spanish firm Myruns, uses conductive ink derived from cellulose to create threads five times thinner than human hair that can trigger security alarms. Zara owner Inditex has discussed implementing the system, though the company says it has no plans for in-store testing. Retail theft caused an estimated $73 billion in lost sales in the U.S. in 2022, according to the National Retail Federation, while UK losses doubled to $4.2 billion in 2023. The crisis has prompted retailers to increase security personnel and surveillance systems. The threadlike technology could provide an alternative to traditional metal-based security tags, potentially offering biodegradable and recyclable anti-theft protection.

Read more of this story at Slashdot.

❌