Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 1 mai 2024Actualités numériques

LastPass Separates From GoTo

Par : msmash
1 mai 2024 à 16:41
LastPass, the password manager company, has officially separated from its parent company, GoTo, following a series of high-profile hacks in recent years. The company will now operate under a shareholder holding company called LMI Parent. LastPass -- owned by private equity firms Francisco Partners and Elliott Management -- has faced criticism for its handling of the breaches, which resulted in the theft of customer data and encryption keys. The company has since enforced a 12-character minimum for master passwords to improve security.

Read more of this story at Slashdot.

Les spécifications de consommation d'Intel, cela donne des comportements étonnants sous Linux !

Suite aux soucis de stabilité des processeurs Raptor Lake sous forte charge, ASUS est allé sortir un nouveau BIOS sur ses cartes mères pour offrir l’expérience d’auteur de ces CPU — comprendre, respecter à la lettre les spécifications (parfois floues !) du géant bleu. Or, lorsque l’option incriminée...

Microsoft Concern Over Google's Lead Drove OpenAI Investment

Par : msmash
1 mai 2024 à 16:02
Microsoft's motivation for investing heavily and partnering with OpenAI came from a sense of falling badly behind Google, according to an internal email released Tuesday as part of the Justice Department's antitrust case against the search giant. Bloomberg: The Windows software maker's chief technology officer, Kevin Scott, was "very, very worried" when he looked at the AI model-training capability gap between Alphabet's efforts and Microsoft's, he wrote in a 2019 message to Chief Executive Officer Satya Nadella and co-founder Bill Gates. The exchange shows how the company's top executives privately acknowledged they lacked the infrastructure and development speed to catch up to the likes of OpenAI and Google's DeepMind. [...] Scott, who also serves as executive vice president of artificial intelligence at Microsoft, observed that Google's search product had improved on competitive metrics because of the Alphabet company's advancements in AI. The Microsoft executive wrote that he made a mistake by dismissing some of the earlier AI efforts of its competitors. "We are multiple years behind the competition in terms of machine learning scale," Scott said in the email. Significant portions of the message, titled 'Thoughts on OpenAI,' remain redacted. Nadella endorsed Scott's email, forwarding it to Chief Financial Officer Amy Hood and saying it explains "why I want us to do this."

Read more of this story at Slashdot.

Global Debt Hasn't Been This Bad Since the Napoleonic Wars, Says WEF President

Par : msmash
1 mai 2024 à 15:20
The massive volumes of debt piling up around the globe forced the president of the World Economic Forum to reach back more than 200 years for a comparable period. Fortune: In an interview Sunday with CNBC at a WEF conference in Saudi Arabia, Borge Brende warned overall debt is approaching the world's total economic output. "We haven't seen this kind of debt since the Napoleonic Wars," he said. "We're getting close to 100% of global GDP in debt." According to the International Monetary Fund last year, global public debt hit $91 trillion, or 92% of GDP, by the end of 2022. That was actually a dip from pandemic-era debt levels but remained in line with a decades-long trend higher. Data on global debt during the Napoleonic Wars, which took place in the early 1800s, is harder to come by. But for comparison, some estimates put British government debt at more than 200% of GDP by 1815. Brende also told CNBC that governments need to take fiscal measures to reduce their debts without triggering a recession. For now, global growth is about 3.2% annually, which isn't bad, but it's also below the 4% trend growth the world had seen for decades, he said earlier in the interview. That risks a repeat of the 1970s, when growth was low for a decade, Brende added. But the world can avoid such an outcome if it continues to trade and doesn't engage in more trade wars. "Trade was the engine of growth for decades," he said.

Read more of this story at Slashdot.

Firebat A8 : un MiniPC Ryzen 7 8845HS qui sort du lot

1 mai 2024 à 15:59

Minimachines.net en partenariat avec TopAchat.com

Le Firebat A8 ne ressemble pas aux précédents modèles de cette marque. Toutes les machines commercialisées par le passé étaient des clones purs et simples des MiniPC classiques. Ce modèle change de formule.

Avec l’affaire des virus qui a touché ces fabricants qui reprenaient tous les mêmes designs, les marques veulent se sortir de cette impasse marketing. Il est devenu important de se démarquer, de proposer un design alternatif. Différent de ce que mettent en avant d’autres constructeurs. Histoire qu’on ne confonde pas « leur » machine avec celle des autres. 

Ce Firebat T8 change donc de format même si je suis quasiment sûr que nous retrouveront des machines totalement identique. Un signe qui ne trompe pas avec ces MiniPC en général c’est la connectique employée. Si la coque change avec ici une partie supérieure découpée de grille en forme de croix. Les ports des différents connecteurs devraient se retrouver chez d’autres constructeurs. Firebat étant une de ces marque sans usine s’appuyant sur un constructeur différent pour produire ses machines il a simplement du commander un boitier différent pour se protéger.

Le châssis mesure 14.8 cm de large pour 12.7 cm de profondeur et 5 bons cm d’épaisseur. A l’intérieur on retrouve un Ryzen 7 8845HS et ses 8 cœurs AMD Zen 4 accompagnés des 12 cœurs RDNA3 de son circuit graphique Radeon 780M. Un petit NPU Ryzen AI est également de la partie et délivre 16 TOPS de performances. L’engin propose deux ports SODIMM double canal de DDR5-5600 et un port M.2 2280 NVM PCIe 4.0… Pas de mention d’un espace de stockage 3.5″ supplémentaire malgré l’épaisseur de l’engin. A la place un système comprenant pas moins de trois caloducs pour gérer la chaleur de l’engin avec un ventilateur processeur et un second au niveau des composants mémoire et stockage.

On retrouve un module Wi-Fi6 et Bluetooth 5.2 classique et en façade deux USB 3.2 Type-A, un USB4, un jack audio combo 3.5 mm et un lecteur de cartes MicroSDXC. A noter que le système pourra démarrer sur ce lecteur et donc sera potentiellement apte a piloter des systèmes alternatifs à son  Windows 11 installé par défaut.

A l’arrière on retrouve 4 ports USB Type-A séparés en paires USB 2.0 et USB 3.2. Deux sorties vidéo en HDMI 2.1 et DisplayPort 1.4, deux port Ethernet 2.5 Gigabit, un second jack audio combo 3.5 mm et un autre port USB4. Un port Antivol type Kensington Lock est également visible ainsi qu’une alimentation Jack. Le boitier est compatible VESA et ouvert largement sur les côtés comme sur l’arrière.

Un ensemble très complet pour le moment vendu à plus de 600€ sur AliExpress sans possibilité de livraison vers la France dans une version 16 Go / 1 To. Un élément qui signifie en général que l’engin est toujours en cours de production et non pas en stock. Le prix devrait baisser au moment de la disponibilité de la machine avec plus de possibilités de se faire livrer et, peut être, plus d’infos sur les entrailles de l’engin.

Firebat A8 : un MiniPC Ryzen 7 8845HS qui sort du lot © MiniMachines.net. 2024.

NVIDIA GeForce RTX - IA Décodé - Répétez-le : ChatRTX ajoute de nouveaux modèles d'IA et de nouvelles fonctionnalités dans sa dernière mise à jour

1 mai 2024 à 13:30

Cette semaine sur IA Décodé, une nouvelle mise à jour de NVIDIA ChatRTX élargissant les capacités de la démo technique ainsi que les modèles LLM pris en charge est désormais disponible au téléchargement. Annoncée et présentée pour la première fois à la GTC au début du mois de mars, cette mise à jour apporte plusieurs nouvelles fonctionnalités : - ChatRTX ajoute à sa liste croissante de LLM pris en charge, dont Gemma, le dernier LLM de Google, et ChatGLM3, un LLM ouvert et bilingue (anglais et chinois), offrant aux utilisateurs une flexibilité supplémentaire. - La nouvelle prise en charge des photos permet aux utilisateurs de ChatRTX de rechercher facilement et d'interagir localement avec leurs propres données photographiques sans avoir à étiqueter des métadonnées complexes, grâce au préapprentissage contrastif langage-image (CLIP) d'OpenAI. - Les utilisateurs de ChatRTX peuvent désormais parler avec leurs propres données, grâce à la prise en charge de Whisper, un système de reconnaissance automatique de la parole par l'IA qui permet désormais à ChatRTX de comprendre la parole verbale. […]

Lire la suite

LinkedIn Now Has Wordle-style Games You Can Play Every Day

Par : msmash
1 mai 2024 à 14:40
LinkedIn, the professional network known for job listings and unsolicited career advice, is jumping into gaming. From a report: The platform is officially introducing a set of Wordle-style puzzle games, weeks after they were first spotted in the app. The company is starting with three games: Pinpoint, a word game where players must guess the theme that ties a series of words together; Queens, a puzzle game that's a bit like a cross between Sudoku and Minesweeper; and Crossclimb, a trivia game that involves guessing a series of four-letter words and placing them in the correct order. LinkedIn describes them as "thinking-oriented games," though the format will likely look familiar to fans of The New York Times Games app. Each game can only be played once a day, and players can share their score with friends in cute emoji-filled messages reminiscent of the "Wordle grid." The service will also keep track of "streaks," to encourage players to come back every day. Given the similarities, it shouldn't be surprising that games were developed by LinkedIn's news team, which recently hired a dedicated games editor.

Read more of this story at Slashdot.

Razer se fait fouetter par la FTC pour tromperie avec son masque RGB anti-COVID "Zephyr"

En octobre 2021, en pleine pandémie, Razer, le fabricant singapourien, connu pour ses périphériques gaming, avait eu une idée de génie pour profiter au mieux d’une mauvaise situation (comme beaucoup) : un masque de protection baptisé Zephyr ! Et pas n’importe quoi comme masque, mais un objet de mode...

PCI-SIG Completes CopprLink Cabling Standard: PCIe 5.0 & 6.0 Get Wired

1 mai 2024 à 14:00

The PCI-SIG sends word over this morning that the special interest group has completed their development efforts on the group’s new PCI-Express cabling standard, CopprLink. Designed to go hand-in-hand with PCIe 5.0 and PCIe 6.0, CopprLink defines both internal and external copper cabling for the latest PCIe standards, giving system vendors and assemblers the ability to use wires to connect devices within a system, or even whole systems.

The CopprLink standard is, in practice, a pair of standards sharing the same brand-name under the PCI-SIG umbrella. The internal standard, “CopprLink Internal Cable”, is designed to allow for a new generation of PCIe cables up to 1 meter in length that are capable of sustaining PCIe 5.0 and PCIe 6.0 signaling. Internal CopprLink effectively supplants a host of older internal PCIe cabling standards (including the abandoned OCuLink), which were originally designed for earlier generations of PCIe signaling.

At a high level, internal CopprLink is intended to provide not only host-to-device connectivity, but even more transparent backhaul applications such as motherboard-to-backplane connectivity, and unique applications such as chip-to-chip PCIe connections. In other words, CopprLink allows for cabled PCIe to be used in almost any situation where a PCIe connection needs to be established within a system. Strictly speaking, CopprLink doesn't replace the PCIe CEM connector in any way – but the relatively thick copper cables have less signal loss than PCB traces, making a cabled standard extremely useful even for internal connections. PCI-SIG sees CopprLink cables taking hold in the storage and data center markets, product categories where we already see PCIe cabling in use today.

The companion connector standard for internal CopprLink is the SNIA-developed SFF-TA-1016 connector, which bears more than a passing resemblance to the widely-used SFF-8654 (SlimSAS) connector. SFF-TA-1016 is available in x4, x8, and x16 configurations, and while the PCI-SIG doesn’t go so far as to defining widths within their own standard, the connectors available paint a clear picture of the options at hand. Internal CopprLink x4 should be especially popular with storage, as we already see today.


Top: SFF-TA-1016 Family of Connectors (Figure 4-1, Image Courtesy SNIA)
Bottom: Sample SFF-TA-1016 x4 Contact Plug and Recepticle (Figure 4-2, Image Courtesy SNIA)

Meanwhile, the group has also developed an external cabling standard to cover those same PCIe 5.0/6.0 data rates. External CopprLink cables can go up to 2 meters, allowing for board-to-board connections within a rack, and even short rack-to-rack PCIe connections.

The external version of CopprLink also uses a more robust connector, relying on SNIA’s SFF-TA-1032 standard. Like internal/1016, this is available with x4, x8, and x16 configurations, using 44, 68, and 120 positions/pins respectively. The PCI-SIG is expecting this version of the standard to be primarily adopted by the AI/Machine Learning markets, which need to move heaps of data between systems. Notably, however, they don’t really expect the storage market to make use of this spec – instead, they’ll be served by an updated version of the classic PCI Express External Cabling standard.


SFF-TA-1032 x16 Plug and Connector (Figure 4-1, Image Courtesy SNIA)

Finally, a bit farther out on the group’s roadmap, PIG-SIG is also reiterating that they’re working on a new optical cabling standard as well. The workgroup for this project was established in 2023, so the project is still in its early days. Notably, the forthcoming optical standard is intended to be optical technology-agnostic, allowing for PCIe to be paired with a variety of optical technologies.

In the meantime, with the internal and external CopprLink standards completed, the PCI-SIG is hoping to quickly move this cabling into production. Since these are solely cabling standards – and thus don’t require intensive development efforts such as new controllers or the like – the group is hoping that their members will have something to show off in time for the group’s developer conference this summer, or the Flash Memory Summit in August. After which, hardware vendors should be able to deploy the new cables relatively quickly.

Star Scientist's Claim of 'Reverse Aging' Draws Hail of Criticism

Par : msmash
1 mai 2024 à 14:00
An anonymous reader shares a report: Harvard geneticist David Sinclair, who has said his "biological age" is roughly a decade younger than his actual one, has put forward his largely unlined face as a spokesman for the longevity movement. The 54-year-old has built his brand on the idea that aging is a treatable disease. The notion has proven so seductive that legions of acolytes follow his online postings about his research and the cocktails of supplements he consumes to stave off the inevitable. His social-media accounts are a platform for assertions that his work is pushing nearer to a fountain of youth. He claimed last year that a gene therapy invented in his Harvard lab and being developed by a company he co-founded, Life Biosciences, had reversed aging and restored vision in monkeys. "Next up: age reversal in humans," he wrote on X and Instagram. On Feb. 29, in the eyes of many other scientists working to unlock the mysteries of aging, he went too far. Another company he co-founded, Animal Biosciences, quoted him in a press release saying that a supplement it had developed had reversed aging in dogs. Scientists who study aging can't even agree on what it means to "reverse" aging, much less how to measure it. The response was swift and harsh. The Academy for Health and Lifespan Research, a group of about 60 scientists that Sinclair co-founded and led, was hit with a cascade of resignations by members outraged by his claims. One scientist who quit referred to Sinclair on X as a "snake oil salesman." Days later, in a tense video meeting, the academy's five other board members pressed Sinclair to resign as president. He contended that the press release contained an inaccurate quote, according to people who were in the meeting, but he later stepped down. Sinclair's work is published regularly in top-tier scientific journals and has brought attention to an emerging field vying for credibility and funding. He has parlayed his research into hundreds of millions of dollars of investment in various companies, more than 50 patents and prominence as a longevity influencer. Along the way, his claims -- especially in his social-media posts, interviews and his book -- have drawn criticism from scientists who have accused him of hyping his research and extolling unproven products, including some from companies in which he had a financial interest. "My lab's ideas and findings are typically ahead of the curve, which is why some peers might feel the research is overstated at the time," Sinclair said to The Wall Street Journal in an email. "I stand behind my track record as a trusted scientist in one of the most competitive professions of all." He said he doesn't engage with social-media critics, including those calling him a snake oil salesman, and that many such comments are "nothing more than mischaracterizations."

Read more of this story at Slashdot.

Mysterious 'gpt2-chatbot' AI Model Appears Suddenly, Confuses Experts

Par : BeauHD
1 mai 2024 à 13:00
An anonymous reader quotes a report from Ars Technica: On Sunday, word began to spread on social media about a new mystery chatbot named "gpt2-chatbot" that appeared in the LMSYS Chatbot Arena. Some people speculate that it may be a secret test version of OpenAI's upcoming GPT-4.5 or GPT-5 large language model (LLM). The paid version of ChatGPT is currently powered by GPT-4 Turbo. Currently, the new model is only available for use through the Chatbot Arena website, although in a limited way. In the site's "side-by-side" arena mode where users can purposely select the model, gpt2-chatbot has a rate limit of eight queries per day -- dramatically limiting people's ability to test it in detail. [...] On Monday evening, OpenAI CEO Sam Altman seemingly dropped a hint by tweeting, "i do have a soft spot for gpt2." [...] OpenAI's fingerprints seem to be all over the new bot. "I think it may well be an OpenAI stealth preview of something," AI researcher Simon Willison told Ars Technica. But what "gpt2" is exactly, he doesn't know. After surveying online speculation, it seems that no one apart from its creator knows precisely what the model is, either. Willison has uncovered the system prompt for the AI model, which claims it is based on GPT-4 and made by OpenAI. But as Willison noted in a tweet, that's no guarantee of provenance because "the goal of a system prompt is to influence the model to behave in certain ways, not to give it truthful information about itself."

Read more of this story at Slashdot.

Intel Baseline Profile Yields Odd Power/Performance On Linux

1 mai 2024 à 12:14
Intel motherboard manufacturers have begun rolling out BIOS updates containing an "Intel Baseline Profile" option to apply stock power limits to modern Intel processors. This is being driven by instability claims for 13th Gen and 14th Gen Intel Core processors having stability issues for some Windows gamers that is being attributed to multi-core enhancement (MCE) and other power options commonly set on enthusiast desktop motherboards. As the first of several ongoing tests I'm working on at Phoronix, here are some preliminary findings for using the Intel Baseline Profile option on an ASUS motherboard with the Core i9 14900K under Ubuntu Linux.

Rabbit R1 : une IA pas au point dans un appareil entrée de gamme

1 mai 2024 à 12:49

Minimachines.net en partenariat avec TopAchat.com

Apres l’AI Pin de Humane qui reprenait la même idée de glisser un assistant IA dans votre quotidien, le Rabbit R1 est le second appareil du genre  a être commercialisé. Avec beaucoup de points communs mais également de nombreuses différences, cet appareil va tenter de se faire une place à l’ombre de vos poches.

Un bien étrorange lapin

Le Rabbit R1 est donc conforme aux annonces de la marque. Parallélépipède d’un orange carotte électrique sculpté dans une robe en plastique par le studio Teenage Enginering. Il est l’icône de lui même et en reprend d’ailleurs le format. L’objet est fait avant tout pour être vu, de près comme de loin, et comme le AI Pin, automatiquement authentifié pour ce qu’il est.

Vendu à 199$ « nu », le R1 n’est pas accompagné par un chargeur, une documentation ou une pochette de protection. La trouvaille d’une protection qui rappelle les enveloppes des « cassettes audio » est amusante, d’autant qu’elle sert de support de bureau pour l’appareil. Mais il faudra passer à la caisse ou recycler un chargeur pour alimenter votre petit lapin. Ce prix beaucoup plus bas qu’un Humane AI n’est pas pour autant le signe d’une machine plus abordable. C’est simplement le recours à des matériaux et composants bien plus économiques qui l’expliquent.

L’écran embarqué par exemple est une solution de type TFT et non pas IP ou AMOLED. La lisibilité en plein soleil est problématique et cela d’autant plus qu’il s’agit d’un écran tactile capacitif… même si il est quasi impossible de s’en servir comme tel. La coque de l’appareil est en plastique, la caméra embarqué n’est pas au niveau d’un smartphone classique moyen de gamme et le haut parleur est médiocre. La connectique est limitée à un simple port USB Type-C de charge et la batterie est d’une capacité de 100 mAh. Celle-ci offre environ 4 heures d’usages mixtes. Une très récente mise à jour a permis de réguler quelque peu l’appétit de l’objet en mode veille mais cela reste encore un ogre difficile a satisfaire en usage réel. La charge USB ne répond à aucune norme e charge rapide connue avec pas moins de 45 minutes pour être regonflée à bloc. Le Rabbit est gourmand.

Source : The Verge

La manipulation de l’appareil se fait de diverses manières suivant le type d’interactions que vous choisirez. Le Rabbit R1 peut être piloté à la voix en appuyant sur son unique bouton latéral. C’est son interaction principale. D’autres sont possibles avec une molette assez critiquée pour sa faible réactivité. Elle n’a pas un grand impact à la manipulation et les maigres menus sont parcourus en de multiples tour de roue. C’est d’autant plus rageant que l’écran tactile permettrait de régler ce soucis en un instant, mais il est désactivé par défaut. Il ne sert en réalité qu’a proposer un petit clavier tactile quand on bascule l’l’objet de manière a orienter l’écran en mode paysage. 

L’interface tactile n’est pas active dans ce mode. Source : Sherwood

Le résultat de cette proposition est un outil qui fait tout assez mal même si l’interaction entre les questions et les réponses posées à l’oral sont plutôt réactives et que l’objet se différencie en cela de son « concurrent » direct qui est l’AI Pin. Les 199$ HT paraissent plus accessibles mais il ne faut pas oublier que l’objet nécessite une carte SIM pour étendre sa connexion sans fil en mode 4G. Sans cette option supplémentaire nécessaire, le Rabbit R1 restera inactif loin d’un signal Wi-Fi. 

Le Rabbit R1 vaut 199$ HT et cela ne semble pas cher en comparaison d’un AI Pin à 699$ HT. Mais cela reste un appareils aux compétences très limitées. Compétences autrement plus efficaces si vous vous décidez a rajouter ces 199$ HT dans l’achat d’un smartphone en plus de votre budget habituel pour celui-ci. Continuer a avoir un seul engin dans la poche mais lus compétent, faisant de meilleure photos, ayant une meilleure autonomie et pouvant a terme proposer de meilleurs services.

Un lapin pas bien malin

Je reste persuadé que pour le moment ces appareils, qu’il s’agisse de l’AI Pin ou du Rabbit R1, sont plus des expériences sociales que de vrais accessoires utiles. Outre la recherche d’une certaine reconnaissance en tant que « Nerd » patenté, il y a dans ces appareils une sorte d’auto accomplissement très étrange. 

La plupart des tests que j’ai pu lire sur la toile – et j’en ai lu énormément – reprennent toujours le même schéma dans leurs essais. Ils commencent par la recherche de la validation de l’efficacité de l’objet. Et c’est très drôle de voir des journalistes spécialisés en informatique, des gens avec une grande culture sur ce thème, s’émerveiller d’avoir dans les mains une intelligence semblable à celle d’un petit enfant pas très éveillé et sans aucune méthode. Il est difficile de comprendre en quoi un appareil muni d’une caméra et a qui on demande de dire ce qu’il voit à l’image à de si merveilleux à le faire. La plupart des enfants de 5 ans font de même. Décrire une photo simple est généralement à la portée de beaucoup de monde. Et cela se traduit par toute absence d’interrogation sur quelque chose que le testeur ne maitrise pas. Par manque de confiance dans l’appareil. 

La recherche entreprise avec l’appareil consiste plutôt a vouloir coincer son « Intelligence » et jamais à lui faire confiance. Aucun signe de certitudes sur ce que dit l’appareil n’est jamais vraiment manifesté. Bien sûr il y a l’aspect « Livre des records » habituel qui consiste a faire ce que l’on fait avec toutes ces IA qui vont puiser à notre place des infos en ligne. On leur demande la hauteur d’une montagne ou d’un monument, la date de naissance d’une personnalité ou d’autres éléments de ce type. Et cela fonctionne, la machine sait piocher des infos et les restituer sans problème. Même si j’ai bien peur que cela n’ait aucun impact réel pour l’utilisateur.

« L’animal dans cette image est un chat. » Source : Sherwood.news

Enfin, il y aura bien un impact « machine à café », c’est à dire une confiance modérée dans la source. Suffisante pour pouvoir affirmer que le Mont-Blanc mesure 4792 mètres comme nous l’a répété l’appareil. Même si en réalité il s’agit de la hauteur de sa roche et que sa couche de neige le pousse à 4809 mètres. De quel chiffre parle t-on à la machine à café ? Peu importe, ce n’est pas important. Mais dans un usage plus précis, pour remplir un document, pour être sûr de soi ? Quand il s’agira d’être sérieux on s’orientera vers un chiffre qu’on ira piocher nous même dans une source faisant autorité, grâce à son smartphone…

Ce double standard de confiance est souvent le propre des gadgets mais c’est surtout le signe classique d’un effet de mode. Une fois que l’appareil aura fini par présenter ce type de résultat, qu’il aura fait ses preuves bonnes ou mauvaises, il sera délaissé pour une source plus fiable. D’autant plus fiable que l’appareil n’est finalement pas très malin. Le grand jeu des testeurs est toujours de coincer le Rabbit R1 et c’est finalement assez facile. Parfois l’appareil ne sait pas lire, d’autres fois il ne sait pas reconnaitre un chat d’un chien. Il peut répondre à côté de la plaque et souvent, très souvent, le Rabbit est incapable de faire mieux que vous face à des questions pas forcément très complexes.

Demander à la camera embarquée d’identifier une plante verte semble hors de portée et c’est un problème plus grand que l’on peut imaginer. Que je ne sache pas faire la différence entre deux plantes particulières en tant qu’humain n’est pas un soucis, il me suffit d’un peu de recherche pour combler cette lacune. Qu’une IA confonde deux objets et me donne une réponse fausse sans m’avertir de sa possible erreur est un vrai problème. Cela induit que cette source n’est absolument pas fiable. Et donc que son usage tout entier n’est pas fiable. Ce manque de confiance rend totalement caduque son usage, hormis comme gadget. Ce qui relativise beaucoup l’exploitation de de l’appareil et l’investissement nécessaire. 199$ HT pour un appareil doué d’une IA et auquel il faudra ajouter une ligne 4G chaque mois ? Ce n’est pas donné. Mais pour un jouet ? Un gadget ? C’est hors de prix.

Sur d’autres usages l’engin semble bien plus malin, par exemple il sait prendre en photo un texte et le résumer en quelques lignes oralement. Soit un travail de lecteur adolescent accompli… Mais le problème est toujours le même, qui irait faire confiance à cette IA pour ce travail ? Et si il comprenait mal l’intention du texte, passant à côté de sous-entendus, de sens cachés ou d’un humour diffus qui transformerait totalement son sens ? Si votre correspondant dépasse la simple accumulation de phrases simples pour pousser un peu plus loin sa réflexion, le risque de passer à côté de son vrai message est important.

 

Un gros manque de services de base

Impossible de confier au Rabbit R1 l’enregistrement d’une alarme, d’un rendez-vous ou le déclenchement d’une simple alarme. L’appareil ne sait pas les gérer. Ce n’est donc pas un assistant à qui on pourrait dicter un email ou un message pour qu’il l’envoie dans la foulée. Ce n’est pas son rôle. 

L’objet se concentre sur son modèle « Sans application » qui consiste a piloter des sites web « comme le ferait un humain ». Et pour dire en quelques mots ce dont est capable Rabbit R1, il est pour le moment vraiment très bête. Trois services sont accessible ainsi qu’un accès à Midjourney, la plateforme générative d’images. Le résultat proposé par l’appareil avec ces services est pitoyable.

Sur Spotify par exemple il faut plaider sa cause pour obtenir le morceau recherché. L’IA du Rabbit ne pilote pas une application et n’utilise pas une IA pour parvenir à vous proposer vos chansons préférées. Non elle se connecte à leur site à votre place, pianote ce qu’elle a compris que vous cherchiez dans le moteur de recherche et redirige le flux vers votre appareil. Cette méthode est évidemment séduisante car elle se veut universelle. Malheureusement elle ne fonctionne pas. De nombreux titres ne sont pas lus, des erreurs sont faites et les fois ou cela fonctionne cela n’apporte absolument rien de mieux qu’un choix simple et moins aléatoire effectué sur un smartphone ou une enceinte connectée. Aucune valeur ajoutée si ce n’est l’échange d’un contrôle précis sur smartphone pour un contrôle vocal aléatoire.

Doordash, un service de livraison en ligne de nourriture, est également accessible. On peut demander un menu et se faire livrer en demandant à l’appareil d’organiser cette livraison. Il ne faut par contre pas espérer avoir un service de qualité. On est loin d’un Concierge de palace qui connait vos goûts et se qui se plierait en quatre pour les satisfaire. Parmi les retours d’expérience glanés sur le net on note par exemple la livraison à l’adresse par défaut d’un utilisateur. Le déjeuner commandé a donc atterri devant la porte de son domicile au lieu d’arriver sur son lieu de travail, le Rabbit R1 ne lui a pas laissé le choix au moment de la commande. D’autres ont eu la mauvaise surprise de commander des menus différents de leurs habitudes, l’appareil ayant mal compris ce qu’ils voulaient. D’autres enfin finissent par sortir leur smartphone devant une commande jugée trop complexe par l’appareil.

Uber, dernier service actuellement proposé ne s’en sort pas mieux. Le Rabbit R1 promet qu’il ne tracke pas votre position même si plusieurs testeurs ont néanmoins noté que l’appareil était capable de « deviner » la météo de leur emplacement sans avoir précisé leur lieu géographique en amont. Cette « absence » de localisation est évidemment un problème pour ce type de service tiers. Ce qui amène à de multiples mauvaises réservations d’un chauffeur Uber.

Tout cela est à la fois faible et peu fiable. La société Rabbit base tout son modèle économique sur cette gestion « intelligente » des services avec en ligne de mire des centaines de sites de services exploitables par l’appareil. A vrai dire, Rabbit annonce que son IA serait déjà apte a en piloter des centaines mais que ses équipes n’auraient pas encore eu le temps de créer une interface adaptée. Ce serait pour cette raison que seuls trois services indépendants seraient disponibles aujourd’hui.

Il va sans dire que, à la décharge de Rabbit, pour tous les modèles d’IA, il est nécessaire d’entrainer des algorithmes afin qu’ils s’améliorent. Les mauvaises expériences des utilisateurs sur les services actuels sont donc amenés a se raréfier au fur et a mesure que les petits lapins se multiplieront. L’expérience devait donc être plus fiable dans la durée. Ce qui ramène les premiers acheteurs à un rôle de bêta testeur classique. Et pose également la question de la viabilité de l’objet. Si les acheteurs sont échaudés par ces premiers retours, l’aventure pourrait se terminer plus rapidement que prévu. Enfin, dernier écueil, Rabbit promettait la mise à disposition d’une application permettant de dresser soit même son petit lapin pour apprendre a utiliser tout type de site web. Un mode d’apprentissage qui n’est finalement pas disponible pour le moment.

La sécurité et le fonctionnement étrange de Rabbit posent question

Autre énorme questionnement lié à l’offre Rabbit, celle des données utilisateur. Pour pouvoir piloter les applications en ligne, le petit mammifère doit conserver vos identifiant. Et cela de manière a pouvoir utiliser votre compte. Sur Uber ou Doordash  il connait votre adresse, votre identité mais aussi vos identifiant. Si, a terme le service est capable de prendre en charge des centaines de sites, ce sera un vrai portefeuille de comptes disponibles derrière un unique serveur. De quoi aiguiser l’appétit de nombreux escrocs en ligne. Surtout si ceux-ci comprennent des services de banque en ligne par exemple.

Si cela pose problème, d’autres questionnement soulevés ces derniers jours par différents utilisateurs soulèvent encore plus de questions. Un internaute a par exemple publié ce qu’il annonce être le code source de Rabbit R1 en ligne sur une page Github qui a été depuis supprimée. Il accuse le site de ne pas exploiter d’Intelligence Artificielle ni de « Large Action model » capable d’apprendre a manipuler des sites web comme un humain mais de simples « tours de passe-passe » techniques pour automatiser des tâches à la manière d’un script. En gros, des copiés-collés de données d’un champ identifié vers un autre. Pas un problème en soi puisque cela marche mais loin du compte en terme d’Intelligence puisque le moindre changement sur le site ciblé transformerait l’opération apprise par cœur en échec. Rendant inopérant d’un moment à un autre l’exploitation de vos usages habituels et requérant une équipe toujours aux aguets pour « corriger » le tir.

Cette source n’est évidemment pas à croire sur parole mais elle publie des éléments qui semblent cohérents et indique au passage que l’ensemble des sessions des utilisateurs seraient également stockées sur les serveurs de Rabbit. Ce qui pose d’autres questionnement sur la sécurité et les usages de ce type de données.

Rabbit n’emploie pas d’applications mais Rabbit en est une

Enfin tout dernièrement, des internautes sont parvenus a monter Rabbit sur un smartphone classique. L’opération n’est pas forcément très simple et demande des compétences particulières mais elle prouve par A + B que l’objet Rabbit n’est rien d’autre qu’un support du système Android exploitant une application Android… Pour rappel, le PDG  de Rabbit expliquait qu’il ne voulait pas faire de son produit une application pour des raisons purement… économiques. Jesse Lyu sait pertinemment que le fait de payer un objet forcera les utilisateurs a s’engager dans son usage. Ne serait-ce que pour valider sa dépense et ne pas se sentir floué par son achat. Mais cette démarche est tout sauf intéressante pour le public. Un smartphone avec une application Rabbit – qui existe donc – serait plus efficace et plus pertinent qu’un Rabbit R1. Elle couterait bien moins cher et serait plus juste avec une interface plus pratique, moins gadget, une meilleure autonomie, un écran plus lisible et un capteur photo autrement plus efficace. 

Pour contrer ce développement sauvage, Rabbit a immédiatement employé des contre mesures qui vérifient depuis quel type de materiel sont exécutés les ordres de Rabbit OS. Ce qui semble logique puisque l’usage de leur serveur leur coute de l’argent et que seule la vente des appareils est capable de le financer.

Evidemment la rentabilité de Rabbit serait mise en concurrence des dizaines d’autres IA qui vont débarquer sur smartphone d’ici peu. Le jour où Apple et Google vont proposer leurs propres services de ce type, directement intégrés dans leurs système, le Rabbit R1 sera instantanément obsolète. Utilisés d’un coup par des dizaines de millions de personnes, ces IA seront entrainées très rapidement et proposeront une expérience sans commune mesure avec le forcément beaucoup plus confidentiel petit appareil orange. Les IA déjà en place que sont Siri et Google Assistant sont souvent plus pertinentes que ce que propose l’appareil. La fenêtre de tir de Rabbit OS est courte, la société le sait , et c’est probablement pour cela qu’elle a vite livré un appareil fort incomplet. L’usage d’Android explique également d’autres éléments techniques comme la possibilité au final de connaitre l’emplacement de l’utilisateur.

Que conclure au sujet de ce Rabbit R1 ?

comme pour l’AI Pi de Humane, on voit ici apparaitre de fausses bonnes réponses à un problème que personne ne se pose. 100% des acheteurs de ces appareils n’en ont pas besoin. Autant un assistant personnel comme une enceinte connectée peut avoir du sens car elle est attachée à un lieu fixe et sert donc a le piloter activement par plusieurs utilisateurs. Autant un appareil de ce type fait doublon avec le smartphone que la totalité des gens susceptibles de l’acheter ont déjà dans leur poche.

Outre le fait que la société  ne résout toujours pas son équation de fonctionnement financier en n’ayant aucun moyen annoncé pour payer ses serveurs et son développement que la vente d’appareils, la réponse applicative des smartphones devrait être largement plus efficace pour répondre à vos besoins à moyen et long terme. 

Le Rabbit R1 est un presse papier en puissance

Ô surprise, l’AI Pin n’est pas une expérience formidable

Rabbit R1 : une IA pas au point dans un appareil entrée de gamme © MiniMachines.net. 2024.

AMD Q1 2024 : EPYC et Instinct rattrapent (encore) le coup !

Comme chez Intel, le premier trimestre d’AMD aussi a été marqué par du bon et du moins bon. En bref, la croissance a été plus que modeste et ce sont les segments "Data center" et "Client"  qui ont (encore) sauvé les meubles. Certes, le constat ne sera pas tout à fait le même selon si l’on regarde l’...

Samsung Foundry Update: 2nm Unveil in June, Second-Gen SF3 3nm Hits Production This Year

1 mai 2024 à 12:00

As part of Samsung's Q1 earnings announcement, the company has outlined some of its foundry unit's key plans for the rest of the year. The company has confirmed that it remains on track to meeting its goal of starting mass production of chips on its SF3 (3 nm-class, 2nd Generation) technology in the second half of the year. Meanwhile in June, Samsung Foundry will formally unveil its SF2 (2 nm-class) process technology, which will offer a mix of performance and efficiency enhancements. Finally, the company the company is preparing a variation of its 4 nm-class technology for integration into stacked 3D designs.

SF2 To Be Unveiled In June

Samsung plans to disclose key details about its SF2 fabrication technology at the VLSI Symposium 2024 on June 19. This will be the company's second major process node based upon gate-all-around (GAA) multi-bridge channel field-effect transistors (MBCFET). Improving over its predecessor, SF2 will feature a 'unique epitaxial and integration process,' which will give the process node higher performance and lower leakage than traditional FinFET-based nodes (though Samsung isn't disclosing the specific node they're comparing it to).

Samsung says that SF2 increases performance of narrow transistors by 29% for N-type and 46% for P-type, and wide transistors by 11% and 23% respectively. Moreover, it reduces transistor global variation by 26% compared to FinFET technology, and cuts product leakage by approximately 50%. This process also sets the stage for future advancements in technology through enhanced design technology co-optimization (DTCO) collaboration with its customers.

One thing that Samsung has not mentioned in context of SF2 is backside power delivery, so at least for the moment, there is no indication that Samsung will be adopting this next-gen power routing feature for SF2.

Samsung says that the design infrastructure for SF2 – the PDK, EDA tools, and licensed IP – will be finalized in the second quarter of 2024. Once this happens, Samsung's chip development partners will be able to begin designing products for this production node. Meanwhile, Samsung is already working with Arm to co-optimize Arm's Cortex cores for the SF2 process.

SF3: On Track for 2H 2024

As the first fab to introduce a GAAFET-based node, Samsung has been on the cutting edge of chip construction. At the same time, however, that has also meant that they're the first fab to encounter and solve the inevitable teething issues that come with such a major transistor design change. Consequently, while Samsung's first-generation SF3E process technology has been in production for a little less than two years now, the only publicly-disclosed chips made on the process so far have been relatively small cryptocurrency mining chips – exactly the kind of pipecleaner parts that do well on a new process node.

But with that experience in hand, Samsung is preparing to move on to making bigger and better chips with GAAFETs. As part of their earnings announcements, the company has confirmed that their updated SF3 node, which was introduced last year, remains on schedule to enter production in the second half of 2024.

A more mature product from the get-go, SF3 is being prepared to be used for building larger processors, including datacenter products. Compared to its direct predecessor, SF4, SF3 promises a 22% performance boost at the same power and transistor count, or a 34% lower power at the same frequency and complexity, as well as a 21% logic area reduction. In general, Samsung pins a lot of hopes on this technology, as it's this generation of their 3nm-class technology that is poised to compete against TSMC's N3B and N3E nodes.

SF4: Ready for 3D Stacking

Finally, Samsung is also preparing a variant of their final FinFET technology node, SF4, for use in 3D chiplet stacking. As transistor density improvements have continued to slow, 3D chip stacking has emerged as a way to keep boosting overall chip performance, especially with modern, multi-tile processor designs.

Details on this node are limited, but it would seem that Samsung is making some changes to account/optimize for using SF4-fabbed chiplets in a 3D-stacked design, where chips need to be able to communicate both up and down. According to the company's Q1 financial report, Samsung expects to complete their preparatory work on the chip-stacking SF4 variant during the current quarter (Q2).

Sources: Samsung, Samsung

❌
❌