Vue normale

Reçu aujourd’hui — 12 mai 2026 Actualités numériques

Instructure Pays Canvas Hackers To Delete Students' Stolen Data

Par : BeauHD
12 mai 2026 à 22:00
Instructure, the company behind the widely used Canvas learning platform, says it reached an agreement with the hackers who stole 3.5 terabytes of student and university data. The company says it received "digital confirmation" that the information was destroyed and that affected schools and students would not be extorted. The BBC reports: Paying cyber criminals goes against the advice of law enforcement agencies around the world, as it can fuel further attacks and offers no guarantee the data has been deleted. In previous cases, criminals have accepted ransom payments but lied about destroying stolen data, instead keeping it for resale. For example, when the notorious LockBit ransomware group was hacked by the National Crime Agency, police found stolen data had not been deleted even after payments had been made. Instructure said in a statement on its website that protecting students' and education staff data was its primary motivation. "While there is never complete certainty when dealing with cyber criminals, we believe it was important to take every step within our control to give customers additional peace of mind, to the extent possible," the company said. Instructure did not set out the terms of the agreement but said that it meant that: - the data was returned to the company - it received "digital confirmation of data destruction" - it had been informed that no Instructure customers would be extorted as a result of the incident - the agreement covers all affected customers, with no need for individuals to engage with the hackers

Read more of this story at Slashdot.

Amazon Employees Are 'Tokenmaxxing' Due To Pressure To Use AI Tools

Par : BeauHD
12 mai 2026 à 21:00
An anonymous reader quotes a report from the Financial Times (via Ars Technica): Amazon employees are using an internal AI tool to automate non-essential tasks in a bid to show managers they are using the technology more frequently. The Seattle-based group has started to widely deploy its in-house "MeshClaw" product in recent weeks, allowing employees to create AI agents that can connect to workplace software and carry out tasks on a user's behalf, according to three people familiar with the matter. Some employees said colleagues were using the software to automate additional, unnecessary AI activity to increase their consumption of tokens -- units of data processed by models. They said the move reflected pressure to adopt the technology after Amazon introduced targets for more than 80 percent of developers to use AI each week, and earlier this year began tracking AI token consumption on internal leader boards. "There is just so much pressure to use these tools," one Amazon employee told the FT. "Some people are just using MeshClaw to maximize their token usage." Amazon has told employees that the AI token statistics would not be used in performance evaluations. But several staff members said they believed managers were monitoring the data. "Managers are looking at it," said another current employee. "When they track usage it creates perverse incentives and some people are very competitive about it."

Read more of this story at Slashdot.

Google Announces Its Chromebook Successor: the Googlebook

Par : BeauHD
12 mai 2026 à 20:00
Google is teasing a new line of "Googlebook" laptops for this fall, powered by a new Android-and-ChromeOS-derived operating system that will run Chrome, Android apps, phone-connected apps and files, and deeply integrated Gemini features. The company says Chromebooks will continue "after the launch of Googlebook" and "...all Chromebooks will continue to receive support through their device's existing date commitment." The Verge reports: "We'll have more to share on the exact OS branding later this year," Peter Du of Google's global communications team tells The Verge. [...] Googlebooks will have a Magic Pointer feature that offers contextual suggestions whenever you shake your cursor and point it at something on the screen. Google's examples include setting up a meeting by pointing at a date in an email or selecting images of furniture and a living space to visualize them together. Beyond your mouse pointer, Googlebooks will also feature the custom AI-created widgets that Google is also debuting today for Android phones and Wear OS smartwatches. I don't know what kind of horrors people will be able to make into widgets, but Google gives the example of making one to organize your flights, hotel information, restaurant reservations, and another for creating a countdown timer for an upcoming family reunion. (It's always flights, hotels, and restaurants, isn't it?) While there are many outstanding questions to be answered about Googlebooks, the biggest and most obvious ones are what will these laptops look like, what chips will be in them, and what will they cost? We've got none of that so far. Google only has some initial renders of a mysterious Googlebook and the promise that it's working with Acer, Asus, Dell, HP, and Lenovo to make the first models. There are no model names. No specs. Nada. Google isn't even saying if the laptop in its renders is made by a partner or a tease of some first-party Pixel-like Googlebook to come or is just a cool mockup. The one distinct hardware feature shown, the bar of glowing Google-colored light, will be a signature of all Googlebooks. (Sure, bring on the RGB. Why not?)

Read more of this story at Slashdot.

Qui veut la peau du... 5ème port USB de la XBox ?

Pour profiter au maximum des jeux de son enfance/adolescence, l’industrie vidéoludique use et abuse de remakes et remasters, qui ont le bon goût de ramener quelques sous-sous en plus de rendre plus accessibles des titres passés de mode. Pour d’autres, l’émulation est un bon moyen de retrouver en mei...

Microsoft's $1 Billion AI Data Center Will 'Switch Off Half of Kenya'

Par : BeauHD
12 mai 2026 à 19:00
Microsoft and G42's planned $1 billion AI data center in Kenya has stalled amid disagreements over power commitments, with President William Ruto saying the country would need to "switch off half the country" to support the project at full scale. Tom's Hardware reports: The project, announced in May 2024 during Ruto's visit to Washington, was supposed to bring a geothermal-powered data center to the Olkaria region in Kenya's Rift Valley. G42 was to lead construction, with the facility running Microsoft Azure in a new East Africa cloud region. The first phase targeted 100 megawatts of capacity and was expected to be operational by this year, with a long-term goal of scaling to 1 gigawatt. President Ruto isn't exaggerating about shutting off half the country's power. Kenya's total installed electricity capacity sits between 3,000 and 3,200 megawatts, and peak demand reached a record 2,444 megawatts in January, according to data from KenGen, the country's government-owned electricity producer. The full 1 gigawatt build would therefore have consumed roughly a third of the country's total capacity, and even the first 100 megawatts would have required a significant share of the Olkaria geothermal complex's output, which currently generates around 950MW across all its plants. John Tanui, principal secretary at Kenya's Ministry of Information, told Bloomberg that the project hasn't been withdrawn and that talks are continuing, adding that the "scale of the data center they [Microsoft] wanted to do still requires some structuring." A separate 60-megawatt project with local developer EcoCloud is also still under discussion. [...] Microsoft is spending $190 billion on capex in 2026, and the company adds approximately 1 gigawatt of data center capacity every three months globally. But power constraints are proving to be a universal bottleneck: nearly half of planned U.S. data center builds this year have been delayed or canceled due to shortages of electrical infrastructure.

Read more of this story at Slashdot.

Votre NVIDIA GeForce est maintenant prête pour Forza Horizon 6, Subnautica 2 et Directive 8020

Il est toujours plus agréable de se dire, lors de l'arrivée d'un nouveau jeu, que notre carte graphique dispose de pilotes à jour et optimisés pour le titre en question. Si vous êtes possesseurs d'une carte NVIDIA, et qu'un des trois jeux dont nous allons maintenant parler vous intéresse, les pilote...

EU To Crack Down On TikTok, Instagram's 'Addictive Design'

Par : BeauHD
12 mai 2026 à 18:00
The EU plans to target "addictive design" features on TikTok, Instagram, and other platforms, including endless scrolling, autoplay, push notifications, and recommendation loops that can steer children toward harmful content. European Commission President Ursula von der Leyen said new regulation could arrive later this year, alongside an EU age-verification app meant to make child-safety rules easier to enforce. CNBC reports: "We are taking action against TikTok and its addictive design -- endless scrolling, autoplay, and push notifications. The same applies to Meta, because we believe Instagram and Facebook are failing to enforce their own minimum age of 13," Von der Leyen said. "We are investigating platforms that allow children to go down 'rabbit holes' of harmful content -- such as videos that promote eating disorders or self-harm," she added. The EU's executive arm has also developed its own age verification app, which has the "highest privacy standards in the world," according to Von der Leyen. Member states will soon be able to integrate it into their digital wallets, and it can easily be enforced by online platforms. "No more excuses -- the technology for age-verification is available," the EU chief said. The EU Commission could have a legal proposal prepared as soon as the summer, as it awaits the advice and findings of its 'Special Panel of experts on Child Safety Online.'

Read more of this story at Slashdot.

eBay Rejects GameStop's $56 Billion Takeover As 'Neither Credible Nor Attractive'

Par : BeauHD
12 mai 2026 à 17:00
An anonymous reader quotes a report from Reuters: EBay on Tuesday rejected a $56 billion takeover bid from the much smaller GameStop over financing doubts, calling the proposal "neither credible nor attractive." EBay, which has roughly four times GameStop's market value, also underscored that its turnaround efforts under CEO Jamie Iannone have boosted growth, with its stock returning 201% since Iannone took the position six years ago. "We have concluded that your proposal is neither credible nor attractive," eBay Chairman Paul Pressler said in a statement. "eBay's Board is confident the company, under its current management team, is well-positioned to continue to drive sustainable growth." He also pointed to concerns with GameStop's bid, including its financing, its impact on eBay's long-term growth and the leadership structure of a potentially combined company. Last week, GameStop's CEO Ryan Cohen delivered one of the most memorable CNBC interviews in recent memory... initially disinterested, then increasingly hostile, with little eye contact, few real answers to basic questions, and repeated robotic deflections to "check the website." It's worth a watch if you have a few extra minutes.

Read more of this story at Slashdot.

Googlebook, le renouveau des Chromebooks ?

D’ici quelques minutes, dans le cadre du The Android Show I/O Edition 2026, Google devrait apparemment abandonner l’appellation Chromebook au profit d’une nouvelle marque : Googlebook. XDA Developers a brièvement mis en ligne un article, désormais supprimé, qui apporte quelques indications... [Tout lire]

Les Zimaboard 2 vont également augmenter de prix

12 mai 2026 à 16:30

Les Zimaboard 2 sont des MiniPC montés en format carte. Equipées de processeurs Intel Twin Lake N150 et proposées avec de la mémoire LPDDR5x-4800 et un stockage eMMC, elles sont touchées comme les autres par une augmentation du prix des composants.

Zimaboard 2

Équipées de 8 à 16 Go de mémoire vive en LPDDR5x-4800 et 32 à 64 Go de stockage de base en eMMC, les Zimaboard 2 subissent de plein fouet les hausses de tarif. J’imagine que même sur le segment processeur, la situation doit être compliquée. À moins qu’Intel ne fasse une exception pour la marque, la majorité des constructeurs de MiniPC m’expliquent que l’approvisionnement en puces Intel Twin Lake est devenu extrêmement compliqué. C’est peut-être ce que la marque indique être un « composant clé » de son produit.

Une hausse massive des ZimaBoard 2 

Toujours est-il que ces cartes particulières vont grimper de tarif. Dès le 25 mai, le modèle ZimaBoard 2 832 en 8 Go / 32 Go va passer de 279 $ HT à 339 $ HT… une hausse de 60$ assez douloureuse. Le modèle ZimaBoard 2 1664 en 16 Go / 64 Go passe de son côté de 349 à 399 $ HT. Une hausse paradoxalement moins sensible sur ce second modèle.

Si vous aviez l’ambition de vous construire un petit serveur ou autre avec ce type de carte, il ne vous reste donc que quelques jours. Toutes les commandes passées en amont de la hausse seront facturées au prix actuel. À partir du 25 mai à minuit pile (EDT et donc 6H00 du matin en France), les augmentations seront sévères.

Zimaboard 2 : un serveur maison de la taille d’un smartphone

Les Zimaboard 2 vont également augmenter de prix © MiniMachines.net. 2026

Disney+ mai 2026 : Punisher, Stanley Tucci, Guerre des Roses

Par : ToFoo93
12 mai 2026 à 15:41

Marvel sombre, gastronomie italienne et divorce explosif au cinéma : Disney+ mai 2026 ratisse large, avec un calendrier dense le 12 mai et un duo Cumberbatch/Colman attendu dès le 13. Le tour d’horizon des sorties qui comptent. Le mois en chiffres Punisher (12 mai) Stanley Tucci S2 La Guerre des Roses Rivals S2 Calendrier complet […]

L'article Disney+ mai 2026 : Punisher, Stanley Tucci, Guerre des Roses a été publié en premier sur Bbox-Mag

FCC Says Foreign-Made Routers Can Get Updates Until 2029

Par : BeauHD
12 mai 2026 à 16:00
The FCC has softened its ban on foreign-made consumer routers, allowing vendors to keep issuing broader software and firmware updates for devices already in use in the U.S. through at least January 2029. Dark Reading reports: Under the original FCC ruling, foreign manufacturers were permitted to provide only limited maintenance and security patches to US customers through March 2027. In a public note (PDF) on May 8, the FCC extended that deadline to at least January 2029 and also expanded the scope of permissible updates. The FCC will now allow foreign manufacturers to provide not just minor security fixes and changes, but also more major software and firmware updates that could affect router functionality, which previously required additional FCC review. The agency described the revisions as intended to ensure the continued safety of already deployed foreign-made consumer routers in the US. "The FCC likely issued this revision in response to the operational realities of network security and the slow pace of equipment replacement," says Jason Soroko, senior fellow at Sectigo. "Replacing millions of embedded devices across national infrastructure requires immense time and capital, and abandoning existing systems to a completely unpatched state would create an immediate vulnerability." "This waiver significantly alleviates the most pressing fears tied to the initial ban by preventing a sudden and dangerous security vacuum," added Soroko.

Read more of this story at Slashdot.

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

GMKtec M3 Pro : MiniPC Core i5-13500H cherche donneur pour greffe de RAM

12 mai 2026 à 15:06

Construit autour d’un processeur Core i5-13500H, le GMKtec M3 Pro est un MiniPC compact et sobre construit pour coller aux besoins principaux d’un utilisateur en 2026. Disponible en barebone ou équipé de mémoire vive, de stockage et d’une licence de Windows 11. Il fait tant bien que mal face à la hausse des composants.

GMKtec M3 Pro

GMKtec M3 Pro

Le GMKtec M3 Pro est équipé d’un processeur lancé par Intel en janvier 2023. Un Raptor Lake Core i5-13500H qui propose 12 cœurs répartis en 4 cœurs Performance et 8 cœurs Efficients. Le tout propose donc pas moins de 16 threads dans des fréquences allant de 3.5 à 4.7 GHz. Son TDP est de 45 watts et sa mémoire cache atteint 18 Mo. Gravé en Intel 7 et proposant un circuit graphique Iris Xe avec 80 Unités d’Execution à 1.45 GHz. Bref une puce très compétente qui a pris un petit « coup de vieux » à cause de l’absence de NPU embarqué dans cette génération de processeurs. Un défaut qui ne sera pas bloquant pour beaucoup d’utilisateurs et qui permet à GMKtec de proposer un très bon niveau de performances dans un engin compact.

Pour épauler ce processeur, le constructeur propose deux emplacements de mémoire SODIMM DDR4-3200. Pas de DDR5 ici, c’est une des spécificités des puces Raptor Lake que de pouvoir accepter de la DDR5 ou de la DDR4 et ici le choix s’est porté sur le second type de RAM pour limiter le coût de ce poste. L’engin pourra donc accepter jusqu’à 64 Go de mémoire vive.

Pour le stockage, pas de restrictions particulières et l’engin propose deux supports distincts. Le premier est un classique NVMe PCIe 4.0 x4 au format M.2 2280 et le second un port au format M.2 2242 qui prend en charge le NVMe PCIE 3.0 x4 ou le SATA 3.0. Les deux SSD peuvent être double face. L’accès à l’ensemble des composants se fera par la partie inférieure de l’engin en ôtant une plaque vissée dans le châssis.

La ventilation de l’ensemble ne change pas beaucoup des habitudes de ce genre de format. Une ventilation simple qui refroidit des ailettes réchauffées par un caloduc en cuivre qui transporte la chaleur du processeur. Le MiniPC propose trois modes d’exploitation : une solution équilibrée à 35W, un mode silencieux qui laissera la puce monter à 28 W de TDP et un mode performance oscillant entre 40 et 45 watts. Aucune précision sur l’activation de ces modes n’est proposée pour le moment, ce qui laisse entendre en général qu’un choix doit être fait dans le BIOS de la machine. Ce genre de scénario peut être en général compensé par un outil logiciel qui permet de réguler la ventilation à la volée. Aucune mention de nuisance sonore n’est proposée par le constructeur pour le moment.

La connectique est clairement orientée vers un usage en mode VESA même si le GMKtec M3 Pro peut évidemment s’utiliser sur un bureau classique. Mais le choix d’avoir une sortie jack uniquement sur la face arrière est clairement un choix pour une installation de ce type. On retrouve donc en façade uniquement le bouton de démarrage avec une LED blanche de mise en fonction ainsi que deux ports USB 3.2 Gen2 Type-A. À l’arrière, on peut découvrir le port Jack audio combo 3.5 mm, une double sortie HDMI 2.0, un USB 3.2 Type-C avec DisplayPort pour trois sorties vidéo au final. Un Ethernet 2.5 Gigabit et une paire d’USB Type-A aux formats 2.0 et 3.2 Gen2 sont également disponibles. 

C’est maigre et si le port USB Type-C offrira d’installer un dock ou un hub externe pour étendre les possibilités de l’engin, l’absence d’USB4 ou de Thunderbolt limitera les possibilités de débits. On retrouve un module Wi-Fi6 et Bluetooth 5.2 pour des débits rapides grâce à une puce Realtek 8852BE.

Le boîtier, entièrement en métal usiné et brossé avec une coiffe en verre gravé du logo GMK mesure 11.4 cm de large pour 10.6 cm de profondeur et 4.25 cm d’épaisseur pour un poids de 430 grammes. Il est dépendant d’une alimentation de type bloc secteur externe qui se connecte via un jack. Aucun support Antivol type Kensington Lock ne semble visible mais un adaptateur VESA sera livré avec l’engin.

Le constructeur met en avant ce GMKtec M3 Pro comme une machine « à tout faire ». Aussi bien un petit PC familial qu’un poste de travail bureautique professionnel. C’est également un petit PC parfait pour le multimédia ou pour devenir un petit serveur local. Les possibilités offertes par ce type de puce Raptor Lake sont en effet assez grandes et si les usages ludiques seront à prendre avec du recul, une fois équipé de suffisamment de mémoire vive, ce genre d’engine est à même de venir à bout de nombreux usages.

Le GMKtec M3 Pro à partir de 279.99€

Le GMKtec M3 Pro disponible à partir de 299.99€ en barebone (sans mémoire ni stockage) depuis la boutique européenne de la marque. La version 16/512 Go est proposée à 439.99€ et le modèle 32Go/1To est à 619.99€.  Le stock est situé en Europe et la livraison sera donc rapide et gratuite. Les versions équipées seront livrées avec une licence de Windows 11, toutes seront compatibles avec des distributions Linux.

Vous pouvez toujours utiliser le code ABANDON20 dans votre panier pour faire baisser la note de 20€. Parfois cela fonctionne comme c’est le cas ci-dessus.

Le GMKtec M3 Pro ne sera pas une machine de jeu même s’il est largement possible de faire tourner de nombreux titres comme le montre cette vidéo. À mon sens,  c’est plus un engin familial ou pour un collégien / Lycéen. Ce n’est pas une mauvaise machine parce qu’elle est plutôt correctement située en termes de performances pour de nombreux usages. Si vous avez des composants mémoire DDR4 qui traînent dans un vieux portable ou un MiniPC qui donne des signes de fatigue, c’est une solution qui peut s’envisager sans problème. Le Core i5-13500H est un bon processeur, assez nerveux et efficace. J’en ai utilisé assez longuement un avec 16 Go de mémoire vive DDR4-3200 comme machine « à tout faire » et il donne de bons résultats, même en jeu. Il faut rester en basse qualité assez basse et entre le 720 et le 1080p. Mais de nombreux titres sont jouables. Pour d’autres usages, multimédia, bureautique et web c’est également un sans-faute. Enfin des usages créatifs peuvent être plus qu’envisagés avec ce type de dispositif.

Par rapport à un MiniPC Intel N150, la puce Core i5 est environ 50% plus rapide en calcul monocoeur et jusqu’à 80% plus véloce en multicœur. D’un point de vue performances graphiques, les engins sont sans comparaison. Un avantage très net est fait aux 80 EU du processeur Raptor Lake. Bref, si vous avez un vieux MiniPC N100/N150 16/512 Go et avez besoin d’une minimachine plus robuste, c’est une idée de transvaser les entrailles de l’un dans l’autre. Quitte à racheter un peu de mémoire vive quand la situation internationale se sera calmée pour renflouer le donneur.

Voir l’offre sur GMKTec Europe

GMKtec M3 Pro : Core i5-13500H – Barebone
Mini-Score : C

Mini-Score : C

+ conception originale
+ distribution certifiée
+ prix intéressant
+ larges évolutions techniques possibles
+ performance et pérennité d’usage
+ accès simple aux composants
+ compatibilité logicielle poussée

– garantie 1 an
– SAV en Europe
– support en Europe
– connectique limitée
– barebone

 

GMKtec M3 Pro : MiniPC Core i5-13500H cherche donneur pour greffe de RAM © MiniMachines.net. 2026

First Real-Time Brain-Controlled Hearing Device

Par : BeauHD
12 mai 2026 à 15:00
Researchers at Columbia demonstrated the first real-time brain-controlled hearing system that can identify which speaker a listener is focusing on in a noisy environment and automatically amplify that voice while suppressing others. "This breakthrough addresses the 'cocktail party effect,' a major limitation of conventional hearing aids, which often struggle to distinguish between overlapping conversations in noisy settings," reports Neuroscience News. From the report: In the new study, Columbia researchers teamed up with surgeons and their epilepsy patients who were undergoing brain surgery to better pinpoint the sources of their seizures. The hospital patients, who volunteered to be part of this study, already had electrodes implanted in their brains. [senior author Nima Mesgarani's] system used the electrodes to measure the brain activity of the patients as they focused on one of two overlapping conversations played simultaneously. The system then automatically detected which conversation a patient was paying attention to and adjusted the volume in real time, turning up that conversation while quieting the other. For one volunteer, the experience of controlling the system with her brain was literally unbelievable. She accused the researchers of secretly adjusting the volumes. Others told stories about friends and family with hearing impairments who could benefit from such a technology. One person said: "It seems like science fiction." [...] The scientists developed real-time machine-learning algorithms that could examine the brainwaves and identify which conversation the patients were paying attention to. Once deployed, their system could rapidly deduce which conversation each listener was paying attention to and make it easier for them to hear it. This happened both when the researchers guided the subjects toward a particular conversation, and when the subjects chose freely, as would be necessary in a real-world conversation. "For this to work in real time, the system has to be very fast, accurate and stable for the experience to feel pleasant for the listener," Dr. Mesgarani said. The scientists found their new system correctly identified which conversation the volunteers paid attention to. This dramatically improved the intelligibility of the speech the volunteers focused on, reduced listening effort, and was consistently preferred by the volunteers when compared to conversations the system did not provide assistance with. One volunteer recalled her uncle, who had hearing problems. "Can you imagine if this technology existed in a world [where] ... he could access it? He might actually live a much more peaceful... life." The research has been published in Nature Neuroscience.

Read more of this story at Slashdot.

❌