Instructure Pays Canvas Hackers To Delete Students' Stolen Data
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Pour profiter au maximum des jeux de son enfance/adolescence, l’industrie vidéoludique use et abuse de remakes et remasters, qui ont le bon goût de ramener quelques sous-sous en plus de rendre plus accessibles des titres passés de mode. Pour d’autres, l’émulation est un bon moyen de retrouver en mei...
Read more of this story at Slashdot.
Il est toujours plus agréable de se dire, lors de l'arrivée d'un nouveau jeu, que notre carte graphique dispose de pilotes à jour et optimisés pour le titre en question. Si vous êtes possesseurs d'une carte NVIDIA, et qu'un des trois jeux dont nous allons maintenant parler vous intéresse, les pilote...
Read more of this story at Slashdot.
Read more of this story at Slashdot.
![]()
Les Zimaboard 2 sont des MiniPC montés en format carte. Equipées de processeurs Intel Twin Lake N150 et proposées avec de la mémoire LPDDR5x-4800 et un stockage eMMC, elles sont touchées comme les autres par une augmentation du prix des composants.
![]()
Équipées de 8 à 16 Go de mémoire vive en LPDDR5x-4800 et 32 à 64 Go de stockage de base en eMMC, les Zimaboard 2 subissent de plein fouet les hausses de tarif. J’imagine que même sur le segment processeur, la situation doit être compliquée. À moins qu’Intel ne fasse une exception pour la marque, la majorité des constructeurs de MiniPC m’expliquent que l’approvisionnement en puces Intel Twin Lake est devenu extrêmement compliqué. C’est peut-être ce que la marque indique être un « composant clé » de son produit.
![]()
Toujours est-il que ces cartes particulières vont grimper de tarif. Dès le 25 mai, le modèle ZimaBoard 2 832 en 8 Go / 32 Go va passer de 279 $ HT à 339 $ HT… une hausse de 60$ assez douloureuse. Le modèle ZimaBoard 2 1664 en 16 Go / 64 Go passe de son côté de 349 à 399 $ HT. Une hausse paradoxalement moins sensible sur ce second modèle.
Si vous aviez l’ambition de vous construire un petit serveur ou autre avec ce type de carte, il ne vous reste donc que quelques jours. Toutes les commandes passées en amont de la hausse seront facturées au prix actuel. À partir du 25 mai à minuit pile (EDT et donc 6H00 du matin en France), les augmentations seront sévères.
Zimaboard 2 : un serveur maison de la taille d’un smartphone
Les Zimaboard 2 vont également augmenter de prix © MiniMachines.net. 2026
![]()
Marvel sombre, gastronomie italienne et divorce explosif au cinéma : Disney+ mai 2026 ratisse large, avec un calendrier dense le 12 mai et un duo Cumberbatch/Colman attendu dès le 13. Le tour d’horizon des sorties qui comptent. Le mois en chiffres Punisher (12 mai) Stanley Tucci S2 La Guerre des Roses Rivals S2 Calendrier complet […]
L'article Disney+ mai 2026 : Punisher, Stanley Tucci, Guerre des Roses a été publié en premier sur Bbox-Mag
Read more of this story at Slashdot.
Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.
Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ».
Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.
Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.
Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.
C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.
Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.
Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.
Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».
Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.
Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.
C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».
Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.
Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.
Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ».
Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.
Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.
Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.
C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.
Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.
Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.
Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».
Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.
Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.
C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».
Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.
![]()
Construit autour d’un processeur Core i5-13500H, le GMKtec M3 Pro est un MiniPC compact et sobre construit pour coller aux besoins principaux d’un utilisateur en 2026. Disponible en barebone ou équipé de mémoire vive, de stockage et d’une licence de Windows 11. Il fait tant bien que mal face à la hausse des composants.
GMKtec M3 Pro
Le GMKtec M3 Pro est équipé d’un processeur lancé par Intel en janvier 2023. Un Raptor Lake Core i5-13500H qui propose 12 cœurs répartis en 4 cœurs Performance et 8 cœurs Efficients. Le tout propose donc pas moins de 16 threads dans des fréquences allant de 3.5 à 4.7 GHz. Son TDP est de 45 watts et sa mémoire cache atteint 18 Mo. Gravé en Intel 7 et proposant un circuit graphique Iris Xe avec 80 Unités d’Execution à 1.45 GHz. Bref une puce très compétente qui a pris un petit « coup de vieux » à cause de l’absence de NPU embarqué dans cette génération de processeurs. Un défaut qui ne sera pas bloquant pour beaucoup d’utilisateurs et qui permet à GMKtec de proposer un très bon niveau de performances dans un engin compact.
![]()
Pour épauler ce processeur, le constructeur propose deux emplacements de mémoire SODIMM DDR4-3200. Pas de DDR5 ici, c’est une des spécificités des puces Raptor Lake que de pouvoir accepter de la DDR5 ou de la DDR4 et ici le choix s’est porté sur le second type de RAM pour limiter le coût de ce poste. L’engin pourra donc accepter jusqu’à 64 Go de mémoire vive.
Pour le stockage, pas de restrictions particulières et l’engin propose deux supports distincts. Le premier est un classique NVMe PCIe 4.0 x4 au format M.2 2280 et le second un port au format M.2 2242 qui prend en charge le NVMe PCIE 3.0 x4 ou le SATA 3.0. Les deux SSD peuvent être double face. L’accès à l’ensemble des composants se fera par la partie inférieure de l’engin en ôtant une plaque vissée dans le châssis.
![]()
La ventilation de l’ensemble ne change pas beaucoup des habitudes de ce genre de format. Une ventilation simple qui refroidit des ailettes réchauffées par un caloduc en cuivre qui transporte la chaleur du processeur. Le MiniPC propose trois modes d’exploitation : une solution équilibrée à 35W, un mode silencieux qui laissera la puce monter à 28 W de TDP et un mode performance oscillant entre 40 et 45 watts. Aucune précision sur l’activation de ces modes n’est proposée pour le moment, ce qui laisse entendre en général qu’un choix doit être fait dans le BIOS de la machine. Ce genre de scénario peut être en général compensé par un outil logiciel qui permet de réguler la ventilation à la volée. Aucune mention de nuisance sonore n’est proposée par le constructeur pour le moment.
![]()
La connectique est clairement orientée vers un usage en mode VESA même si le GMKtec M3 Pro peut évidemment s’utiliser sur un bureau classique. Mais le choix d’avoir une sortie jack uniquement sur la face arrière est clairement un choix pour une installation de ce type. On retrouve donc en façade uniquement le bouton de démarrage avec une LED blanche de mise en fonction ainsi que deux ports USB 3.2 Gen2 Type-A. À l’arrière, on peut découvrir le port Jack audio combo 3.5 mm, une double sortie HDMI 2.0, un USB 3.2 Type-C avec DisplayPort pour trois sorties vidéo au final. Un Ethernet 2.5 Gigabit et une paire d’USB Type-A aux formats 2.0 et 3.2 Gen2 sont également disponibles.
C’est maigre et si le port USB Type-C offrira d’installer un dock ou un hub externe pour étendre les possibilités de l’engin, l’absence d’USB4 ou de Thunderbolt limitera les possibilités de débits. On retrouve un module Wi-Fi6 et Bluetooth 5.2 pour des débits rapides grâce à une puce Realtek 8852BE.
![]()
Le boîtier, entièrement en métal usiné et brossé avec une coiffe en verre gravé du logo GMK mesure 11.4 cm de large pour 10.6 cm de profondeur et 4.25 cm d’épaisseur pour un poids de 430 grammes. Il est dépendant d’une alimentation de type bloc secteur externe qui se connecte via un jack. Aucun support Antivol type Kensington Lock ne semble visible mais un adaptateur VESA sera livré avec l’engin.
Le constructeur met en avant ce GMKtec M3 Pro comme une machine « à tout faire ». Aussi bien un petit PC familial qu’un poste de travail bureautique professionnel. C’est également un petit PC parfait pour le multimédia ou pour devenir un petit serveur local. Les possibilités offertes par ce type de puce Raptor Lake sont en effet assez grandes et si les usages ludiques seront à prendre avec du recul, une fois équipé de suffisamment de mémoire vive, ce genre d’engine est à même de venir à bout de nombreux usages.
Le GMKtec M3 Pro disponible à partir de 299.99€ en barebone (sans mémoire ni stockage) depuis la boutique européenne de la marque. La version 16/512 Go est proposée à 439.99€ et le modèle 32Go/1To est à 619.99€. Le stock est situé en Europe et la livraison sera donc rapide et gratuite. Les versions équipées seront livrées avec une licence de Windows 11, toutes seront compatibles avec des distributions Linux.
![]()
Vous pouvez toujours utiliser le code ABANDON20 dans votre panier pour faire baisser la note de 20€. Parfois cela fonctionne comme c’est le cas ci-dessus.
Le GMKtec M3 Pro ne sera pas une machine de jeu même s’il est largement possible de faire tourner de nombreux titres comme le montre cette vidéo. À mon sens, c’est plus un engin familial ou pour un collégien / Lycéen. Ce n’est pas une mauvaise machine parce qu’elle est plutôt correctement située en termes de performances pour de nombreux usages. Si vous avez des composants mémoire DDR4 qui traînent dans un vieux portable ou un MiniPC qui donne des signes de fatigue, c’est une solution qui peut s’envisager sans problème. Le Core i5-13500H est un bon processeur, assez nerveux et efficace. J’en ai utilisé assez longuement un avec 16 Go de mémoire vive DDR4-3200 comme machine « à tout faire » et il donne de bons résultats, même en jeu. Il faut rester en basse qualité assez basse et entre le 720 et le 1080p. Mais de nombreux titres sont jouables. Pour d’autres usages, multimédia, bureautique et web c’est également un sans-faute. Enfin des usages créatifs peuvent être plus qu’envisagés avec ce type de dispositif.
Par rapport à un MiniPC Intel N150, la puce Core i5 est environ 50% plus rapide en calcul monocoeur et jusqu’à 80% plus véloce en multicœur. D’un point de vue performances graphiques, les engins sont sans comparaison. Un avantage très net est fait aux 80 EU du processeur Raptor Lake. Bref, si vous avez un vieux MiniPC N100/N150 16/512 Go et avez besoin d’une minimachine plus robuste, c’est une idée de transvaser les entrailles de l’un dans l’autre. Quitte à racheter un peu de mémoire vive quand la situation internationale se sera calmée pour renflouer le donneur.
| GMKtec M3 Pro : Core i5-13500H – Barebone | ||
| + conception originale + distribution certifiée + prix intéressant + larges évolutions techniques possibles + performance et pérennité d’usage + accès simple aux composants + compatibilité logicielle poussée |
– garantie 1 an |
|
GMKtec M3 Pro : MiniPC Core i5-13500H cherche donneur pour greffe de RAM © MiniMachines.net. 2026
Read more of this story at Slashdot.