Vue lecture
Uniwill Laptop Driver Proposed For Linux To Enable Additional Features
FreeRDP 3.16 Released With Better SDL3 Client Support
NZXT Kraken Elite 420 RGB, un monstre loin d'être tentaculaire
MSI fait finalement un geste concernant ses alimentations anti AMD Radeon.
Au mois de janvier 2025, MSI lançait une nouvelle gamme d'alimentation ATX 3.1 et PCIe 5.1 : les MPG GS. Une gamme présentant une caractéristique intéressante : la présence à l'arrière des blocs de deux connecteurs 12V-2x6 au lieu d'un traditionnel, et ce tant sur les MPG A1250GS, MPG A1000GS et MPG...
Une borne d’arcade faite maison dans un design Fallout
Poncer du filament PLA sorti d’une imprimante 3D, vous avez déjà essayé ? C’est une des pires expériences possibles en DIY. C’est pourtant ce qui a été réalisé intensivement sur cette borne d’arcade au design directement inspiré de l’univers de Fallout 4.
L’auteur ne donne pas beaucoup d’informations sur sa réalisation, si ce n’est qu’il a passé de longues heures avec du papier de verre en main. Il indique également qu’il a osé exploiter un écran cathodique en manipulant un tube récupéré dans une vielle télé portable…
Chose que je ne conseille vraiment pas de faire pour un néophyte. L’électronique embarquée dans ces vieux postes peut être très compliqué à manipuler avec des voltages importants. À noter qu’un adaptateur HDMI vers composite a été utilisé même si la carte Raspberry Pi peut sortir nativement un signal de ce type. L’auteur du montage n’était tout simplement pas au courant de cette possibilité.
Pour le reste c’est un montage très réussi de différents modules modélisés en 3D sous Maya et imprimés en 3D avec toujours la même méthode pour la finition. Beaucoup de travail, un premier ponçage, un passage de mastic à bois pour combler les traces d’impression restantes, un nouveau ponçage en papier de verre à grain très fin (2000+), un primaire de peinture puis une peinture de finition. Le résultat est très impressionnant avec un rendu identique sur ces parties externes à ce que sortirait un moule classique.
Le tout fait donc tourner RetroPie sur une Raspberry Pi non identifiée. L’écran est en noir et blanc et la jouabilité est assurée par une manette USB que l’on branche en façade. Si vous voulez voir plus d’image de cette borne Fallout, cela se passe ici.
Une borne d’arcade faite maison dans un design Fallout © MiniMachines.net. 2025
☕️ La ministre de la Santé va interdire les écrans aux moins de trois ans
La ministre de la Santé et des Solidarités Catherine Vautrin compte « interdire l’exposition aux écrans pour les plus petits, de la naissance à l’âge de 3 ans », tout en admettant que les autorités ne seront « pas chez les gens pour le vérifier ».
Dans les prochaines semaines, elle prévoit de publier « un arrêté interdisant les écrans dans les lieux d’accueil des enfants de moins de 3 ans », rapporte Libération.
La ministre décrit ce projet comme une manière « d’insuffler l’idée que ça ne se fait pas ». Elle compare l’arrêté à « l’interdiction de la fessée » : quand bien même la police n’est pas allée vérifier le respect de la règle, cette dernière a « fini par ancrer l’idée qu’on ne tape pas un enfant, même d’une « petite fessée » ».

Entré en vigueur au 1ᵉʳ janvier, le dernier carnet de santé stipule qu’il ne faut « pas d’écran avant 3 ans », et en préconise un usage « occasionnel, limité à des contenus à qualité éducative et accompagné par un adulte » pour les 3 années suivantes.
Les propos de la ministre font suite à une alerte de cinq sociétés savantes alertant contre les dangers de l’exposition aux écrans avant six ans.
Un an plus tôt, plusieurs de ses signataires avaient remis à Emmanuel Macron un rapport et 29 recommandations sur l’usage des écrans. Ils y préconisaient notamment de ne pas y exposer les enfants de moins de 3 ans.
☕️ La ministre de la Santé va interdire les écrans aux moins de trois ans
La ministre de la Santé et des Solidarités Catherine Vautrin compte « interdire l’exposition aux écrans pour les plus petits, de la naissance à l’âge de 3 ans », tout en admettant que les autorités ne seront « pas chez les gens pour le vérifier ».
Dans les prochaines semaines, elle prévoit de publier « un arrêté interdisant les écrans dans les lieux d’accueil des enfants de moins de 3 ans », rapporte Libération.
La ministre décrit ce projet comme une manière « d’insuffler l’idée que ça ne se fait pas ». Elle compare l’arrêté à « l’interdiction de la fessée » : quand bien même la police n’est pas allée vérifier le respect de la règle, cette dernière a « fini par ancrer l’idée qu’on ne tape pas un enfant, même d’une « petite fessée » ».

Entré en vigueur au 1ᵉʳ janvier, le dernier carnet de santé stipule qu’il ne faut « pas d’écran avant 3 ans », et en préconise un usage « occasionnel, limité à des contenus à qualité éducative et accompagné par un adulte » pour les 3 années suivantes.
Les propos de la ministre font suite à une alerte de cinq sociétés savantes alertant contre les dangers de l’exposition aux écrans avant six ans.
Un an plus tôt, plusieurs de ses signataires avaient remis à Emmanuel Macron un rapport et 29 recommandations sur l’usage des écrans. Ils y préconisaient notamment de ne pas y exposer les enfants de moins de 3 ans.
Aperçus IA : les éditeurs de presse se préparent à ferrailler avec Google
Tant va la cruche à l'eau qu'à la fin elle se casse

Avec AI Overviews (Aperçus IA), Google a introduit au sein de ses résultats de recherche des réponses qui éliminent le besoin d’aller visiter les sites dont émanent les informations source. Aux États-Unis, plusieurs grands éditeurs alertent sur les conséquences de cette perte de trafic sur leur activité, alors que Google vient de déployer la fonctionnalité dans 200 pays. Si la France fait encore figure d’irréductible village gaulois dans le paysage, les éditeurs hexagonaux redoutent, eux aussi, l’impact négatif qu’aura Overviews après son lancement.
Le Wall Street Journal, dans son édition du 11 juin, s’est fait le porte-voix d’une partie des grands éditeurs de presse aux États-Unis, dans un article au titre explicite : « Les sites d’actualités sont écrasés par les nouveaux outils d’IA de Google ».
Les grands médias de la côte Est s’inquiètent
Issus de Similarweb, les chiffres témoignent notamment d’une baisse du trafic issu de la recherche de 55 % entre avril 2022 et avril 2025 pour Business Insider. Or le média, propriété du groupe Axel Springer depuis 2015, a annoncé début juin qu’il allait se séparer de 21 % de ses équipes, après avoir déjà procédé à des coupes dans ses effectifs en 2023, puis 2024.

Dans un mémo interne, cité et reproduit par AdWeek, la CEO de Business Insider Barbara Peng explique que le média va cesser ses activités éditoriales dans plusieurs verticales dont l’audience dépend fortement du search (les recherches effectuées sur les moteurs de recherche). L’évolution du marché et des usages est d’ailleurs directement avancée comme l’une des justifications à cette nouvelle cure d’austérité, comme l’écrit Barbara Peng :
« 70 % de notre activité est plus ou moins sensible au trafic. Nous devons être structurés pour faire face à des baisses de trafic extrêmes, indépendantes de notre volonté. C’est pourquoi nous réduisons la taille de notre entreprise à des proportions qui nous permettent d’absorber cette volatilité. »
Nicholas Thompson, directeur exécutif du magazine The Atlantic, irait même plus loin, en imaginant que son média doive à terme apprendre à composer avec une totale disparition du trafic en provenance de Google. Interrogé par le Wall Street Journal, il estime que ce scénario – sans doute volontairement jusqu’au-boutiste – est la conséquence d’un changement de philosophie chez Google, qui consisterait à basculer d’un « moteur de recherche » vers un « moteur de réponses ».
Intel Performance Counters Support Merged To Mesa For Panther Lake
DINGUE, Windows 10 à 13 euros et Windows 11 à 19 euros !!!

Vous allez le voir, c'est simple, c'est rapide et en plus on vous explique comment acheter une clé Windows 11. Assurément aujourd'hui, avec nos machines Gaming ou de production, il est essentiel d'avoir une licence Windows et Office, ou au moins une clé d'activation Windows et Office pour profiter pleinement de sa configuration, mais aussi des fonctionnalités et des mises à jour de l'OS ou encore de sa suite bureautique. Cependant, ces licences peuvent coûter plusieurs centaines d'euros. Heureusement, grâce à notre partenaire GVGMALL, vous n'aurez plus à payer des sommes folles et en plus, vous n'aurez plus le message Windows non activé en bas de votre écran. Mais pourquoi ? Car GVGMALL.com propose des clés OEM authentiques à des tarifs qui sont plus ultra avantageux : - Windows 11 dès 19 U+20AC - Windows 10 dès 13 U+20AC - Licences Office dès 24 U+20AC De plus, avec le code promo CCVIP, bénéficiez de 30 % de réduction supplémentaire sur vos achats. Pourquoi attendre ? En passant à Windows 10 pour seulement 13 U+20AC, vous pourrez également effectuer une mise à niveau gratuite vers Windows 11, vous permettant ainsi d'accéder au dernier OS de Microsoft à moindre coût. Offres spéciales avec le code promo CCVIP Profitez des offres suivantes chez GVGMALL et Cowcotland : - Windows 11 Pro OEM Lifetime à 19.96 U+20AC - Windows 10 Pro OEM Lifetime à 13.86 U+20AC - Windows 11 Home OEM Lifetime à 18.41 U+20AC - Windows 10 Home OEM Lifetime à 12.63 U+20AC - Microsoft Office 2016 Lifetime à 24.11 U+20AC - Microsoft Office 2019 Lifetime à 42.25 U+20AC - Windos 10 Enterprise LTSC 2021 CD Key Global à 9.09 U+20AC - Windows 10 Pro OEM + Office 2016 à 34.14 U+20AC - Windows 10 Pro OEM + Office 2019 à 51.92 U+20AC […]
Lire la suiteSes RTX 4090 étaient en fait des RTX 30...

C'est un peu l'hsitoire WTF du jour et la morale est assez simpliste, ne pas acheter de cartes graphiques à des revendeurs inconnus. Récapitulons, un acheteur a passé commande de quatre cartes RTX 4090, mais aucune ne fonctionne, il contacte donc un réparateur spécialisé afin de découvrir la cause des pannes et là, schtroumpf, trois des cartes sont en fait des RTX 30 : […]
Lire la suiteC'Te bundle de folie aux USA avec le Ryzen 7 9800X3D !!!

Attention, vous allez faire un malaise en voyant le bundle qui est proposé chez New Egg en ce moment, car le prix est juste OUF. Juste comme ça, pour rappel, chez nous, un AMD Ryzen 7 9800X3D coute 502 euros minimum. Aux USA, pour 699 dollars, donc 723 euros avec la TVA, vous aurez le droit à tout ça : un CPU AMD Ryzen 7 9800X3D, une carte mère X870 AORUS Elite Wi-Fi 7, 2 x 16 Go de mémoire G.SKILL Ripjaws 6000 et un SSD Kingston NV3 PCIe 4.0 de 1 To, ou un T-Force G50 1 To. […]
Lire la suitePowerColor : une RX 7800 XT Red Devil BackPlate Edition et une BackPlate aèro achetable seule !

Le constructeur PowerColor nous dévoile une RX 7800 XT Red Devil BackPlate Edition, son nom trahit le fait que le bundle comprend une BackPlate spécifique, très aéro, mais bonne nouvelle cette dernière est achetable seule ! La carte reprend les codes stylistiques de la gamme Red Devil, avec un mélange de rouge et de noir, la backplate optionnelle peut s'aimanter, simplement sur la backplate de base. RX 7800 XT Red Devil BackPlate Edition GPU : Navi 32 Fréquence Game : 2124 MHz Fréquence boost : 2565 MHz Mémoire : 16 Go GDDR6 Fréquence mémoire : 19.5 Gbps Bus : 256 bits Interface : PCIe 16X Gen 4 Stream Processors : 3840 Ray Accelerators : 60 (2nd Gen) AI Accelerators : 120 Rops : 120 Infinity Cache : 64 Mo […]
Lire la suiteIntel Core 5 120F : Un premier processeur Barlett Lake pour les Gamers

On sait qu'Intel travaille sur de nouveaux processeurs Bartlett Lake-S, des modèles qui exploiteraient uniquement des Cores P. Nous serions en Socket s1700 et nous aurions donc des Cores Raptor Cove, entre 6 et 12 Cores. Et le premier modèle à se montrer dans une slide en fuite n'est autre que le Intel Core 5 120F. Au programme de ce modèle, 6 Cores P, normalement avec l'Hyper Threading, 18 Mo de mémoire cache L3, une fréquence de base de 2.5 GHz, un Boost à 4.5 GHz, la gestion de la DDR5-4800, la prise en charge de 192 Go de RAM et un TDP qui serait de 65 watts. […]
Lire la suiteLe PCIe 7.0 se finalise et annonce un débit de 256 GB/s
Fois deux, comme d’habitude, la norme PCI Express fait la culbute et le PCIe 7.0 double la capacité de débit théorique du PCie 6.0. On atteint ainsi grâce à 16 lignes disponibles un flux maximal de 256 Go par seconde. Le double en bi-directionnel.
Le PCIe 7.0 assure conserver une grande fiabilité dans le transfert des données et conserver une très faible latence. Il se veut également peu gourmand en énergie, un argument majeur au vu des cibles visés par la norme. On parle ici de datacenter, d’hébergement de données, de gestion d’IA et de Machine Learning. Le grand public ne verra sans doute pas la couleur du nouveau format avant un moment. Les premiers produits exploitant la norme ne seront pas commercialisés avant une bonne année et il s’agira sans doute de carte mères à destination de serveurs plus que de cartes grand public.
Mais un jour où l’autre le PCIe 7.0 finira par arriver chez les particuliers, offrant toujours plus de possibilités techniques pour les cartes graphiques, le transfert de données et la gestion de multiples supports. Avec également de nouvelles problématiques puisque les contrôleurs de SSD par exemple, nécessitent souvent des refroidissements actifs depuis la version PCIe 5.0 pour assurer une température de fonctionnement optimale.
Pour rappel, la norme la plus haute actuellement est toujours le PCIe 5.0. Elle cohabite avec la norme encore très répandue PCIe 4.0. Et si l’écart de performances mesuré entre un port PCIe 4.0 et un port PCIe 5.0 existe, il est franchement minimal. Sur l’image au-dessus, on peut analyser un extrait du long test réalisé par TechPowerUp sur le sujet. Une étude qui montre qu’entre une gestion PCIe 4.0 et une PCIe 5.0 sur un jeu comme Cyberpunk 2077 avec une carte graphique GeForce RTX 5090, on ne perd quasiment rien en termes de performances.
Pas besoin de se presser donc, d’autant que le PCI-SIG prépare déjà le PCIe 8.0 pour un horizon encore plus lointain.
Le PCIe 7.0 se finalise et annonce un débit de 256 GB/s © MiniMachines.net. 2025
Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »
Il y a le bon qubit et le mauvais qubit

Lors du salon Vivatech de la semaine dernière, IBM a présenté son projet de construction d’un « premier ordinateur quantique à grande échelle et tolérant aux erreurs ». Maintenant que la solution technique est trouvée, la mise en œuvre peut commencer, avec des étapes intermédiaires jusqu’en 2029.
IBM a présenté sa nouvelle feuille de route pour arriver à son objectif de passer à 200 qubits en 2029 (puce Starling) puis à 2 000 qubits (puce Blue Jay) à partir de 2033… On pourrait presque penser que cela n’a rien de bien exceptionnel alors que la puce Heron d’IBM est déjà à 133 qubits et même 156 dans sa version R2.
Mais ce serait aller trop vite en besogne puisqu’on ne parle pas des mêmes qubits. Avec les puces actuelles, ce sont des qubits physiques : un qubit utile sur Heron par exemple, correspond à un qubit physique sur le processeur.
200 puis 2 000 qubits logiques
Avec Starling et Blue Jay, IBM parle de qubits logiques. Chaque qubit logique est constitué de plusieurs (dizaines, centaines, milliers…) de qubits physiques. Dans le cas de Starling et Blue Jay, IBM ne souhaite pas communiquer le nombre de qubits physiques sous-jacents dans les deux puces.
Multiplier les qubits physiques pour un seul qubit logiques permet de réduire les taux d’erreurs, un problème important de l’informatique quantique. Si un qubit logique est constitué de 100 qubits physiques et que 98 d’entre eux indiquent une même valeur, ce sera celle utilisée par le qubit logique.
On réduit ainsi mathématiquement le taux d’erreur, ils sont même « supprimés de manière exponentielle avec la taille du groupe [de qubits physiques], ce qui leur permet d’effectuer un plus grand nombre d’opérations », affirme IBM. Cette dernière est loin d’être la seule société à faire ainsi, c’est une approche on ne peut plus classique dans le monde des calculateurs quantiques.

De 100 millions à 1 milliard de portes quantiques
Fin 2024, IBM rappelait à juste titre qu’il n’y avait pas que le nombre de qubits à prendre en compte pour estimer la puissance des machines quantiques, il faut aussi connaitre le nombre de portes utilisables pendant les calculs.
Avec Starling et ses 200 qubits, IBM annonce 100 millions de portes en 2029. À partir de 2033, avec Blue Jay et ses 2 000 qubits, ce sera un milliard de portes. C’est un passage à l’échelle important puisque la puce Heron de 2024 (133 qubits physiques) est donnée pour 5 000 portes « seulement ».
Des portes, il en faut en quantité pour avoir des algorithmes réellement utilisables dans la pratique. Prenons l’exemple de l’algorithme de Shor permettant de « casser » la cryptographie asymétrique (type RSA). Il fait beaucoup parler de lui, mais nous sommes encore loin de pouvoir l’utiliser pour casser du chiffrement sur des milliers de bits.
Vivien Londe (spécialiste quantique chez Microsoft, ex-doctorant Inria) remettait l’église au centre du village il y a quatre ans déjà : il faudrait un « ordinateur quantique de 6 000 qubits parfaits [c‘est-à-dire une puce avec 6 000 qubits logiques, ndlr] et capable de faire de l’ordre de 10 milliards d’opérations » pour mettre « en danger tout un pan de la cryptographie actuelle ». On s’en approchera seulement à partir de 2033 selon la roadmap IBM.
La solution d’IBM, en deux temps
Réussir à multiplier les qubits physiques pour obtenir des qubits logiques les plus « fiables » possibles (en réduisant au maximum le taux d’erreur) est donc tout l’enjeu moderne des ordinateurs quantiques. IBM semble confiant d’arriver à un ordinateur « tolérant aux erreurs ». Si le taux ne sera a priori jamais de 100 %, il est question de 99,9999… avec « plein de 9 » derrière la virgule, nous confirme IBM.
Pour le géant américain, « la création d’un nombre croissant de qubits logiques capables d’exécuter des circuits quantiques, avec le moins de qubits physiques possible, est essentielle pour l’informatique quantique à grande échelle. Jusqu’à aujourd’hui, aucune voie claire vers la construction d’un tel système tolérant aux erreurs sans des frais d’ingénierie irréalistes n’a été publiée ».
IBM affirme justement avoir dépassé un cap sur cette problématique avec la publication d’un article sur des « codes de contrôle de parité à faible densité quantique (qLDPC : quantum low-density parity check) ». Ils permettent de réduire « considérablement le nombre de qubits physiques nécessaires à la correction d’erreurs et réduit les coûts additionnels requis d’environ 90 % par rapport aux autres codes à la pointe ».
Dans un second article, IBM explique « comment décoder efficacement les informations provenant des qubits physiques et trace une voie pour identifier et corriger les erreurs en temps réel avec des ressources informatiques conventionnelles ».
Quantum Loon, Kookaburra et Cockatoo
La nouvelle feuille de route d’IBM prévoit trois étapes intermédiaires avant d’arriver à Starling en 2029.
La première baptisée Quantum Loon est prévue pour 2025. Ce processeur « est conçu pour tester les composants de l’architecture pour le code qLDPC, notamment les « coupleurs de type C » qui connectent les qubits sur de plus longues distances au sein d’une même puce ».


L’année prochaine, ce sera au tour de Kookaburra. Il s’agira du « premier processeur modulaire d’IBM conçu pour stocker et traiter des informations codées ». Il combine une mémoire quantique avec des opérations logiques, « ce qui constitue la base de la mise à l’échelle de systèmes tolérants aux erreurs au-delà d’une seule puce ».
D’autres fabricants travaillent sur de la mémoire quantique, notamment pour connecter entre eux différentes machines quantiques, mais aussi pour transmettre de l’informatique en mode quantique. Nous y reviendrons dans un prochain article.
En 2027, le processeur Cockatoo sera un peu la concrétisation des travaux précédents. Il « intriquera deux modules Kookaburra à l’aide de « coupleurs de type L ». Cette architecture reliera les puces quantiques entre elles comme les nœuds d’un système plus vaste, évitant ainsi la nécessité de construire des puces de taille irréaliste ».
« Ensemble, ces avancées sont conçues pour aboutir à Starling en 2029 », affirme IBM en guise de conclusion.
☕️ 72 000 victimes d’arnaques et de prélèvement frauduleux : à Lyon, un procès hors norme
72 000 victimes de prélèvements frauduleux et d’arnaques, 2 400 parties civiles, deux amphithéâtres d’université et une web radio en continu pour les accueillir en plus de la salle d’audience…
Le procès qui s’ouvre aujourd’hui à Lyon, dans lequel 14 hommes font face à 22 chefs de mise en examen parmi lesquels celui d’ « escroquerie en bande organisé », est d’une dimension rare.
Il a pu s’ouvrir à la suite de l’arrestation d’un stagiaire puis alternant d’une agence Adecco de Besançon, explique La Charente Libre. Dix mois plus tard, les enquêteurs avaient réussi à débrouiller l’écheveau de discussions et de réseaux animés sur le darkweb pour orchestrer des escroqueries en tous genres : fausses demandes de MaPrime Rénov, de Chèques Vacances, de Pass Culture, d’assurance-vie…
L’affaire avait débuté en 2022, lorsque la filiale française de la société d’intérim Adecco subit un vol massif de données. En juin, le stagiaire qui sera finalement arrêté livre ses identifiants et mots de passes à « Abeloth », un pseudonyme utilisé en ligne.
Cinq mois plus tard, Adecco porte plainte, alors que plus de 32 000 intérimaires se sont vus prélever des sommes de 49,85 euros, juste sous le seuil d’autorisation préalable, et que 40 000 autres ont subi des tentatives de prélèvements bloquées à temps ou remboursées par les banques.
Les données saisies ont aussi permis au fameux « Abeloth » et à son réseau de fabriquer de fausses cartes Vitale et des comptes bancaires dédiées au blanchiment des fonds volés.

Composé de cinq ou six hackers jamais condamnés, d’un « personnage central » qui s’est lancé dans ces activités à seulement 19 ans et auquel les enquêteurs reconnaissent des « capacités intellectuelles élevées », le réseau de prévenus est très jeune. Pour son « cerveau », les enquêteurs évoquent une « escalade addictive » dans la « recherche de failles » informatiques, au point d’avoir « continué ses activités » en prison, grâce à des smartphones.
Le reste des membres du réseau sont plutôt connus des forces de police pour des affaires d’escroqueries, violences ou trafic de stupéfiants.
Le plan d’IBM pour des ordinateurs quantiques « à grande échelle et tolérants aux erreurs »
Il y a le bon qubit et le mauvais qubit

Lors du salon Vivatech de la semaine dernière, IBM a présenté son projet de construction d’un « premier ordinateur quantique à grande échelle et tolérant aux erreurs ». Maintenant que la solution technique est trouvée, la mise en œuvre peut commencer, avec des étapes intermédiaires jusqu’en 2029.
IBM a présenté sa nouvelle feuille de route pour arriver à son objectif de passer à 200 qubits en 2029 (puce Starling) puis à 2 000 qubits (puce Blue Jay) à partir de 2033… On pourrait presque penser que cela n’a rien de bien exceptionnel alors que la puce Heron d’IBM est déjà à 133 qubits et même 156 dans sa version R2.
Mais ce serait aller trop vite en besogne puisqu’on ne parle pas des mêmes qubits. Avec les puces actuelles, ce sont des qubits physiques : un qubit utile sur Heron par exemple, correspond à un qubit physique sur le processeur.
200 puis 2 000 qubits logiques
Avec Starling et Blue Jay, IBM parle de qubits logiques. Chaque qubit logique est constitué de plusieurs (dizaines, centaines, milliers…) de qubits physiques. Dans le cas de Starling et Blue Jay, IBM ne souhaite pas communiquer le nombre de qubits physiques sous-jacents dans les deux puces.
Multiplier les qubits physiques pour un seul qubit logiques permet de réduire les taux d’erreurs, un problème important de l’informatique quantique. Si un qubit logique est constitué de 100 qubits physiques et que 98 d’entre eux indiquent une même valeur, ce sera celle utilisée par le qubit logique.
On réduit ainsi mathématiquement le taux d’erreur, ils sont même « supprimés de manière exponentielle avec la taille du groupe [de qubits physiques], ce qui leur permet d’effectuer un plus grand nombre d’opérations », affirme IBM. Cette dernière est loin d’être la seule société à faire ainsi, c’est une approche on ne peut plus classique dans le monde des calculateurs quantiques.

De 100 millions à 1 milliard de portes quantiques
Fin 2024, IBM rappelait à juste titre qu’il n’y avait pas que le nombre de qubits à prendre en compte pour estimer la puissance des machines quantiques, il faut aussi connaitre le nombre de portes utilisables pendant les calculs.
Avec Starling et ses 200 qubits, IBM annonce 100 millions de portes en 2029. À partir de 2033, avec Blue Jay et ses 2 000 qubits, ce sera un milliard de portes. C’est un passage à l’échelle important puisque la puce Heron de 2024 (133 qubits physiques) est donnée pour 5 000 portes « seulement ».
Des portes, il en faut en quantité pour avoir des algorithmes réellement utilisables dans la pratique. Prenons l’exemple de l’algorithme de Shor permettant de « casser » la cryptographie asymétrique (type RSA). Il fait beaucoup parler de lui, mais nous sommes encore loin de pouvoir l’utiliser pour casser du chiffrement sur des milliers de bits.
Vivien Londe (spécialiste quantique chez Microsoft, ex-doctorant Inria) remettait l’église au centre du village il y a quatre ans déjà : il faudrait un « ordinateur quantique de 6 000 qubits parfaits [c‘est-à-dire une puce avec 6 000 qubits logiques, ndlr] et capable de faire de l’ordre de 10 milliards d’opérations » pour mettre « en danger tout un pan de la cryptographie actuelle ». On s’en approchera seulement à partir de 2033 selon la roadmap IBM.
La solution d’IBM, en deux temps
Réussir à multiplier les qubits physiques pour obtenir des qubits logiques les plus « fiables » possibles (en réduisant au maximum le taux d’erreur) est donc tout l’enjeu moderne des ordinateurs quantiques. IBM semble confiant d’arriver à un ordinateur « tolérant aux erreurs ». Si le taux ne sera a priori jamais de 100 %, il est question de 99,9999… avec « plein de 9 » derrière la virgule, nous confirme IBM.
Pour le géant américain, « la création d’un nombre croissant de qubits logiques capables d’exécuter des circuits quantiques, avec le moins de qubits physiques possible, est essentielle pour l’informatique quantique à grande échelle. Jusqu’à aujourd’hui, aucune voie claire vers la construction d’un tel système tolérant aux erreurs sans des frais d’ingénierie irréalistes n’a été publiée ».
IBM affirme justement avoir dépassé un cap sur cette problématique avec la publication d’un article sur des « codes de contrôle de parité à faible densité quantique (qLDPC : quantum low-density parity check) ». Ils permettent de réduire « considérablement le nombre de qubits physiques nécessaires à la correction d’erreurs et réduit les coûts additionnels requis d’environ 90 % par rapport aux autres codes à la pointe ».
Dans un second article, IBM explique « comment décoder efficacement les informations provenant des qubits physiques et trace une voie pour identifier et corriger les erreurs en temps réel avec des ressources informatiques conventionnelles ».
Quantum Loon, Kookaburra et Cockatoo
La nouvelle feuille de route d’IBM prévoit trois étapes intermédiaires avant d’arriver à Starling en 2029.
La première baptisée Quantum Loon est prévue pour 2025. Ce processeur « est conçu pour tester les composants de l’architecture pour le code qLDPC, notamment les « coupleurs de type C » qui connectent les qubits sur de plus longues distances au sein d’une même puce ».


L’année prochaine, ce sera au tour de Kookaburra. Il s’agira du « premier processeur modulaire d’IBM conçu pour stocker et traiter des informations codées ». Il combine une mémoire quantique avec des opérations logiques, « ce qui constitue la base de la mise à l’échelle de systèmes tolérants aux erreurs au-delà d’une seule puce ».
D’autres fabricants travaillent sur de la mémoire quantique, notamment pour connecter entre eux différentes machines quantiques, mais aussi pour transmettre de l’informatique en mode quantique. Nous y reviendrons dans un prochain article.
En 2027, le processeur Cockatoo sera un peu la concrétisation des travaux précédents. Il « intriquera deux modules Kookaburra à l’aide de « coupleurs de type L ». Cette architecture reliera les puces quantiques entre elles comme les nœuds d’un système plus vaste, évitant ainsi la nécessité de construire des puces de taille irréaliste ».
« Ensemble, ces avancées sont conçues pour aboutir à Starling en 2029 », affirme IBM en guise de conclusion.
☕️ 72 000 victimes d’arnaques et de prélèvement frauduleux : à Lyon, un procès hors norme
72 000 victimes de prélèvements frauduleux et d’arnaques, 2 400 parties civiles, deux amphithéâtres d’université et une web radio en continu pour les accueillir en plus de la salle d’audience…
Le procès qui s’ouvre aujourd’hui à Lyon, dans lequel 14 hommes font face à 22 chefs de mise en examen parmi lesquels celui d’ « escroquerie en bande organisé », est d’une dimension rare.
Il a pu s’ouvrir à la suite de l’arrestation d’un stagiaire puis alternant d’une agence Adecco de Besançon, explique La Charente Libre. Dix mois plus tard, les enquêteurs avaient réussi à débrouiller l’écheveau de discussions et de réseaux animés sur le darkweb pour orchestrer des escroqueries en tous genres : fausses demandes de MaPrime Rénov, de Chèques Vacances, de Pass Culture, d’assurance-vie…
L’affaire avait débuté en 2022, lorsque la filiale française de la société d’intérim Adecco subit un vol massif de données. En juin, le stagiaire qui sera finalement arrêté livre ses identifiants et mots de passes à « Abeloth », un pseudonyme utilisé en ligne.
Cinq mois plus tard, Adecco porte plainte, alors que plus de 32 000 intérimaires se sont vus prélever des sommes de 49,85 euros, juste sous le seuil d’autorisation préalable, et que 40 000 autres ont subi des tentatives de prélèvements bloquées à temps ou remboursées par les banques.
Les données saisies ont aussi permis au fameux « Abeloth » et à son réseau de fabriquer de fausses cartes Vitale et des comptes bancaires dédiées au blanchiment des fonds volés.

Composé de cinq ou six hackers jamais condamnés, d’un « personnage central » qui s’est lancé dans ces activités à seulement 19 ans et auquel les enquêteurs reconnaissent des « capacités intellectuelles élevées », le réseau de prévenus est très jeune. Pour son « cerveau », les enquêteurs évoquent une « escalade addictive » dans la « recherche de failles » informatiques, au point d’avoir « continué ses activités » en prison, grâce à des smartphones.
Le reste des membres du réseau sont plutôt connus des forces de police pour des affaires d’escroqueries, violences ou trafic de stupéfiants.