Apple Introduces iPhone 17e With MagSafe and A19
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Le 26 février 2026, soit la veille du lancement de Resident Evil Requiem, NVIDIA annonçait fièrement l'arrivée de ses pilotes graphiques GeForce Game Ready 595.59, optimisés pour le lancement du jeu. Une sortie dans les temps qui paraissait évidente puisque NVIDIA est partenaire du jeu, qu'il propos...
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institue, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est mêmes pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institue, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est mêmes pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.
Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.
Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.
Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.
Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains.
En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.
L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.
À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.
Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.
Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.
Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.
Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains.
En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.
L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.
À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

Deuxième article de la journée et nous vous proposons le test d'un clavier qui ne ressemble pas aux autres : le ROG Falcata. Derrière ce nom se cache un split pad 75 %, autrement dit un clavier compact en deux parties, pensé pour améliorer la posture et limiter les tensions lors des longues sessions de jeu ou de rédaction. Un format encore rare sur le marché, et plus rare encore quand il s'adresse clairement aux joueurs. Car le Falcata ne se contente pas d'être ergonomique. Il embarque des switchs magnétiques Hall Effect ROG HFX V2, avec point d'activation réglable, Rapid Trigger, Speed Tap, zones mortes, DKS, Mod-Tap et déclenchement continu. Le tout avec une compatibilité annoncée jusqu'à 8000 Hz en filaire comme en sans-fil via la technologie ROG SpeedNova 8K. Sur le papier, ASUS coche donc toutes les cases du clavier gaming moderne, mais dans un format que l'on associe d'habitude plutôt au confort qu'à la performance pure. Ergonomie, réglages et nouvelle approche logicielle Le Falcata mise également sur une approche logicielle différente avec Gear Link, une interface en web app accessible directement depuis un navigateur, sans installation ni service en arrière-plan. Les réglages sont stockés dans la mémoire interne du clavier, ce qui permet de retrouver sa configuration d'un PC à l'autre. Une vraie rupture avec Armoury Crate, et un point que nous analysons en détail dans le test. […]
Lire la suiteRead more of this story at Slashdot.
Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.
Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.
Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».


Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.
Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.
Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.
Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.
Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.
Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.
Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».


Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.
Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.
Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.
Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.
Il y a presque un an, Microsoft faisait miroiter d’importants gains de performance sous DXR grâce à la fonctionnalité SER (Shader Execution Reordering). Nous avions toutefois souligné que le SER n’avait rien de fondamentalement nouveau, puisqu’il était déjà en place pour les deux dernières générations de GeForce RTX dans quelques jeux ; que l’initiative de Microsoft relevait surtout de la standardisation... [Tout lire]
AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.
Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.
AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.
Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.
Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.


Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.
Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.
AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.
AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.
Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.
AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.
Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.
Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.


Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.
Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.
AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.
Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.
Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.
Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supérieure à celle de l’iPhone 16e ».
Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.
Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.
Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.
Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.
Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.
Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.
Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.
Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supérieure à celle de l’iPhone 16e ».
Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.
Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.
Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.
Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.
Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.
Read more of this story at Slashdot.
Alors que l’actualité en matière de carte graphique est au point mort, voilà qu’une petite fuite vient remettre de l’eau dans le moulin Intel Xe. En effet, après des bruits de couloir d’une sortie imminente (mais visiblement pas tant que ça, la crise de la RAM n’y étant probablement pas innocente),...

Pour les AYN Thor et Odin, la hausse débutera plus tôt que prévu et le constructeur ne semble pas prévoir d’amélioration avant l’année prochaine « au mieux ». Le fabricant de consoles annonce une hausse de quasiment tous les prix de ses appareils dès le 8 mars.
Le fournisseur de composants mémoire et stockage des AYN Thor et Odin a augmenté ses tarifs et la production des nouveaux modèles est donc plus onéreuse, hormis sur la version la plus entrée de gamme de la marque. Modèle qui n’avait pas eu droit à une remise pendant la période précédente et qui conserve donc un tarif inchangé depuis son lancement.

AYN Thor
L’augmentation était prévue mais se déroule plus tôt que ce qui avait été planifié. En plus des tensions sur le segment mémoire et stockage, le coût des matériaux semble intervenir et les variations sur les taux de change impactent l’ensemble. La marque avait signalé une évolution des prix à la hausse des AYN Thor et Odin pour avril. Au final, la répercussion aura lieu dans quelques jours.
| Modèle | Prix officiel | Prix actuel | Nouveau prix |
|---|---|---|---|
| Thor Lite 8/128 Go |
249 $ | 249 $ | 249 $ |
| Thor Base 8/128 Go |
299 $ | 309 $ | 319 $ |
| Thor Pro 12/256 Go |
349 $ | 369 $ | 399 $ |
|
Thor Max |
429 $ | 449 $ | 489 $ |
Pour les modèles AYN Thor, l’impact n’est pas forcément monstrueux mais tout de même : 60$ de hausse pour la AYN Thor 16 Go / 1 To, 20$ pour la version 8/128 Go. Ce n’est pas négligeable.
| Modèle | Prix OFFICIEL | Nouveau prix |
|---|---|---|
| Odin 3 Base 8 / 128 Go |
329 $ | 339 $ |
| Odin 3 Pro 12 / 256 Go |
399 $ | 439 $ |
| Odin 3 Max 16 / 512 Go |
449 $ | 489 $ |
| Odin 3 Ultra 24 Go / 1 To |
519 $ | Indisponible |
Pour la AYN Odin 3, les augmentations vont de 10$ à 40$ suivant les modèles et la version Ultra, la mieux équipée, est en rupture. Cette dernière étant livrée avec des puces de LPDDR5x plus denses, 2 unités de 12 Go, notoirement plus difficiles à obtenir en ce moment, il est possible qu’il soit impossible de la fabriquer faute de pièces.
AYN développe que l’approvisionnement en composants ne devrait pas s’améliorer avant 2027 dans le meilleur des cas. La marque rejoint ainsi la longue cohorte de constructeurs qui sont obligés de revoir leurs tarifs à la hausse. Ce qui indique non seulement la tension du marché mais l’impossibilité de pouvoir encaisser une hausse passagère par la durée estimée de cette crise.
Les prix n’ont effectivement pas encore changé sur leur site

AYN Thor

AYN Odin 3
AYN Thor et Odin : augmentation du prix des consoles © MiniMachines.net. 2026