Vodka Maker Stoli Says August Ransomware Attack Contributed To Bankruptcy Filing
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Meta rejoint la longue liste d’acteurs du numérique qui se tournent vers l’énergie nucléaire, poussés par leurs nombreux investissements dans le domaine de l’intelligence artificielle, très énergivore.
« Accélérer la prochaine vague nucléaire pour alimenter l’innovation en intelligence artificielle », tel est le projet annoncé ce 3 décembre par Meta. En pratique, la maison mère de Facebook et WhatsApp publie un appel à projet pour trouver des développeurs capables de mettre en marche des réacteurs nucléaires d’ici 2030.
Le but : créer une nouvelle source d’énergie pour satisfaire les besoins toujours croissants des centres de données de l’entreprise. La course à l’intelligence artificielle dans laquelle s’est lancée l’industrie du numérique, en particulier celle aux applications appuyées sur de grands modèles de langage, entraîne en effet une explosion de la demande en énergie.
Meta veut 1 à 4 gigawatts d’énergie supplémentaires aux États-Unis d’ici 2030. L’entreprise précise « continuer à investir » dans ses projets d’énergie renouvelable « tels que l’énergie solaire et éolienne », mais précise que « les projets d’énergie nucléaire nécessitent davantage de capitaux, leur développement est plus long, ils sont soumis à davantage d’exigences réglementaires et leur durée de vie opérationnelle prévue est plus longue ». L’entreprise prendra les candidatures jusqu’au 7 février.
En se lançant dans ce projet, elle rejoint la liste toujours plus longue de sociétés du numérique engagées dans le domaine. De fait, le patron d’OpenAI, Sam Altman, admettait lui-même en janvier 2024 que les LLM consommaient trop d’énergie. Avant l’été, Goldman Sachs estimait que la hausse de la demande triplerait entre 2023 et 2030, pour atteindre 47 gigawatts aux États-Unis – la banque citait l’accès à l’énergie comme un enjeu à part entière pour les constructeurs d’IA.
Ces problématiques se sont traduites, en mars, par l’achat d’un campus de centres de données liés à la centrale de Susquehanna, en Pennsylvanie, par Amazon. Mi-octobre, la société indiquait avoir noué trois contrats avec Energy Northwest, qui construit quatre réacteurs nucléaires modulaires (SMR), X-energy (qui prévoit le déploiement de 5 000 MW de SMR d’ici 2039) et Dominion Energy (pour installer un SMR près d’une centrale préexistante en Virginie).
En septembre, Oracle prévoyait de son côté la construction d’un centre de données alimenté par trois réacteurs nucléaires. Microsoft a suivi de peu, avec l’annonce de son projet de relancer l’Unité 1 de la centrale de Three Mile Island (dont l’accident affectant l’Unité 2, en 1979, avait mis un coup d’arrêt au développement de la filière nucléaire états-unienne). Sa promesse de 4 milliards d’euros d’investissement en France, en mai, peut elle aussi être lue par le prisme de la recherche d’énergie nucléaire. Quant à Google, la société s’est tournée vers une solution plus proche de celle que vise Meta, en concluant un accord avec Kairos Power, qui construit de petits réacteurs de 500 MW.
Même si l’énergie nucléaire peut venir pallier une partie des besoins, le sociologue Clément Marquet et l’informaticienne Anne-Laure Ligozat rappelaient dans un récent épisode d’Algorithmique que la course à l’intelligence artificielle paraît difficilement soutenable en termes de protection de l’environnement. Ce, même si certains de ses usages participent à la lutte contre le changement climatique.
Les alertes se multiplient d’ailleurs sur les risques de rebond de la demande en énergie fossile que la course à ce type de technologies provoque. Si les géants numériques étaient nombreux à s’exprimer sur leurs objectifs en termes de neutralité carbone au tournant des années 2020, ces éléments tendent à disparaître de leurs discours récents. Ceux qui les mentionnent encore, comme Microsoft, vendent en parallèle leurs produits d’IA à certains des plus grands noms de l’industrie fossile, parmi lesquels ExxonMobil ou Shell.
En quelques jours, la question est devenue virale sur les réseaux sociaux : ChatGPT, l’intelligence artificielle générative d’OpenAI, semble incapable d’écrire ou de prononcer l’identité de certaines personnes, comme David Faber ou Brian Hood. OpenAI a corrigé le problème sur l’un des six noms problématiques recensés, mais l’anomalie, qui subsiste pour les cinq autres, soulève une question de fond : quid de l’application du droit à l’oubli au sein des grands modèles de langage ?
Y aurait-il des noms tabous chez OpenAI ? La question se pose depuis quelques jours sur les réseaux sociaux, après que plusieurs internautes ont découvert un fonctionnement étrange au sein de ChatGPT : pendant des mois, le chatbot s’est révélé incapable d’écrire ou de prononcer le nom de David Mayer. Quelle que soit la façon dont la question était tournée, le fait d’amener l’intelligence artificielle d’OpenAI à interpréter cette séquence de deux mots entrainait un message d’erreur. « Je suis incapable de produire une réponse », retournait par exemple ChatGPT, obligeant l’utilisateur à lancer une nouvelle conversation.
Rapidement, les spéculations plus ou moins complotistes vont bon train : qui peut donc bien être ce David Mayer et pourquoi pose-t-il problème à OpenAI ? Wikipedia aidant, plusieurs internautes imaginent qu’il pourrait s’agir de David Mayer de Rotschild, l’un des descendants de la célèbre famille de banquiers.
D’autres supposent qu’il pourrait s’agir d’une allusion à un professeur d’histoire, David Mayer. En 2016, il s’était retrouvé placé par erreur sur l’une des listes noires des États-Unis au motif qu’un militant tchétchène, Akhmed Chatayev, avait utilisé son nom comme pseudonyme.
D’abord restée silencieuse, OpenAI a fini par répondre au Guardian mardi, en expliquant qu’il s’agissait d’un blocage intempestif. « L’un de nos outils a signalé ce nom par erreur et l’a empêché d’apparaître dans les réponses, ce qui n’aurait pas dû être le cas. Nous travaillons sur un correctif », a déclaré un porte-parole au quotidien britannique. Et effectivement, David Mayer est bien de retour sur ChatGPT mercredi matin. Mais n’y aurait-il pas d’autres noms qui manquent à l’appel ?
La question a été prise au sérieux et les recherches ont permis de mettre au jour, sur Reddit, cinq autres noms sur lesquels ChatGPT bloque encore totalement à l’heure où nous écrivons ces lignes : Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza.
Si aucun lien évident n’a été mis en lumière entre David Mayer et OpenAI, tous les noms de cette liste ont un passif avec la société éditrice de ChatGPT, rappelle l’internaute à l’origine de cette liste. En avril 2023, un certain Brian Hood, maire d’une commune australienne, a ainsi attaqué OpenAI pour diffamation. Selon lui, ChatGPT rapportait, à tort, qu’il aurait plaidé coupable dans une affaire de corruption au début des années 2000.
Un dénommé Jonathan Turley, professeur de droit dans une université américaine, a lui aussi connu une mésaventure similaire. Dans un témoignage daté du 6 avril 2023, relayé à l’époque par USA Today ou la télévision Fox News, il affirmait que ChatGPT évoquait, à son sujet, des accusations de harcèlement sexuel qui n’auraient jamais été fondées, en s’appuyant sur un article du Washington Post qui n’aurait jamais existé. « Vous pouvez être diffamé par l’IA et ces entreprises se contentent de hausser les épaules en prétendant qu’elles essaient d’être exactes », regrettait-il alors.
Bien qu’OpenAI ne se soit pas exprimée sur le sujet, la portée médiatique de ces deux incidents suggère que la société pourrait avoir pris soin d’évincer les deux noms associés de ChatGPT, quitte à filtrer de façon expéditive des homonymes. Le cas de Guido Scorza soulève quant à lui la question de la gestion du droit à l’oubli au sein des grands modèles de langage.
Sur X, cet avocat italien explique que si son nom ne peut être cité par ChatGPT, c’est simplement parce qu’il a formulé une demande de suppression des données personnelles le concernant auprès d’OpenAI, au nom du RGPD. « La liste de ceux qui ont déjà demandé et paramétré ce type de filtrage est probablement plus longue que celle qui circule en ligne, laquelle n’inclut que des personnes connues. Bien sûr, chacun doit faire son choix, c’est la beauté du droit à la vie privée », estime-t-il.
OpenAI dispose en effet d’un portail dédié aux requêtes concernant le respect de la vie privée, ces dernières n’étant prises en compte que pour les outils destinés au grand public comme ChatGPT ou Dall-E. L’entreprise propose à ce niveau quatre types de requêtes : l’export de l’historique et des données conservées suite à l’utilisation de ChatGPT, le refus que des contenus soient utilisés pour l’entraînement des modèles, la suppression d’un compte utilisateur et, enfin, la suppression de données personnelles au sein des résultats du modèle.
Ces dispositifs, exigés par le RGPD, ne répondent cependant que partiellement à la problématique, plus large, de la façon dont les grands modèles de langage collectent et utilisent des données personnelles dans les phases en amont, notamment au sein des bases dédiées à l’apprentissage. À ce niveau, le RGPD reste bien sûr en vigueur, mais son application se révèle plus délicate, comme le souligne la CNIL, dans un article daté de juin dernier.
« Le concepteur d’un grand modèle de langage […] ayant entraîné son modèle sur des données collectées par moissonnage de divers sites sur le Web pourra indiquer à une personne souhaitant exercer ses droits qu’il lui sera nécessaire de fournir l’URL de la page concernée, ainsi que la zone de texte concernée (en distinguant par exemple biographie, publication et commentaire sur un réseau social). Dans le cas où cette page ne serait plus accessible en ligne, ou si la base d’apprentissage a été supprimée, le concepteur pourrait exiger de la personne qu’elle lui fournisse le texte explicite dont il aimerait savoir s’il a été utilisé pour l’apprentissage, lui permettant de réaliser des tests de régurgitation du texte fourni directement sur le modèle. », illustre l’autorité.
Alors que le monde des semiconducteurs est encore tout chamboulé par la démission surprise du PDG d’Intel, un acteur bien connu du monde des semiconducteurs a de quoi vous réchauffer le cœur. En effet ASML, boite néerlandaise reconnue pour ses machines de lithographie de pointes — celles permettant...
Read more of this story at Slashdot.
Et si l'architecture Rubin sortait en avance ? Alors que le marché de l'IA explose, NVIDIA semble vouloir accélérer la cadence malgré la sortie récente de Blackwell et la prochaine génération serait attendue pour le second semestre 2025. Un changement de plan important si avéré, puisque les dernières rumeurs évoquaient une production pour la fin de l'année à venir avec une disponibilité début 2026. Bien entendu, tout dépendra également de TSMC, en charge de la gravure en 3 nm avec l'intégration d'une mémoire HBM4, 384 Go plus exactement. Deux innovations majeures dont la production est déjà en route, ou devrait débuter sous peu. […]
Lire la suiteMeta rejoint la longue liste d’acteurs du numérique qui se tournent vers l’énergie nucléaire, poussés par leurs nombreux investissements dans le domaine de l’intelligence artificielle, très énergivore.
« Accélérer la prochaine vague nucléaire pour alimenter l’innovation en intelligence artificielle », tel est le projet annoncé ce 3 décembre par Meta. En pratique, la maison mère de Facebook et WhatsApp publie un appel à projet pour trouver des développeurs capables de mettre en marche des réacteurs nucléaires d’ici 2030.
Le but : créer une nouvelle source d’énergie pour satisfaire les besoins toujours croissants des centres de données de l’entreprise. La course à l’intelligence artificielle dans laquelle s’est lancée l’industrie du numérique, en particulier celle aux applications appuyées sur de grands modèles de langage, entraîne en effet une explosion de la demande en énergie.
Meta veut 1 à 4 gigawatts d’énergie supplémentaires aux États-Unis d’ici 2030. L’entreprise précise « continuer à investir » dans ses projets d’énergie renouvelable « tels que l’énergie solaire et éolienne », mais précise que « les projets d’énergie nucléaire nécessitent davantage de capitaux, leur développement est plus long, ils sont soumis à davantage d’exigences réglementaires et leur durée de vie opérationnelle prévue est plus longue ». L’entreprise prendra les candidatures jusqu’au 7 février.
En se lançant dans ce projet, elle rejoint la liste toujours plus longue de sociétés du numérique engagées dans le domaine. De fait, le patron d’OpenAI, Sam Altman, admettait lui-même en janvier 2024 que les LLM consommaient trop d’énergie. Avant l’été, Goldman Sachs estimait que la hausse de la demande triplerait entre 2023 et 2030, pour atteindre 47 gigawatts aux États-Unis – la banque citait l’accès à l’énergie comme un enjeu à part entière pour les constructeurs d’IA.
Ces problématiques se sont traduites, en mars, par l’achat d’un campus de centres de données liés à la centrale de Susquehanna, en Pennsylvanie, par Amazon. Mi-octobre, la société indiquait avoir noué trois contrats avec Energy Northwest, qui construit quatre réacteurs nucléaires modulaires (SMR), X-energy (qui prévoit le déploiement de 5 000 MW de SMR d’ici 2039) et Dominion Energy (pour installer un SMR près d’une centrale préexistante en Virginie).
En septembre, Oracle prévoyait de son côté la construction d’un centre de données alimenté par trois réacteurs nucléaires. Microsoft a suivi de peu, avec l’annonce de son projet de relancer l’Unité 1 de la centrale de Three Mile Island (dont l’accident affectant l’Unité 2, en 1979, avait mis un coup d’arrêt au développement de la filière nucléaire états-unienne). Sa promesse de 4 milliards d’euros d’investissement en France, en mai, peut elle aussi être lue par le prisme de la recherche d’énergie nucléaire. Quant à Google, la société s’est tournée vers une solution plus proche de celle que vise Meta, en concluant un accord avec Kairos Power, qui construit de petits réacteurs de 500 MW.
Même si l’énergie nucléaire peut venir pallier une partie des besoins, le sociologue Clément Marquet et l’informaticienne Anne-Laure Ligozat rappelaient dans un récent épisode d’Algorithmique que la course à l’intelligence artificielle paraît difficilement soutenable en termes de protection de l’environnement. Ce, même si certains de ses usages participent à la lutte contre le changement climatique.
Les alertes se multiplient d’ailleurs sur les risques de rebond de la demande en énergie fossile que la course à ce type de technologies provoque. Si les géants numériques étaient nombreux à s’exprimer sur leurs objectifs en termes de neutralité carbone au tournant des années 2020, ces éléments tendent à disparaître de leurs discours récents. Ceux qui les mentionnent encore, comme Microsoft, vendent en parallèle leurs produits d’IA à certains des plus grands noms de l’industrie fossile, parmi lesquels ExxonMobil ou Shell.
Tic-tac, tic-tac. L'horloge tourne et nous ne sommes plus qu'à cinq petits jours du lancement d'Indiana Jones et le Cercle Ancien, même seulement deux jours pour ceux qui ont acquis la version Premium du jeu. L'attente aura été longue mais nous avons enfin droit aux incontournables configurations re...
Read more of this story at Slashdot.
En quelques jours, la question est devenue virale sur les réseaux sociaux : ChatGPT, l’intelligence artificielle générative d’OpenAI, semble incapable d’écrire ou de prononcer l’identité de certaines personnes, comme David Faber ou Brian Hood. OpenAI a corrigé le problème sur l’un des six noms problématiques recensés, mais l’anomalie, qui subsiste pour les cinq autres, soulève une question de fond : quid de l’application du droit à l’oubli au sein des grands modèles de langage ?
Y aurait-il des noms tabous chez OpenAI ? La question se pose depuis quelques jours sur les réseaux sociaux, après que plusieurs internautes ont découvert un fonctionnement étrange au sein de ChatGPT : pendant des mois, le chatbot s’est révélé incapable d’écrire ou de prononcer le nom de David Mayer. Quelle que soit la façon dont la question était tournée, le fait d’amener l’intelligence artificielle d’OpenAI à interpréter cette séquence de deux mots entrainait un message d’erreur. « Je suis incapable de produire une réponse », retournait par exemple ChatGPT, obligeant l’utilisateur à lancer une nouvelle conversation.
Rapidement, les spéculations plus ou moins complotistes vont bon train : qui peut donc bien être ce David Mayer et pourquoi pose-t-il problème à OpenAI ? Wikipedia aidant, plusieurs internautes imaginent qu’il pourrait s’agir de David Mayer de Rotschild, l’un des descendants de la célèbre famille de banquiers.
D’autres supposent qu’il pourrait s’agir d’une allusion à un professeur d’histoire, David Mayer. En 2016, il s’était retrouvé placé par erreur sur l’une des listes noires des États-Unis au motif qu’un militant tchétchène, Akhmed Chatayev, avait utilisé son nom comme pseudonyme.
D’abord restée silencieuse, OpenAI a fini par répondre au Guardian mardi, en expliquant qu’il s’agissait d’un blocage intempestif. « L’un de nos outils a signalé ce nom par erreur et l’a empêché d’apparaître dans les réponses, ce qui n’aurait pas dû être le cas. Nous travaillons sur un correctif », a déclaré un porte-parole au quotidien britannique. Et effectivement, David Mayer est bien de retour sur ChatGPT mercredi matin. Mais n’y aurait-il pas d’autres noms qui manquent à l’appel ?
La question a été prise au sérieux et les recherches ont permis de mettre au jour, sur Reddit, cinq autres noms sur lesquels ChatGPT bloque encore totalement à l’heure où nous écrivons ces lignes : Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza.
Si aucun lien évident n’a été mis en lumière entre David Mayer et OpenAI, tous les noms de cette liste ont un passif avec la société éditrice de ChatGPT, rappelle l’internaute à l’origine de cette liste. En avril 2023, un certain Brian Hood, maire d’une commune australienne, a ainsi attaqué OpenAI pour diffamation. Selon lui, ChatGPT rapportait, à tort, qu’il aurait plaidé coupable dans une affaire de corruption au début des années 2000.
Un dénommé Jonathan Turley, professeur de droit dans une université américaine, a lui aussi connu une mésaventure similaire. Dans un témoignage daté du 6 avril 2023, relayé à l’époque par USA Today ou la télévision Fox News, il affirmait que ChatGPT évoquait, à son sujet, des accusations de harcèlement sexuel qui n’auraient jamais été fondées, en s’appuyant sur un article du Washington Post qui n’aurait jamais existé. « Vous pouvez être diffamé par l’IA et ces entreprises se contentent de hausser les épaules en prétendant qu’elles essaient d’être exactes », regrettait-il alors.
Bien qu’OpenAI ne se soit pas exprimée sur le sujet, la portée médiatique de ces deux incidents suggère que la société pourrait avoir pris soin d’évincer les deux noms associés de ChatGPT, quitte à filtrer de façon expéditive des homonymes. Le cas de Guido Scorza soulève quant à lui la question de la gestion du droit à l’oubli au sein des grands modèles de langage.
Sur X, cet avocat italien explique que si son nom ne peut être cité par ChatGPT, c’est simplement parce qu’il a formulé une demande de suppression des données personnelles le concernant auprès d’OpenAI, au nom du RGPD. « La liste de ceux qui ont déjà demandé et paramétré ce type de filtrage est probablement plus longue que celle qui circule en ligne, laquelle n’inclut que des personnes connues. Bien sûr, chacun doit faire son choix, c’est la beauté du droit à la vie privée », estime-t-il.
OpenAI dispose en effet d’un portail dédié aux requêtes concernant le respect de la vie privée, ces dernières n’étant prises en compte que pour les outils destinés au grand public comme ChatGPT ou Dall-E. L’entreprise propose à ce niveau quatre types de requêtes : l’export de l’historique et des données conservées suite à l’utilisation de ChatGPT, le refus que des contenus soient utilisés pour l’entraînement des modèles, la suppression d’un compte utilisateur et, enfin, la suppression de données personnelles au sein des résultats du modèle.
Ces dispositifs, exigés par le RGPD, ne répondent cependant que partiellement à la problématique, plus large, de la façon dont les grands modèles de langage collectent et utilisent des données personnelles dans les phases en amont, notamment au sein des bases dédiées à l’apprentissage. À ce niveau, le RGPD reste bien sûr en vigueur, mais son application se révèle plus délicate, comme le souligne la CNIL, dans un article daté de juin dernier.
« Le concepteur d’un grand modèle de langage […] ayant entraîné son modèle sur des données collectées par moissonnage de divers sites sur le Web pourra indiquer à une personne souhaitant exercer ses droits qu’il lui sera nécessaire de fournir l’URL de la page concernée, ainsi que la zone de texte concernée (en distinguant par exemple biographie, publication et commentaire sur un réseau social). Dans le cas où cette page ne serait plus accessible en ligne, ou si la base d’apprentissage a été supprimée, le concepteur pourrait exiger de la personne qu’elle lui fournisse le texte explicite dont il aimerait savoir s’il a été utilisé pour l’apprentissage, lui permettant de réaliser des tests de régurgitation du texte fourni directement sur le modèle. », illustre l’autorité.
Place à une nouvelle carte mère en Z890 donc à destination des nouveaux processeurs Core Ultra 200 S. C'est aujourd'hui un modèle haut de gamme de chez MSI qui nous fait de l'oeil, à savoir la MEG Z890 ACE. Une carte mère qui s'offre un physique travaillé et un équipement conséquent. À découvrir ici même : Test carte mère MSI MEG Z890 ACE ou en cliquant sur la source. […]
Lire la suiteQue voilà une annonce très intéressante de la part de GEEKOM ! Alors que Qualcomm doit annoncer, plus ou moins prochainement, de nouvelles machines équipés d'un processeur Snapdragon X, voilà que la marque taiwanaise met rapidement en avant sa prochaine série QS avec un tel processeur. Après les ordinateurs portables et les tablettes, une nouvelle catégorie de systèmes pourrait passer chez Qualcomm, et nous avons hâte d'en savoir plus. Pas forcément pour les performances, qui sont plus ou moins connues grâce aux tests des machines certifiées Microsoft Copilot+, mais pour le refroidissement et les nuisances sonores. […]
Lire la suiteComme nous l’avons indiqué récemment, Microsoft a un gros problème sur les bras : la fin du support technique de Windows 10. Prévue pour le 14 octobre 2025, elle laissera plus de la moitié du parc Windows sans mises à jour de sécurité. L’éditeur compte proposer une année supplémentaire et payante pour le grand public, mais il n’en fera probablement pas la publicité. En revanche, il n’hésite pas quand il s’agit de proposer d’acheter du matériel neuf via des fenêtres en plein écran.
Pour l’entreprise, la voie royale passe en effet par une nouvelle machine et Windows 11. À ce sujet, elle communique une nouvelle fois sur l’intérêt à passer sur son dernier système, qui réclame malheureusement des composants plus récents. Ce qui explique d’ailleurs l’immense proportion de machines Windows 10 n’ayant pas migré vers la version 11, malgré la gratuité de la mise à jour.
Au cœur des prérequis, il y a la puce TPM 2.0. Dans un billet de blog publié hier soir, la société redit de nouveau toute l’importance que revêt ce composant « grâce à des méthodes de chiffrement avancées, une cryptographie standard améliorée, une isolation accrue et une plus grande interopérabilité avec d’autres fonctions de sécurité ». La firme assure être en mesure de garantir l’intégrité du système d’exploitation au démarrage et de mieux protéger les informations.
La puce TPM 2.0 est notamment chargée de stocker les clés de chiffrement pour les autres composants, dont BitLocker (chiffrement intégral du disque) et Secure Boot. Selon Microsoft, elle serait aussi importante aujourd’hui qu’à l’avenir, car capable de s’adapter aux évolutions des besoins.
« En faisant de TPM 2.0 une norme non négociable pour l’avenir de Windows, nous élevons le niveau de sécurité. Cela nous permet, à vous et à nous, de mieux répondre au besoin croissant de protection des données dans la sphère numérique moderne », assène l’entreprise, droite dans ses bottes.
Une manière de dire, aussi, qu’en dépit de la pression croissante sur la fin du support de Windows 10, Microsoft ne changera pas d’avis sur le composant. Mais avec un message plus axé sur la sécurité depuis le début de l’année, certains pays pourraient observer cette stratégie d’un autre œil, notamment pour défaut de sécurisation sur un produit encore largement déployé.
Comme nous l’avons indiqué récemment, Microsoft a un gros problème sur les bras : la fin du support technique de Windows 10. Prévue pour le 14 octobre 2025, elle laissera plus de la moitié du parc Windows sans mises à jour de sécurité. L’éditeur compte proposer une année supplémentaire et payante pour le grand public, mais il n’en fera probablement pas la publicité. En revanche, il n’hésite pas quand il s’agit de proposer d’acheter du matériel neuf via des fenêtres en plein écran.
Pour l’entreprise, la voie royale passe en effet par une nouvelle machine et Windows 11. À ce sujet, elle communique une nouvelle fois sur l’intérêt à passer sur son dernier système, qui réclame malheureusement des composants plus récents. Ce qui explique d’ailleurs l’immense proportion de machines Windows 10 n’ayant pas migré vers la version 11, malgré la gratuité de la mise à jour.
Au cœur des prérequis, il y a la puce TPM 2.0. Dans un billet de blog publié hier soir, la société redit de nouveau toute l’importance que revêt ce composant « grâce à des méthodes de chiffrement avancées, une cryptographie standard améliorée, une isolation accrue et une plus grande interopérabilité avec d’autres fonctions de sécurité ». La firme assure être en mesure de garantir l’intégrité du système d’exploitation au démarrage et de mieux protéger les informations.
La puce TPM 2.0 est notamment chargée de stocker les clés de chiffrement pour les autres composants, dont BitLocker (chiffrement intégral du disque) et Secure Boot. Selon Microsoft, elle serait aussi importante aujourd’hui qu’à l’avenir, car capable de s’adapter aux évolutions des besoins.
« En faisant de TPM 2.0 une norme non négociable pour l’avenir de Windows, nous élevons le niveau de sécurité. Cela nous permet, à vous et à nous, de mieux répondre au besoin croissant de protection des données dans la sphère numérique moderne », assène l’entreprise, droite dans ses bottes.
Une manière de dire, aussi, qu’en dépit de la pression croissante sur la fin du support de Windows 10, Microsoft ne changera pas d’avis sur le composant. Mais avec un message plus axé sur la sécurité depuis le début de l’année, certains pays pourraient observer cette stratégie d’un autre œil, notamment pour défaut de sécurisation sur un produit encore largement déployé.
Cette année, Samsung a officialisé la V-NAND V9, la 9ᵉ génération de sa mémoire flash maison. Sa production en volume ayant démarré au printemps, les premiers exemplaires ne devraient pas tarder à intégrer les SSD du commerce du coréen. Néanmoins, le dernier modèle grand public à avoir été lancé, à...
Read more of this story at Slashdot.