White House Eyes Data Center Agreements Amid Energy Price Spikes
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Le titre de cette brève est un clin d'œil à une actualité que nous avions publiée en septembre 2025. Nous vous rapportions alors le fait que CORSAIR avait accepté de verser 5,5 millions de dollars suite à une class action sur l'étiquetage de ses barrettes mémoire DDR4 et DDR5, qui était jugé trompeu...
Read more of this story at Slashdot.
Dans le monde des professionnels, certains besoins sont parfois (souvent ?) assez spécifiques. Dans des domaines sensibles (santé, défense, industrie de pointe), il est par exemple désiré que les données utilisées soient chiffrées de bout en bout et impossibles à obtenir par un tiers non autorisé. C...
Read more of this story at Slashdot.
Aqua Computer se lance dans l'outil intéressant avec son Ampinel. Si on était un peu flemmard, on vous dirait que c'est un boitier qui a le même rôle que le WireView Pro 2 de Thermal Grizzly qu'on vous a présenté il y a quelques semaines. Mais on n'est pas (toujours) dans ce registre, on va vous par...
Read more of this story at Slashdot.
Il faut prendre soin de ses données, en tant que lecteurs de Next vous en êtes convaincus depuis longtemps. Que ce soit pour faire des sauvegardes dans le cloud, c’est-à-dire sur l’ordinateur de quelqu’un d’autre, ou pour les protéger des regards indiscrets, on doit souvent faire confiance à un tiers pour le chiffrement. Next vous aide à trouver un successeur à feu Boxcryptor.
Depuis le 24 décembre, Next propose à ses abonnés Premium du stockage S3 : 1 To par défaut, avec 100 Go de plus par ancienneté du compte. Nous avons publié dans la foulée un tuto pour vous expliquer comment en profiter. Disponible sous forme de bêta, l’offre s’est ouverte à tous début février.
Il est maintenant temps de passer au second gros morceau de notre dossier : comment chiffrer vos données avant de les envoyer dans le cloud.
Pour cela, nous avons grosso modo deux méthodes : la gestion des droits d’accès et le chiffrement. Pour la gestion des droits, c’est-à-dire la mise en place d’un mécanisme empêchant les consultations non souhaitées, il faut s’en remettre entièrement à un fournisseur : il doit mettre en place les outils nécessaires, mais il est impossible de les vérifier nous-mêmes, sauf par un audit hors de portée des utilisateurs lambda.
Le chiffrement, en revanche, offre lui la possibilité d’être maîtrisé (sous certaines conditions) par l’utilisateur, notamment quand il reste le seul maître des clés de chiffrement. Encore faut-il choisir le bon outil, si tant est qu’il existe, et les bonnes options.
Il est impossible de lister tous les produits du marché, on va en regarder quelques-uns pour vous montrer leurs principales caractéristiques, afin que vous compreniez bien leurs usages et que vous trouviez ce qui vous convient le mieux. Mais on vous le réexpliquera très prochainement dans un dossier, il vaut vraiment mieux rester maître de ses clés, donc l’exigence pour notre recherche d’outil se résumera ainsi :
Chiffrer un dossier (pouvant être local ou distant), tout en restant bien sûr maître de la clé de chiffrement, et en y accédant localement de façon transparente.
Cet outil non open source et payant cochait néanmoins de très nombreuses cases : chiffrement de bout en bout (E2EE comme on dit dans les milieux autorisés) fichier par fichier, maîtrise des clés de chiffrement grâce au zero knowledge (les informations principales pour le processus de chiffrement étant déduites d’un secret qui n’est stocké nulle part et n’est utilisé que localement), gestion multi-utilisateurs et intégration possible dans des Active Directories ou LDAP pour une utilisation professionnelle.
Le chiffrement E2EE fichier par fichier avec maîtrise des secrets convenait parfaitement à ceux qui veulent protéger leurs fichiers où qu’ils soient, localement ou dans le cloud, la contrepartie étant que dans un cas d’usage avec Office (Microsoft 365), les fichiers devraient forcément être déchiffrés localement avant d’être utilisés : on perd l’usage des Word et Excel en ligne, mais en gagnant sur la sécurité, chacun mettant le curseur d’usage là où il le souhaite.
Disparu suite à son rachat par Dropbox, il n’a guère laissé que Cryptomator comme alternative pour les mêmes cas d’usage. Nous y reviendrons un peu plus tard.
Nous allons regarder quelques outils, et voir à quels cas d’usage ils correspondent vraiment. On en profitera pour faire un petit test de qualité, en les comparant chaque fois avec notre référence disparue (promis, on ne versera aucune larme même si l’émotion nous gagne).
Vous trouverez en fin d’article un tableau récapitulatif des fonctionnalités, forces et faiblesses, ainsi que des tarifs.
Read more of this story at Slashdot.
AMD n'est pas le seul à lancer un nouveau bundle de jeu offert en ce 10 février 2026, puisque NVIDIA fait de même ! Le jeu n'est pas le même cependant, et nous avons ici affaire à Resident Evil Requiem. Il s'agit donc également d'un jeu valant 69,99 €, comme pour le jeu d'AMD, match nul à ce niveau....
Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.
Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.
La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.
« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.
Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».
La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.
Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».
« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »
La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :
« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »
Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.
Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.
L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.
Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.
Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.
La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.
« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.
Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».
La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.
Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».
« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »
La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :
« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »
Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.
Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.
L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.