Vue normale

Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

10 février 2026 à 16:46
Pour protéger vos données, ne mettez pas tous vos œufs (vos clés) dans le même panier
Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

Il faut prendre soin de ses données, en tant que lecteurs de Next vous en êtes convaincus depuis longtemps. Que ce soit pour faire des sauvegardes dans le cloud, c’est-à-dire sur l’ordinateur de quelqu’un d’autre, ou pour les protéger des regards indiscrets, on doit souvent faire confiance à un tiers pour le chiffrement. Next vous aide à trouver un successeur à feu Boxcryptor.

Depuis le 24 décembre, Next propose à ses abonnés Premium du stockage S3 : 1 To par défaut, avec 100 Go de plus par ancienneté du compte. Nous avons publié dans la foulée un tuto pour vous expliquer comment en profiter. Disponible sous forme de bêta, l’offre s’est ouverte à tous début février.

Il est maintenant temps de passer au second gros morceau de notre dossier : comment chiffrer vos données avant de les envoyer dans le cloud.

Deux méthodes de protection

Pour cela, nous avons grosso modo deux méthodes : la gestion des droits d’accès et le chiffrement. Pour la gestion des droits, c’est-à-dire la mise en place d’un mécanisme empêchant les consultations non souhaitées, il faut s’en remettre entièrement à un fournisseur : il doit mettre en place les outils nécessaires, mais il est impossible de les vérifier nous-mêmes, sauf par un audit hors de portée des utilisateurs lambda.

Le chiffrement, en revanche, offre lui la possibilité d’être maîtrisé (sous certaines conditions) par l’utilisateur, notamment quand il reste le seul maître des clés de chiffrement. Encore faut-il choisir le bon outil, si tant est qu’il existe, et les bonnes options.

Il est impossible de lister tous les produits du marché, on va en regarder quelques-uns pour vous montrer leurs principales caractéristiques, afin que vous compreniez bien leurs usages et que vous trouviez ce qui vous convient le mieux. Mais on vous le réexpliquera très prochainement dans un dossier, il vaut vraiment mieux rester maître de ses clés, donc l’exigence pour notre recherche d’outil se résumera ainsi :

Chiffrer un dossier (pouvant être local ou distant), tout en restant bien sûr maître de la clé de chiffrement, et en y accédant localement de façon transparente.

La référence disparue : Boxcryptor

Cet outil non open source et payant cochait néanmoins de très nombreuses cases : chiffrement de bout en bout (E2EE comme on dit dans les milieux autorisés) fichier par fichier, maîtrise des clés de chiffrement grâce au zero knowledge (les informations principales pour le processus de chiffrement étant déduites d’un secret qui n’est stocké nulle part et n’est utilisé que localement), gestion multi-utilisateurs et intégration possible dans des Active Directories ou LDAP pour une utilisation professionnelle.

Le chiffrement E2EE fichier par fichier avec maîtrise des secrets convenait parfaitement à ceux qui veulent protéger leurs fichiers où qu’ils soient, localement ou dans le cloud, la contrepartie étant que dans un cas d’usage avec Office (Microsoft 365), les fichiers devraient forcément être déchiffrés localement avant d’être utilisés : on perd l’usage des Word et Excel en ligne, mais en gagnant sur la sécurité, chacun mettant le curseur d’usage là où il le souhaite.

Disparu suite à son rachat par Dropbox, il n’a guère laissé que Cryptomator comme alternative pour les mêmes cas d’usage. Nous y reviendrons un peu plus tard.

Quelques exemples pour voir de quoi on parle

Nous allons regarder quelques outils, et voir à quels cas d’usage ils correspondent vraiment. On en profitera pour faire un petit test de qualité, en les comparant chaque fois avec notre référence disparue (promis, on ne versera aucune larme même si l’émotion nous gagne).

Vous trouverez en fin d’article un tableau récapitulatif des fonctionnalités, forces et faiblesses, ainsi que des tarifs.

TrueCrypt et ses forks tels que VeraCrypt


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de “chiffrement automatique” », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d'”expiration”… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre “expériences professionnelles” énumérées dans le CV de Lin, la première est un “stage”, la seconde est “étudiant chercheur”, la troisième “cofondateur” d’une obscure société de technologie et la quatrième est employé des “technologies de l’information” pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

Sites pornos : la vérification d’âge reste une blague, Dora l’Exploratrice passe toujours

10 février 2026 à 13:12
Bonjour Dora, comme d’habitude ?
Sites pornos : la vérification d’âge reste une blague, Dora l’Exploratrice passe toujours

Nous sommes retournés sur des sites pornos dans le viseur d’Arcom et avons constaté qu’il est toujours aussi facile d’accéder aux contenus chez plusieurs d’entre eux. En 2026 encore, une carte d’identité de Dora l’exploratrice ou une vidéo « stock » aléatoire permettent de tromper des systèmes de vérification d’âge.

Durant l’été, l’Arcom avait intensifié sa lutte contre les sites pornographiques et en avait mis cinq en demeure de déployer des mesures de vérification de l’âge. Nous avions alors testé cette fonctionnalité plusieurs sites pornos, que ce soit via un selfie, un document d’identité et même une adresse email.

Mais nous avions aussi rapidement relevé de nombreux soucis avec des protections qui ressemblent parfois davantage à des écrans de fumée qu’à de véritables barrières. Sans compter sur les systèmes de vérification qui valident parfois n’importe quoi, comme une fausse carte d’identité avec Dora l’Exploratrice.

Six mois plus tard, où en est-on ? Nous profitons de cette Journée internationale pour un Internet plus sûr (Safer Internet Day), créée par la Commission européenne il y a plus de 20 ans, pour faire le point sur la situation. Le constat est sans appel, rien n’a changé sur les problèmes que nous avions soulevés. Certaines protections sont de telles passoires qu’on pourrait se demander si ce n’est pas fait exprès.

Déflouter d’un clic, télécharger photos et vidéos sans aucune vérification


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Riot Games licencie la moitié de l’équipe de 2XKO, son jeu lancé le 20 janvier dernier

10 février 2026 à 10:03

La fête aura été de courte durée : moins d’un mois après avoir lancé son dernier jeu vidéo, 2XKO, l’éditeur américain Riot Games a annoncé le licenciement d’une partie de l’équipe responsable de son développement.

La décision a été relayée par Tom Cannon, le producteur exécutif de 2XKO, qui justifie cette réduction d’effectifs par la réception en demi-teinte réservée à ce jeu de combat 2v2 distribué en free-to-play.

« Après mûre réflexion et de nombreuses discussions, nous réduisons la taille de l’équipe 2XKO. Sachez que cette décision n’a pas été prise à la légère. Lors de notre passage du PC aux consoles, nous avons constaté des tendances constantes dans l’engagement des joueurs avec 2XKO. Le jeu a su trouver un écho auprès d’un noyau dur de joueurs passionnés, mais la dynamique globale n’a pas atteint le niveau nécessaire pour assurer la pérennité d’une équipe de cette taille. »

2XKO applique au jeu de combat les mécaniques compétitives et économiques de LoL ou Valorant – crédit Riot Games

Le jeu n’est pas abandonné, mais l’équipe désormais resserrée est censée s’atteler maintenant à des « améliorations clés » non spécifiées. Riot Games (propriété du chinois Tencent, éditeur de League of Legends et de Valorant) ne précise pas le nombre d’employés concernés, mais l’un des membres de l’équipe 2XKO a évoqué le chiffre de 80 licenciements auprès de Game Developer.

La nouvelle semble avoir été communiquée sans avertissement préalable aux équipes. « Dix ans chez 2XKO, douze chez Riot, et je me fais virer avec 30 minutes de préavis, lol », lâche sur Bluesky l’un des licenciés.

La décision parait d’autant plus abrupte que 2XKO a connu une phase de développement de près de dix ans sous l’égide de Riot Games. Le projet découle en effet du rachat, en 2016, de Radiant Entertainment, un petit studio spécialisé dans les jeux de combat fondé par Tom Cannon et son frère.

Initialement pensé pour le PC avant d’être porté sur PS5 et Xbox, 2XKO incarne la première offensive de Riot Games sur la scène des jeux de combat à dimension compétitive. Le jeu, qui dispose d’un mode classé, fait s’affronter des équipes de deux joueurs (2v2), avec une galerie de personnages inspirés de l’univers de League of Legends, tel qu’il a été mis en scène dans la série animée Arcane. Comme League of Legends ou Valorant, le jeu est accessible gratuitement, mais il faut souscrire un Battle Pass payant et saisonnier pour accéder plus facilement aux récompenses offertes par le jeu et aux animations événementielles.

Début février, une étude réalisée sous l’égide de la Game Developer Conference révélait que près d’un tiers des postes de l’industrie du jeu vidéo avaient été supprimés ou transformés au cours des deux dernières années.

☕️ NanoIC : en Belgique, une ligne pilote de semiconducteurs à 2,5 milliards d’euros

10 février 2026 à 09:25

Louvain, en Belgique, peut désormais s’enorgueillir de disposer d’une salle blanche de 2 000 m² dans laquelle seront bientôt conçus, développés et testés des procédés visant à produire des semiconducteurs avec une finesse de 2 nm ou moins. Baptisée NanoIC, cette ligne pilote a été inaugurée lundi 9 février dans les locaux de l’Imec (Institut de microélectronique et composants), l’institut de recherche interuniversitaire flamand responsable de ses opérations.

NanoIC devrait recevoir dès le mois de mars la dernière pièce majeure nécessaire au lancement de ses activités, un scanner lithographique EUV High-NA fourni par ASML. Une machine de pointe, dont le prix se compte en centaines de millions de dollars, et qui entre en œuvre dans les procédés de gravure les plus avancés du marché, chez TSMC comme chez Intel avec le procédé Intel 14A, annoncé début 2024.

Contrairement à ces projets industriels, qui servent une logique de production de masse, la ligne NanoIC est pensée pour la R&D. « En donnant accès à des technologies de semi-conducteurs de pointe, la ligne pilote NanoIC jouera un rôle crucial dans le renforcement du tissu industriel européen à l’ère de l’IA et dans la garantie d’un climat de croissance économique, de sécurité et de prospérité pour les décennies à venir », promet ainsi Luc Van den hove, directeur de l’Imec, selon qui une nouvelle salle blanche, de 4 000 m² cette fois, est déjà en préparation.

L’Imec de Louvain dispose désormais d’une salle blanche de 2 000 m² dédiée aux dernières technologies de fabrication de semiconducteurs – crédit Imec

Dans son ensemble, le projet a également vocation à essaimer au sein des structures partenaires de l’Imec, dont le CEA-Leti (France), l’institut Fraunhofer (Allemagne) et les centres de recherche techniques VTT (Finlande), CSSNT (Roumanie) et Tyndall National Institute (Irlande).

Cette ligne pilote représente un investissement global de 2,5 milliards d’euros, dont 700 millions d’euros apportés par la Commission européenne. Le principe en avait été validé au printemps 2024, dans le cadre du Chips Act de l’Union européenne, qui prévoit une enveloppe totale de 43 milliards d’euros pour promouvoir la fabrication européenne de puces électroniques et répondre aux plans d’investissements chinois et états-uniens.

Fin janvier, le CEA-Leti a lui aussi inauguré sa propre ligne pilote, surnommée FAMES et installée dans ses locaux de Grenoble. Cofinancée par France 2030, elle représente un investissement de 830 millions d’euros, tourné vers cinq technologies considérées comme stratégiques : les prochaines générations de procédés FD-SOI, les mémoires non volatiles embarquées, l’intégration 3D, les composants RF passifs et les composants passifs pour la gestion de puissance.

La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

10 février 2026 à 08:32
Responsables, mais pas coupables
La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

Entamée il y a trois ans, l’initiative « Responsible AI in the Military Domain » vise à encadrer l’utilisation de l’intelligence artificielle par les armées « de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales ».

35 des 85 pays participant au 3e sommet « Responsible AI in the Military Domain » (REAIM) qui s’est tenu à La Corogne, en Espagne, ont signé jeudi dernier un engagement en faveur de 20 principes relatifs à l’IA en matière militaire, rapporte l’agence Reuters.

Les deux premiers sommets, qui s’étaient tenus à La Haye (2023) puis Séoul (2024), avaient « mis en évidence une vision commune à l’échelle mondiale : l’IA doit être développée et utilisée de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales », explique le site de REAIM 2026.

« Applications of AI in the miltary domain » (sic) © REAIM_Día 4 Paralelas Plenaria

Un « chef de l’IA responsable » dans les Armées

Le nouveau document (.pdf) souligne la préoccupation croissante des signataires quant au fait que les progrès rapides de l’intelligence artificielle pourraient dépasser les règles régissant son utilisation militaire, augmentant ainsi le risque d’accidents, d’erreurs d’appréciation ou d’escalade involontaire, résume Reuters.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Contenus sensibles : Discord va étendre la vérification de l’âge à tous les utilisateurs

10 février 2026 à 07:28
Contenus sensibles : Discord va étendre la vérification de l’âge à tous les utilisateurs

Discord a annoncé lundi le déploiement prochain d’un système de vérification d’âge à grande échelle. Par défaut, tous les comptes seront basculés vers le « mode ado », qui désactive les contenus sensibles, et il faudra passer par l’une des méthodes de contrôle proposées pour que « Discord s’adapte à la tranche d’âge vérifiée ».

« Notre travail en matière de sécurité n’est nulle part plus important que lorsqu’il s’agit d’utilisateurs adolescents », affirme Discord. Lundi, le réseau social a annoncé la généralisation d’une mesure déjà en vigueur au Royaume-Uni et en Australie : la vérification systématique de l’âge de l’utilisateur ou, à défaut, l’activation d’un « mode adolescent » (teen mode) dans lequel les paramètres liés notamment aux contenus sensibles (à caractère sexuel ou violent) sont masqués ou floutés.

Vérification d’âge pour tous

Le changement devrait intervenir début mars et concerner l’ensemble des utilisateurs de Discord, comptes existants comme nouveaux inscrits. Après ce déploiement, une simple déclaration ne sera donc plus suffisante pour activer l’accès aux contenus sensibles. Le floutage des contenus sensibles, l’accès limité aux espaces considérés comme adultes, l’acheminement des nouveaux contacts vers une boîte de réception séparée et les restrictions liées aux salons vocaux seront paramétrés sur tous les comptes.

Pour s’affranchir de ces restrictions, il faudra donc faire vérifier son âge. Sur ce volet, Discord indique qu’il sera possible de procéder à une estimation de l’âge par reconnaissance faciale, ou de fournir un document attestant de son âge à un service de vérification partenaire. L’entreprise américaine ne liste pas, pour l’instant, les partenaires en question, et n’indique pas non plus si ces derniers varieront selon les pays.

Elle promet en revanche que la vérification par reconnaissance faciale est opérée en local (au niveau de l’appareil de l’utilisateur), et que les documents d’identité fournis aux services tiers sont supprimés « rapidement » de leurs serveurs. Le statut âge vérifié d’un compte constitue par ailleurs un paramètre confidentiel, invisible des autres utilisateurs, affirme Discord.

l'icône de discord

Ces différents modes opératoires rappellent les mesures techniques de vérification d’âge à l’efficacité contestable mises en place, en France, pour limiter l’accès aux sites pornographiques. Dans le cas de Discord, le contournement par VPN (pour simuler la connexion au site visé depuis l’étranger) ne devrait toutefois pas constituer une option valide, puisque la plateforme instaure ces nouvelles règles dans le monde entier.

Un modèle d’inférence d’âge

Outre ces méthodes déjà mises en œuvre dans l’industrie des contenus pornographiques, Discord évoque également l’implémentation d’un modèle d’inférence, présenté comme « un nouveau système fonctionnant en arrière-plan pour aider à déterminer si un compte appartient à un adulte, sans exiger systématiquement des utilisateurs qu’ils vérifient leur âge ».

À l’inverse, le modèle pourrait-il analyser que l’utilisateur se comporte comme un mineur, et rétablir les restrictions dans l’attente d’une nouvelle vérification d’âge ? Discord ne le dit pas explicitement, mais l’hypothèse semble plausible : « Il se peut que certains utilisateurs soient invités à utiliser plusieurs méthodes si des informations supplémentaires sont nécessaires pour déterminer une tranche d’âge », indique la plateforme.

En attendant, Discord semble satisfait des expériences déjà menées sur le sujet : « L’année dernière, Discord a lancé avec succès une expérience par défaut pour les adolescents au Royaume-Uni et en Australie, et ce déploiement mondial s’appuie sur cette approche pour offrir des protections cohérentes et adaptées à l’âge dans le monde entier. »

L’entreprise, qui cherche peut-être à donner des gages de sérieux en vue de sa prochaine introduction en bourse, devra peut-être fournir des garanties supplémentaires quant à la sécurité des systèmes de vérification d’âge. En octobre dernier, Discord a en effet été victime d’une fuite de données imputée à un prestataire tiers. Les informations dérobées incluaient notamment « un petit nombre de documents d’identité officiels (par exemple, permis de conduire, passeport) d’utilisateurs ayant fait appel d’une décision de détermination de l’âge. »

Cette annonce de la vérification d’âge systématique intervient à l’occasion de l’Internet Safer Day (10 février), rendez-vous annuel de sensibilisation aux usages du numérique à destination des jeunes créé par l’UE en 2004. En 2025, Discord avait à cette même date présenté sa nouvelle fonction ignorer, visant à protéger des risques de harcèlement.

Rappelons qu’en France, l’Assemblée nationale a adopté fin janvier une proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, mesure que le président de la République affirme vouloir mettre en œuvre à la rentrée de septembre.

☕️ OpenAI donne le coup d’envoi de la publicité dans ChatGPT aux États-Unis

10 février 2026 à 07:04

Les utilisateurs de ChatGPT aux États-Unis sont désormais susceptibles de voir apparaître des publicités dans l’interface de discussion. OpenAI a en effet confirmé lundi 9 février l’introduction concrète des premières réclames pour les utilisateurs de la version gratuite du service et les détenteurs du nouvel abonnement ChatGPT Go, lancé mi-janvier.

« Nous commençons par un test afin d’apprendre, de recueillir des commentaires et de nous assurer que l’expérience est satisfaisante », promet OpenAI, qui avance sur des œufs en matière de communication. L’entreprise de Sam Altman a en effet été prise à partie par sa rivale Anthropic, qui a mis à profit les séquences publicitaires du Super Bowl pour la tourner en dérision, et promettre que les modèles Claude ne seront jamais associés à de la pub.

La publicité est doublement contextualisée, en fonction de la conversation et de l’utilisateur

OpenAI réaffirme de son côté qu’elle envisage la publicité comme un levier nécessaire à l’accessibilité de ChatGPT. « Pour garantir la rapidité et la fiabilité des abonnements Free et Go, il est nécessaire de disposer d’une infrastructure importante et de réaliser des investissements continus. Les publicités contribuent à financer ce travail, favorisent un accès plus large à l’IA grâce à des options gratuites et à faible coût de meilleure qualité, et nous permettent d’améliorer continuellement l’IA et les capacités que nous offrons », précise l’entreprise, avant de rappeler que les abonnements Plus et Pro n’affichent aucune réclame.

L’éditeur de ChatGPT renouvelle ses promesses quant à l’impartialité de ses modèles vis-à-vis des annonceurs. « Les publicités n’influencent pas les réponses fournies par ChatGPT », affirme OpenAI, qui assume en revanche un ciblage contextuel. « Au cours du test, nous déterminons quelle publicité afficher en associant les publicités soumises par les annonceurs au sujet de votre conversation, à vos discussions passées et à vos interactions antérieures avec des publicités. »

OpenAI s’engage à fournir des « contrôles publicitaires » adaptés

L’entreprise assure que l’annonceur n’accèdera jamais au contenu des conversations, et que l’utilisateur disposera des contrôles nécessaires à la vérification ou à la suppression des données publicitaires le concernant. « Pendant la phase de test, aucune publicité ne sera affichée sur les comptes pour lesquels l’utilisateur indique avoir moins de 18 ans, ni lorsque nous estimons qu’un utilisateur est mineur. Par ailleurs, les publicités ne seront pas diffusées à proximité de sujets sensibles ou réglementés, tels que la santé, la santé mentale ou la politique. », promet enfin OpenAI.

❌