Vue normale

Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

10 février 2026 à 16:46
Pour protéger vos données, ne mettez pas tous vos œufs (vos clés) dans le même panier
Chiffrer ses données avant de les envoyer dans le cloud : tour d’horizon des solutions

Il faut prendre soin de ses données, en tant que lecteurs de Next vous en êtes convaincus depuis longtemps. Que ce soit pour faire des sauvegardes dans le cloud, c’est-à-dire sur l’ordinateur de quelqu’un d’autre, ou pour les protéger des regards indiscrets, on doit souvent faire confiance à un tiers pour le chiffrement. Next vous aide à trouver un successeur à feu Boxcryptor.

Depuis le 24 décembre, Next propose à ses abonnés Premium du stockage S3 : 1 To par défaut, avec 100 Go de plus par ancienneté du compte. Nous avons publié dans la foulée un tuto pour vous expliquer comment en profiter. Disponible sous forme de bêta, l’offre s’est ouverte à tous début février.

Il est maintenant temps de passer au second gros morceau de notre dossier : comment chiffrer vos données avant de les envoyer dans le cloud.

Deux méthodes de protection

Pour cela, nous avons grosso modo deux méthodes : la gestion des droits d’accès et le chiffrement. Pour la gestion des droits, c’est-à-dire la mise en place d’un mécanisme empêchant les consultations non souhaitées, il faut s’en remettre entièrement à un fournisseur : il doit mettre en place les outils nécessaires, mais il est impossible de les vérifier nous-mêmes, sauf par un audit hors de portée des utilisateurs lambda.

Le chiffrement, en revanche, offre lui la possibilité d’être maîtrisé (sous certaines conditions) par l’utilisateur, notamment quand il reste le seul maître des clés de chiffrement. Encore faut-il choisir le bon outil, si tant est qu’il existe, et les bonnes options.

Il est impossible de lister tous les produits du marché, on va en regarder quelques-uns pour vous montrer leurs principales caractéristiques, afin que vous compreniez bien leurs usages et que vous trouviez ce qui vous convient le mieux. Mais on vous le réexpliquera très prochainement dans un dossier, il vaut vraiment mieux rester maître de ses clés, donc l’exigence pour notre recherche d’outil se résumera ainsi :

Chiffrer un dossier (pouvant être local ou distant), tout en restant bien sûr maître de la clé de chiffrement, et en y accédant localement de façon transparente.

La référence disparue : Boxcryptor

Cet outil non open source et payant cochait néanmoins de très nombreuses cases : chiffrement de bout en bout (E2EE comme on dit dans les milieux autorisés) fichier par fichier, maîtrise des clés de chiffrement grâce au zero knowledge (les informations principales pour le processus de chiffrement étant déduites d’un secret qui n’est stocké nulle part et n’est utilisé que localement), gestion multi-utilisateurs et intégration possible dans des Active Directories ou LDAP pour une utilisation professionnelle.

Le chiffrement E2EE fichier par fichier avec maîtrise des secrets convenait parfaitement à ceux qui veulent protéger leurs fichiers où qu’ils soient, localement ou dans le cloud, la contrepartie étant que dans un cas d’usage avec Office (Microsoft 365), les fichiers devraient forcément être déchiffrés localement avant d’être utilisés : on perd l’usage des Word et Excel en ligne, mais en gagnant sur la sécurité, chacun mettant le curseur d’usage là où il le souhaite.

Disparu suite à son rachat par Dropbox, il n’a guère laissé que Cryptomator comme alternative pour les mêmes cas d’usage. Nous y reviendrons un peu plus tard.

Quelques exemples pour voir de quoi on parle

Nous allons regarder quelques outils, et voir à quels cas d’usage ils correspondent vraiment. On en profitera pour faire un petit test de qualité, en les comparant chaque fois avec notre référence disparue (promis, on ne versera aucune larme même si l’émotion nous gagne).

Vous trouverez en fin d’article un tableau récapitulatif des fonctionnalités, forces et faiblesses, ainsi que des tarifs.

TrueCrypt et ses forks tels que VeraCrypt


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de “chiffrement automatique” », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d'”expiration”… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre “expériences professionnelles” énumérées dans le CV de Lin, la première est un “stage”, la seconde est “étudiant chercheur”, la troisième “cofondateur” d’une obscure société de technologie et la quatrième est employé des “technologies de l’information” pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

Sites pornos : la vérification d’âge reste une blague, Dora l’Exploratrice passe toujours

10 février 2026 à 13:12
Bonjour Dora, comme d’habitude ?
Sites pornos : la vérification d’âge reste une blague, Dora l’Exploratrice passe toujours

Nous sommes retournés sur des sites pornos dans le viseur d’Arcom et avons constaté qu’il est toujours aussi facile d’accéder aux contenus chez plusieurs d’entre eux. En 2026 encore, une carte d’identité de Dora l’exploratrice ou une vidéo « stock » aléatoire permettent de tromper des systèmes de vérification d’âge.

Durant l’été, l’Arcom avait intensifié sa lutte contre les sites pornographiques et en avait mis cinq en demeure de déployer des mesures de vérification de l’âge. Nous avions alors testé cette fonctionnalité plusieurs sites pornos, que ce soit via un selfie, un document d’identité et même une adresse email.

Mais nous avions aussi rapidement relevé de nombreux soucis avec des protections qui ressemblent parfois davantage à des écrans de fumée qu’à de véritables barrières. Sans compter sur les systèmes de vérification qui valident parfois n’importe quoi, comme une fausse carte d’identité avec Dora l’Exploratrice.

Six mois plus tard, où en est-on ? Nous profitons de cette Journée internationale pour un Internet plus sûr (Safer Internet Day), créée par la Commission européenne il y a plus de 20 ans, pour faire le point sur la situation. Le constat est sans appel, rien n’a changé sur les problèmes que nous avions soulevés. Certaines protections sont de telles passoires qu’on pourrait se demander si ce n’est pas fait exprès.

Déflouter d’un clic, télécharger photos et vidéos sans aucune vérification


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Riot Games licencie la moitié de l’équipe de 2XKO, son jeu lancé le 20 janvier dernier

10 février 2026 à 10:03

La fête aura été de courte durée : moins d’un mois après avoir lancé son dernier jeu vidéo, 2XKO, l’éditeur américain Riot Games a annoncé le licenciement d’une partie de l’équipe responsable de son développement.

La décision a été relayée par Tom Cannon, le producteur exécutif de 2XKO, qui justifie cette réduction d’effectifs par la réception en demi-teinte réservée à ce jeu de combat 2v2 distribué en free-to-play.

« Après mûre réflexion et de nombreuses discussions, nous réduisons la taille de l’équipe 2XKO. Sachez que cette décision n’a pas été prise à la légère. Lors de notre passage du PC aux consoles, nous avons constaté des tendances constantes dans l’engagement des joueurs avec 2XKO. Le jeu a su trouver un écho auprès d’un noyau dur de joueurs passionnés, mais la dynamique globale n’a pas atteint le niveau nécessaire pour assurer la pérennité d’une équipe de cette taille. »

2XKO applique au jeu de combat les mécaniques compétitives et économiques de LoL ou Valorant – crédit Riot Games

Le jeu n’est pas abandonné, mais l’équipe désormais resserrée est censée s’atteler maintenant à des « améliorations clés » non spécifiées. Riot Games (propriété du chinois Tencent, éditeur de League of Legends et de Valorant) ne précise pas le nombre d’employés concernés, mais l’un des membres de l’équipe 2XKO a évoqué le chiffre de 80 licenciements auprès de Game Developer.

La nouvelle semble avoir été communiquée sans avertissement préalable aux équipes. « Dix ans chez 2XKO, douze chez Riot, et je me fais virer avec 30 minutes de préavis, lol », lâche sur Bluesky l’un des licenciés.

La décision parait d’autant plus abrupte que 2XKO a connu une phase de développement de près de dix ans sous l’égide de Riot Games. Le projet découle en effet du rachat, en 2016, de Radiant Entertainment, un petit studio spécialisé dans les jeux de combat fondé par Tom Cannon et son frère.

Initialement pensé pour le PC avant d’être porté sur PS5 et Xbox, 2XKO incarne la première offensive de Riot Games sur la scène des jeux de combat à dimension compétitive. Le jeu, qui dispose d’un mode classé, fait s’affronter des équipes de deux joueurs (2v2), avec une galerie de personnages inspirés de l’univers de League of Legends, tel qu’il a été mis en scène dans la série animée Arcane. Comme League of Legends ou Valorant, le jeu est accessible gratuitement, mais il faut souscrire un Battle Pass payant et saisonnier pour accéder plus facilement aux récompenses offertes par le jeu et aux animations événementielles.

Début février, une étude réalisée sous l’égide de la Game Developer Conference révélait que près d’un tiers des postes de l’industrie du jeu vidéo avaient été supprimés ou transformés au cours des deux dernières années.

☕️ NanoIC : en Belgique, une ligne pilote de semiconducteurs à 2,5 milliards d’euros

10 février 2026 à 09:25

Louvain, en Belgique, peut désormais s’enorgueillir de disposer d’une salle blanche de 2 000 m² dans laquelle seront bientôt conçus, développés et testés des procédés visant à produire des semiconducteurs avec une finesse de 2 nm ou moins. Baptisée NanoIC, cette ligne pilote a été inaugurée lundi 9 février dans les locaux de l’Imec (Institut de microélectronique et composants), l’institut de recherche interuniversitaire flamand responsable de ses opérations.

NanoIC devrait recevoir dès le mois de mars la dernière pièce majeure nécessaire au lancement de ses activités, un scanner lithographique EUV High-NA fourni par ASML. Une machine de pointe, dont le prix se compte en centaines de millions de dollars, et qui entre en œuvre dans les procédés de gravure les plus avancés du marché, chez TSMC comme chez Intel avec le procédé Intel 14A, annoncé début 2024.

Contrairement à ces projets industriels, qui servent une logique de production de masse, la ligne NanoIC est pensée pour la R&D. « En donnant accès à des technologies de semi-conducteurs de pointe, la ligne pilote NanoIC jouera un rôle crucial dans le renforcement du tissu industriel européen à l’ère de l’IA et dans la garantie d’un climat de croissance économique, de sécurité et de prospérité pour les décennies à venir », promet ainsi Luc Van den hove, directeur de l’Imec, selon qui une nouvelle salle blanche, de 4 000 m² cette fois, est déjà en préparation.

L’Imec de Louvain dispose désormais d’une salle blanche de 2 000 m² dédiée aux dernières technologies de fabrication de semiconducteurs – crédit Imec

Dans son ensemble, le projet a également vocation à essaimer au sein des structures partenaires de l’Imec, dont le CEA-Leti (France), l’institut Fraunhofer (Allemagne) et les centres de recherche techniques VTT (Finlande), CSSNT (Roumanie) et Tyndall National Institute (Irlande).

Cette ligne pilote représente un investissement global de 2,5 milliards d’euros, dont 700 millions d’euros apportés par la Commission européenne. Le principe en avait été validé au printemps 2024, dans le cadre du Chips Act de l’Union européenne, qui prévoit une enveloppe totale de 43 milliards d’euros pour promouvoir la fabrication européenne de puces électroniques et répondre aux plans d’investissements chinois et états-uniens.

Fin janvier, le CEA-Leti a lui aussi inauguré sa propre ligne pilote, surnommée FAMES et installée dans ses locaux de Grenoble. Cofinancée par France 2030, elle représente un investissement de 830 millions d’euros, tourné vers cinq technologies considérées comme stratégiques : les prochaines générations de procédés FD-SOI, les mémoires non volatiles embarquées, l’intégration 3D, les composants RF passifs et les composants passifs pour la gestion de puissance.

La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

10 février 2026 à 08:32
Responsables, mais pas coupables
La Chine et les USA refusent de s’engager pour une IA militaire « responsable »

Entamée il y a trois ans, l’initiative « Responsible AI in the Military Domain » vise à encadrer l’utilisation de l’intelligence artificielle par les armées « de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales ».

35 des 85 pays participant au 3e sommet « Responsible AI in the Military Domain » (REAIM) qui s’est tenu à La Corogne, en Espagne, ont signé jeudi dernier un engagement en faveur de 20 principes relatifs à l’IA en matière militaire, rapporte l’agence Reuters.

Les deux premiers sommets, qui s’étaient tenus à La Haye (2023) puis Séoul (2024), avaient « mis en évidence une vision commune à l’échelle mondiale : l’IA doit être développée et utilisée de manière à soutenir, plutôt qu’à menacer, la paix, la sécurité et la stabilité internationales », explique le site de REAIM 2026.

« Applications of AI in the miltary domain » (sic) © REAIM_Día 4 Paralelas Plenaria

Un « chef de l’IA responsable » dans les Armées

Le nouveau document (.pdf) souligne la préoccupation croissante des signataires quant au fait que les progrès rapides de l’intelligence artificielle pourraient dépasser les règles régissant son utilisation militaire, augmentant ainsi le risque d’accidents, d’erreurs d’appréciation ou d’escalade involontaire, résume Reuters.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Contenus sensibles : Discord va étendre la vérification de l’âge à tous les utilisateurs

10 février 2026 à 07:28
Contenus sensibles : Discord va étendre la vérification de l’âge à tous les utilisateurs

Discord a annoncé lundi le déploiement prochain d’un système de vérification d’âge à grande échelle. Par défaut, tous les comptes seront basculés vers le « mode ado », qui désactive les contenus sensibles, et il faudra passer par l’une des méthodes de contrôle proposées pour que « Discord s’adapte à la tranche d’âge vérifiée ».

« Notre travail en matière de sécurité n’est nulle part plus important que lorsqu’il s’agit d’utilisateurs adolescents », affirme Discord. Lundi, le réseau social a annoncé la généralisation d’une mesure déjà en vigueur au Royaume-Uni et en Australie : la vérification systématique de l’âge de l’utilisateur ou, à défaut, l’activation d’un « mode adolescent » (teen mode) dans lequel les paramètres liés notamment aux contenus sensibles (à caractère sexuel ou violent) sont masqués ou floutés.

Vérification d’âge pour tous

Le changement devrait intervenir début mars et concerner l’ensemble des utilisateurs de Discord, comptes existants comme nouveaux inscrits. Après ce déploiement, une simple déclaration ne sera donc plus suffisante pour activer l’accès aux contenus sensibles. Le floutage des contenus sensibles, l’accès limité aux espaces considérés comme adultes, l’acheminement des nouveaux contacts vers une boîte de réception séparée et les restrictions liées aux salons vocaux seront paramétrés sur tous les comptes.

Pour s’affranchir de ces restrictions, il faudra donc faire vérifier son âge. Sur ce volet, Discord indique qu’il sera possible de procéder à une estimation de l’âge par reconnaissance faciale, ou de fournir un document attestant de son âge à un service de vérification partenaire. L’entreprise américaine ne liste pas, pour l’instant, les partenaires en question, et n’indique pas non plus si ces derniers varieront selon les pays.

Elle promet en revanche que la vérification par reconnaissance faciale est opérée en local (au niveau de l’appareil de l’utilisateur), et que les documents d’identité fournis aux services tiers sont supprimés « rapidement » de leurs serveurs. Le statut âge vérifié d’un compte constitue par ailleurs un paramètre confidentiel, invisible des autres utilisateurs, affirme Discord.

l'icône de discord

Ces différents modes opératoires rappellent les mesures techniques de vérification d’âge à l’efficacité contestable mises en place, en France, pour limiter l’accès aux sites pornographiques. Dans le cas de Discord, le contournement par VPN (pour simuler la connexion au site visé depuis l’étranger) ne devrait toutefois pas constituer une option valide, puisque la plateforme instaure ces nouvelles règles dans le monde entier.

Un modèle d’inférence d’âge

Outre ces méthodes déjà mises en œuvre dans l’industrie des contenus pornographiques, Discord évoque également l’implémentation d’un modèle d’inférence, présenté comme « un nouveau système fonctionnant en arrière-plan pour aider à déterminer si un compte appartient à un adulte, sans exiger systématiquement des utilisateurs qu’ils vérifient leur âge ».

À l’inverse, le modèle pourrait-il analyser que l’utilisateur se comporte comme un mineur, et rétablir les restrictions dans l’attente d’une nouvelle vérification d’âge ? Discord ne le dit pas explicitement, mais l’hypothèse semble plausible : « Il se peut que certains utilisateurs soient invités à utiliser plusieurs méthodes si des informations supplémentaires sont nécessaires pour déterminer une tranche d’âge », indique la plateforme.

En attendant, Discord semble satisfait des expériences déjà menées sur le sujet : « L’année dernière, Discord a lancé avec succès une expérience par défaut pour les adolescents au Royaume-Uni et en Australie, et ce déploiement mondial s’appuie sur cette approche pour offrir des protections cohérentes et adaptées à l’âge dans le monde entier. »

L’entreprise, qui cherche peut-être à donner des gages de sérieux en vue de sa prochaine introduction en bourse, devra peut-être fournir des garanties supplémentaires quant à la sécurité des systèmes de vérification d’âge. En octobre dernier, Discord a en effet été victime d’une fuite de données imputée à un prestataire tiers. Les informations dérobées incluaient notamment « un petit nombre de documents d’identité officiels (par exemple, permis de conduire, passeport) d’utilisateurs ayant fait appel d’une décision de détermination de l’âge. »

Cette annonce de la vérification d’âge systématique intervient à l’occasion de l’Internet Safer Day (10 février), rendez-vous annuel de sensibilisation aux usages du numérique à destination des jeunes créé par l’UE en 2004. En 2025, Discord avait à cette même date présenté sa nouvelle fonction ignorer, visant à protéger des risques de harcèlement.

Rappelons qu’en France, l’Assemblée nationale a adopté fin janvier une proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, mesure que le président de la République affirme vouloir mettre en œuvre à la rentrée de septembre.

☕️ OpenAI donne le coup d’envoi de la publicité dans ChatGPT aux États-Unis

10 février 2026 à 07:04

Les utilisateurs de ChatGPT aux États-Unis sont désormais susceptibles de voir apparaître des publicités dans l’interface de discussion. OpenAI a en effet confirmé lundi 9 février l’introduction concrète des premières réclames pour les utilisateurs de la version gratuite du service et les détenteurs du nouvel abonnement ChatGPT Go, lancé mi-janvier.

« Nous commençons par un test afin d’apprendre, de recueillir des commentaires et de nous assurer que l’expérience est satisfaisante », promet OpenAI, qui avance sur des œufs en matière de communication. L’entreprise de Sam Altman a en effet été prise à partie par sa rivale Anthropic, qui a mis à profit les séquences publicitaires du Super Bowl pour la tourner en dérision, et promettre que les modèles Claude ne seront jamais associés à de la pub.

La publicité est doublement contextualisée, en fonction de la conversation et de l’utilisateur

OpenAI réaffirme de son côté qu’elle envisage la publicité comme un levier nécessaire à l’accessibilité de ChatGPT. « Pour garantir la rapidité et la fiabilité des abonnements Free et Go, il est nécessaire de disposer d’une infrastructure importante et de réaliser des investissements continus. Les publicités contribuent à financer ce travail, favorisent un accès plus large à l’IA grâce à des options gratuites et à faible coût de meilleure qualité, et nous permettent d’améliorer continuellement l’IA et les capacités que nous offrons », précise l’entreprise, avant de rappeler que les abonnements Plus et Pro n’affichent aucune réclame.

L’éditeur de ChatGPT renouvelle ses promesses quant à l’impartialité de ses modèles vis-à-vis des annonceurs. « Les publicités n’influencent pas les réponses fournies par ChatGPT », affirme OpenAI, qui assume en revanche un ciblage contextuel. « Au cours du test, nous déterminons quelle publicité afficher en associant les publicités soumises par les annonceurs au sujet de votre conversation, à vos discussions passées et à vos interactions antérieures avec des publicités. »

OpenAI s’engage à fournir des « contrôles publicitaires » adaptés

L’entreprise assure que l’annonceur n’accèdera jamais au contenu des conversations, et que l’utilisateur disposera des contrôles nécessaires à la vérification ou à la suppression des données publicitaires le concernant. « Pendant la phase de test, aucune publicité ne sera affichée sur les comptes pour lesquels l’utilisateur indique avoir moins de 18 ans, ni lorsque nous estimons qu’un utilisateur est mineur. Par ailleurs, les publicités ne seront pas diffusées à proximité de sujets sensibles ou réglementés, tels que la santé, la santé mentale ou la politique. », promet enfin OpenAI.

30 ans plus tard, la Déclaration d’indépendance du cyberespace à l’épreuve de la réalité

9 février 2026 à 16:32
Grateful Dead
30 ans plus tard, la Déclaration d’indépendance du cyberespace à l’épreuve de la réalité

John Perry Barlow a prononcé sa célèbre Déclaration d’indépendance du cyberespace il y a précisément trente ans, au forum de Davos. Écrits en réponse aux velléités de contrôle de l’administration américaine sur le fonctionnement d’Internet, ses mots résonnent toujours avec l’actualité récente.

Rédigée le 8 février 1996 et prononcée au Forum économique mondial de Davos dans la foulée, la Déclaration d’indépendance du cyberespace de John Perry Barlow s’est dans les jours qui suivent diffusée comme une traînée de poudre parmi les premiers adeptes de cette toile étrange qu’on appelait Internet. Elle est depuis conservée par l’Electronic Frontier Foundation (cocréée par Barlow), et constitue l’un des textes fondateurs de la cyberculture.

En 1996, ce drôle d’oiseau mi-poète, mi-essayiste, éleveur à la retraite d’origine mormone devenu hippie et parolier du Grateful Dead à ses heures perdues, réagit à une proposition de loi portée par Al Gore devant le Congrès des États-Unis et signée, précisément le 8 février, par Bill Clinton.

Déjà en 1996, surveiller Internet

Au sein de ce grand Telecommunications Act, pensé pour orchestrer le développement d’une industrie des télécoms en plein essor, figure en effet un sous texte, le Communications Decency Act, qui tente de réglementer l’indécence et l’obscénité en ligne en les sanctionnant pénalement.

Ce sont ces mesures, dénoncées par les défenseurs de la liberté d’expression et invalidées dès juin 1996 par des juges fédéraux, qui alimentent la verve de Barlow.

« Gouvernements du monde industriel, géants fatigués de chair et d’acier, je viens du cyberespace, nouvelle demeure de l’esprit. Au nom de l’avenir, je vous demande, à vous qui êtes du passé, de nous laisser tranquilles. Vous n’êtes pas les bienvenus parmi nous. Vous n’avez aucun droit de souveraineté sur nos lieux de rencontre. », attaque ce dernier, dont on peut lire le texte traduit en français sur Wikipédia.

Tout au long de sa déclaration, Barlow défend l’idée d’un Internet autonome, affranchi des volontés de contrôle de gouvernements qui ne devraient tirer leur pouvoir que du « consentement des gouvernés ».

« Nous créons un monde où chacun, où qu’il se trouve, peut exprimer ses idées, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou à une norme. Vos notions juridiques de propriété, d’expression, d’identité, de mouvement et de contexte ne s’appliquent pas à nous. Elles se fondent sur la matière. Ici, il n’y a pas de matière. »

Utopique, mais d’actualité

Trente ans plus tard, le monde a bien été « couvert de médias informatiques » comme le pressentait Barlow, mais la promesse d’une « transmission globale de la pensée », affranchie des « usines » et des « postes de garde aux frontières du cyberespace » sonne comme une utopie bien éloignée des réalités de la tech moderne, dont les contingences sociales et environnementales se heurtent à la collision de facteurs aussi bien politiques qu’économiques.

Barlow, décédé en 2018 à 70 ans, n’aura pas connu les dérives récentes de la tech. Deux ans auparavant, pour les 20 ans de sa Déclaration, il réaffirmait son propos : « Mon argument principal était que le cyberespace est naturellement immunisé contre la souveraineté, et qu’il le serait toujours […] Je croyais alors que c’était vrai, et je crois que c’est toujours vrai maintenant ». Mais comment aurait-il réagi aux provocations d’un Elon Musk, aux dérives totalitaires d’un Trump ou aux coupures totales d’Internet dans des régimes autoritaires en proie à des révoltes populaires ?

Sa déclaration revêt des accents prophétiques au regard de cette actualité, et continue d’ailleurs d’alimenter le débat entre tentatives de réécriture et réflexions en faveur de communs numériques. L’esprit de la Déclaration de Barlow n’est donc pas mort, comme en témoigne symboliquement la création, ce 9 février 2026, d’une association baptisée Libres de choix, dont les fondateurs appellent à ce que le cyberespace soit considéré et protégé comme un « espace public d’intérêt général ».

☕️ WhatsApp et l’IA : pour l’Europe, « Meta a enfreint les règles de l’UE »

9 février 2026 à 16:02

Il y a quelques semaines, la Commission européenne ouvrait une procédure formelle contre Meta, et plus particulièrement sur l’accès des fournisseurs tiers d’intelligence artificielle à WhatsApp. Cela faisait suite à une annonce en octobre du géant américain de restrictions sur l’IA avec WhatsApp Business.

En effet, depuis le 15 janvier de cette année, seul Meta AI est disponible sur WhatsApp, « tandis que les concurrents ont été écartés ».

Dans ses conclusions préliminaires, la Commission estime que « Meta a enfreint les règles de l’UE en matière de pratiques anticoncurrentielles en empêchant les assistants d’intelligence artificielle (IA) tiers d’accéder à WhatsApp et d’interagir avec ses utilisateurs ». Cela couvre l’Espace économique européen (EEE) sauf l’Italie, car l’autorité de la concurrence locale « a imposé des mesures provisoires à Meta en décembre 2025 ».

Meta risque ainsi « de barrer la route aux concurrents », tout en étant « susceptible d’occuper une position dominante » dans le domaine des messageries instantanées. La Commission craint donc que Meta abuse de sa position dominante, et annonce de possibles mesures à venir.

L’Europe a en effet « I’intention d’imposer des mesures provisoires » pour éviter un « préjudice grave et irréparable sur le marché ». La Commission ajoute que c’est d’ailleurs « urgent d’adopter des mesures de protection ». La balle est maintenant dans le camp de Meta qui peut accéder aux documents de la Commission et se défendre.

Si la Commission confirme ses conclusions préliminaires après le contradictoire, elle peut rendre une décision imposant des mesures. « L’adoption d’une décision de mesures provisoires ne préjuge pas des conclusions finales de la Commission sur le fond de l’affaire », ajoute-t-elle.

En fin de semaine dernière, la Commission concluait aussi à titre préliminaire que « TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive ». L’enjeu est important au niveau européen, mais aussi (et surtout ?) en France puisque plus d’un tiers de la population de 12 ans et plus utilise l’IA générative chaque jour, et 75 % les messageries instantanées.

Signal : les services de sécurité allemands alertent sur une recrudescence du phishing

9 février 2026 à 15:34
Le chiffrement ne protège pas du phishing
Signal : les services de sécurité allemands alertent sur une recrudescence du phishing

Le service de renseignement allemand BfV et l’administration chargée de la sécurité numérique du pays ont publié une alerte au sujet d’attaques de phishing menées sur Signal par un « cyberacteur probablement contrôlé par un État ».

Le service de contre-espionnage allemand BfV et le BSI (équivalent à l’ANSSI) ont communiqué conjointement pour signaler une vague de phishing sur Signal. Selon eux, un « cyberacteur probablement contrôlé par un État » utilise la messagerie chiffrée pour viser notamment « des personnalités de haut rang issues du monde politique, militaire et diplomatique, ainsi que des journalistes d’investigation en Allemagne et en Europe ».

Des fonctions de sécurité légitimes exploitées par les pirates

« Les pirates exploitent les fonctions de sécurité légitimes des applications et les combinent avec des techniques d’ingénierie sociale. L’objectif est d’accéder discrètement aux discussions individuelles et de groupe ainsi qu’aux listes de contacts des personnes concernées », expliquent les deux agences allemandes dans un document [PDF].

Il y a tout juste un an, Google avait déjà détecté une campagne de phishing sur l’application de messagerie chiffrée menée par des pirates proches de la Russie contre des troupes militaires ukrainiennes.

Les services allemands évoquent l’utilisation de la même fonction de liaison vers un nouvel appareil via un QR-code : « Les pirates contactent leur cible sous un prétexte crédible et la persuadent de scanner un QR-Code. Ce code connecte effectivement un nouvel appareil au compte de la cible. Cependant, cet appareil est contrôlé par les pirates », expliquent-ils.

Comme Google, ils précisent que WhatsApp a le même genre de fonctionnalité qui pourrait donc tout aussi bien être utilisée de façon maligne. En décembre dernier, Gen Digital signalait justement une attaque sur la messagerie de Meta via la récupération de codes de vérification via QR code avec un lien supposé renvoyer l’utilisateur vers une photo à consulter.

Se faire passer pour l’assistance de Signal

Mais les services allemands ajoutent avoir détecté une autre manière de faire s’appuyant moins sur une fonctionnalité particulière de la messagerie que sur de l’ingénierie sociale. Ainsi, « les pirates se font passer pour l’équipe d’assistance officielle ou le chatbot d’assistance du service de messagerie (« Signal Support » ou « Signal Security ChatBot »). Ils contactent directement leur cible par message instantané. La conversation commence généralement par une prétendue alerte de sécurité. Les pirates créent également une pression immédiate en affirmant que sans action immédiate, la perte de données privées est imminente », expliquent-ils.

Et les pirates d’ajouter encore de la pression en affirmant que « seule la transmission du code PIN de sécurité privé de la personne ciblée ou d’un code de vérification reçu par SMS peut empêcher cette perte ». En récupérant le code PIN de l’utilisateur, les pirates peuvent alors s’enregistrer sur un autre appareil et contrôler la messagerie.

Encore une fois, WhatsApp n’est pas non plus à l’abri de ce genre d’attaque puisque la messagerie de Meta a, elle aussi, implémenté un système de code PIN pour sa vérification en deux étapes.

☕️ STMicroelectronics signe un contrat à plusieurs milliards avec AWS

9 février 2026 à 15:03

Déjà référencé parmi les fournisseurs d’Amazon Web Services (AWS), STMicroelectronics annonce la conclusion d’un nouvel accord pluriannuel et portant sur plusieurs milliards de dollars de commandes avec le géant américain du cloud.

Après une année difficile, 2026 démarre sous de bons auspices pour STMicroelectronics : le fabricant franco-italien de semiconducteurs vient en effet d’annoncer l’expansion des relations qui le lient déjà à l’américain AWS, dans le cadre d’un accord pluriannuel, portant sur plusieurs milliards de dollars de commandes.

« Cette collaboration positionne ST comme un fournisseur stratégique des technologies et produits semiconducteurs avancés qu’AWS intègre dans son infrastructure de calcul, permettant à AWS d’offrir à ses clients de nouvelles instances de calcul à haute performance, des coûts opérationnels réduits et une capacité à faire évoluer les charges de travail intensives en calcul plus efficacement », clame l’entreprise dans un communiqué.

STMicroelectronics ne détaille pas la nature exacte des commandes passées par AWS, mais évoque la fourniture de « fonctionnalités spécialisées pour la connectivité à haut débit, incluant le traitement du signal mixte à haute performance, des microcontrôleurs avancés pour la gestion intelligente de l’infrastructure, ainsi que des circuits intégrés analogiques et de puissance qui offrent l’efficacité énergétique requise pour les opérations des data centers à grande échelle ».

Logo STMicroelectronics

L’accord prévoit également un volet capitalistique : STMicroelectronics indique en effet avoir émis des warrants (un instrument boursier octroyant le droit d’acheter ou de vendre des titres à un prix et jusqu’à une date d’échéance déterminés à l’avance) permettant à AWS d’acquérir jusqu’à 24,8 millions d’actions du groupe franco-italien, soit une prise de participation pouvant atteindre 715 millions de dollars.

En bourse, l’action STMicroelectronics a réagi favorablement lundi, gagnant environ 7 % à la mi-journée. Fin janvier, le fondeur européen avait dévoilé un bilan en demi-teinte pour son exercice 2025 (marqué par un plan de départ volontaire), qui se concluait sur un chiffre d’affaires annuel de 11,8 milliards de dollars, en baisse de 11 % sur un an, avec un bénéfice net limité à 166 millions de dollars, en recul de 90 % par rapport à 2024.

Plus d’un tiers des Français utilise l’IA générative tous les jours

9 février 2026 à 14:29
Prompte qui peut
Plus d’un tiers des Français utilise l’IA générative tous les jours

En trois ans, l’IA générative s’est frayé une place dans les usages de près de la moitié de la population française. Ce chiffre grimpe jusqu’à 85 % pour les 15 à 24 ans qui s’en servent notamment pour de l’aide aux devoirs. Les utilisateurs sont moins de 20 % à payer un abonnement, mais cette statistique varie beaucoup en fonction des usages.

Selon une étude reprise par l’Arcep dans son baromètre du numérique, « près de la moitié de la population utilise déjà des services d’IA générative, un tiers des utilisateurs y a recours au quotidien ». Sur les 15 à 24 ans c’est, sans aucune surprise, largement plus avec 85 %.

Adoption deux fois plus rapide que les réseaux sociaux et les smartphones

Pour mettre les choses en perspective, le régulateur des télécoms compare l’adoption de l’IA générative à une autre « révolution », celle du smartphone. Là où la première a mis trois ans à toucher la moitié de la population, la seconde avait nécessité plus de deux fois plus de temps (sept ans). Pour les réseaux sociaux aussi il avait fallu attendre sept ans avant d’arriver à ce taux de pénétration.

L’IA générative est à la 8ᵉ place du Top 10 des outils numériques les plus utilisés. Les smartphones sont à 85 %, les messageries instantanées à 75 %, les ordinateurs à 65 %. Viennent ensuite les appels audio via les messageries, les réseaux sociaux (50 %), les tablettes et enfin les enceintes connectées.

L’étude a été menée en juin 2025 par le CREDOC (Centre de recherche pour l’étude et l’observation des conditions de vie). Elle porte sur « un échantillon représentatif de 4 145 personnes de 12 ans et plus » et conclut que « l’usage semble se polariser autour de deux agents conversationnels ». Le PDF complet de 88 pages est disponible par ici.

ChatGPT représente 63 % des usages

Une écrasante majorité des usages – 63 % – passent par l’acteur « historique » : ChatGPT d’OpenAI. Gemini est deuxième, certainement grâce à son intégration dans Android et tout l’écosystème Google, mais reste très loin derrière avec 13 % seulement.

L’ensemble des autres IA (Grok, Claude…) représentent 24 % des usages, mais aucune ne s’approche ne serait-ce qu’un peu du duo de tête. Le Chat de Mistral est en effet troisième avec 6 %, Copilot de Microsoft à 4 %, DeepSeek à 3 %, etc. L’hégémonie d’OpenAI est donc impressionnante selon cette étude.

Sans surprise, l’IA Gen comme aide aux devoirs chez les jeunes

De manière générale, le constat est sans appel : « Les utilisateurs d’IA générative privilégient l’IA dans la plupart des cas d’usages ». Le plus populaire est la recherche d’informations avec 73 % des utilisateurs, puis la rédaction et la traduction de texte avec 58 % et enfin la génération d’idées nouvelles avec 57 % des utilisateurs.

Dans l’ensemble, deux facteurs sont plébiscités : le gain de temps pour 41 % des sondés et l’ergonomie pour 33 %. L’étude se penche aussi sur les cas d’usages des enfants (les sondés ont 12 ans et plus) : « une large majorité des jeunes utilise déjà l’IA pour l’aide aux devoirs (68 % des 12 - 17 ans, 73 % des 18 - 24 ans) ».

Des utilisateurs de moins en moins méfiants

Après les usages, passons de l’autre côté de la barrière avec la méfiance des utilisateurs et les questions environnementales. Dans le premier cas, « si la majorité de la population se déclare méfiante vis-à-vis de l’IA, cette réticence diminue à mesure que l’outil se répand ».

52 % des utilisateurs se déclarent ainsi méfiants, un chiffre en baisse de 5 points sur un an. Deux axes de méfiances sont mis en avant : « le manque de confiance dans les réponses fournies et l’incertitude sur l’usage de leurs données personnelles ».

Pour un peu moins d’un tiers des non-utilisateurs ce sont les principaux obstacles, tandis qu’ils sont un peu plus d’un quart « à ne pas utiliser l’IA par manque de compétences », ils sont 57 % à ne pas être très compétents ou pas du tout compétents.

Alors que la moitié de la population utilise l’IA générative, seuls 64 % déclarent vérifier « souvent, voire toujours, les informations fournies par l’IA ». Cela laisse tout de même 36 % des utilisateurs qui semblent y accorder une confiance importante, alors que, de par sa conception (des résultats statistiques, entre autres), cette problématique ne doit pas être oubliée.

Sur la question de l’usage des ressources et de l’empreinte écologique, « une majorité (46 %) de personnes estime que son impact environnemental est supérieur à celui des moteurs de recherche, alors que seulement 17 % pensent que son impact est moins élevé ».

19 % des utilisateurs payent, mais c’est très inégal

Sur les utilisateurs, « un Français sur cinq paye pour accéder à un service d’IA générative ». L’Arcep ne donne pas plus de détails sur le service d’IA générative et le montant de l’abonnement. Par payant, nous savons simplement que cela regroupe les abonnements, et le paiement en fonction des usages.

Le rapport pointe un écart important entre les types d’utilisateurs : « les actifs occupés (23 %), les
jeunes, les diplômés du supérieur, les cadres, les personnes à hauts revenus et les urbains sont
davantage enclins à payer pour accéder à des niveaux de service supérieurs
 ».

La « technicité » des usages est aussi mise en avant : « 61 % des utilisateurs quotidiens de l’IA pour la
programmation informatique déclarent payer, de même que 55 % pour la création de contenus visuels
(images, photos, vidéos), et 50 % pour la rédaction, la traduction ou l’amélioration de texte
 ».

Ces usages sont aussi bien plus consommateurs de « tokens » qu’une recherche, les limites des forfaits gratuits sont donc très rapidement atteintes.

Le reste du baromètre : messagerie, empreinte écologique…

L’étude s’intéresse à bien d’autres pans du numérique, à commencer par les messageries instantanées, qui « sont devenus un canal incontournable de communication : 86 % de la population utilise ces services et deux tiers y a recours quotidiennement », notamment sous l’influence de leurs contacts (ce qui pousse aussi à utiliser plusieurs messageries).

Sur les gestes environnementaux, « près d’une personne sur quatre a fait réparer au moins un appareil numérique (smartphone, ordinateur, téléviseur, etc.) au cours des trois dernières années ». Pour rappel, l’empreinte environnementale d’un smartphone est composée à 75 % de sa production et à 25 % de son usage.

Par contre, « la possession de smartphones reconditionnés ou d’occasion reste minoritaire. Elle ne concerne que 20 % des personnes interrogées, une proportion qui ne progresse plus ». Tous ses points sont détaillés dans le baromètre du numérique (pdf).

En 2025, 487 millions d’euros d’amende de la CNIL dont 475 millions pour Google et Shein

9 février 2026 à 13:07
Des cookies aux amandes ?
En 2025, 487 millions d’euros d’amende de la CNIL dont 475 millions pour Google et Shein

L’autorité française chargée de la protection des données publie un premier bilan de son action en 2025 avec une baisse sensible du nombre de sanctions. Leur montant cumulé affiche une multiplication par 9 par rapport à l’année d’avant, gonflé par les amendes contre Google et Shein.

En septembre dernier, la CNIL prononçait deux amendes importantes contre Google et Shein pour non-respect des règles sur les cookies. En tout, l’autorité imposait aux deux multinationales 475 millions d’euros d’amendes.

Ce montant représente finalement le gros du total des 83 sanctions que l’autorité a prononcées au cours de l’année 2025. La CNIL explique dans un communiqué avoir prononcé des amendes pour un montant cumulé de 486,8 millions d’euros. Le reste, 12 millions d’euros donc, rassemble 76 autres amendes, trois décisions de liquidation d’astreinte et deux rappels à l’ordre.

Une concentration des amendes sur les traceurs gonflées par les sanctions contre Google et Shein

Parmi ces décisions, 19 autres concernent aussi des « manquements aux règles régissant les traceurs : dépôt sans le consentement de l’utilisateur, insuffisance des informations délivrées (ne permettant pas de recueillir un consentement éclairé), ou encore absence de prise en compte effective du refus de l’utilisateur ou du retrait de son consentement ». Ainsi on peut se rappeler aussi des 750 000 euros prononcés à l’encontre de la société française Les publications Condé Nast éditrice de Vanity Fair, Vogue, GQ et AD.

La CNIL met donc en avant ses décisions concernant le sujet particulier des cookies et autres traceurs. Mais les cas de Google et Shein font gonfler l’addition et le problème reste entier pour l’internaute qui rencontre encore au quotidien des dark patterns sur les bandeaux d’acceptation de cookies.

16 sanctions concernant la vidéosurveillance des salariés

L’autorité affiche aussi pour l’année écoulée 16 sanctions pour non-respect des règles applicables à la vidéosurveillance des salariés. « En l’absence de circonstances exceptionnelles liées par exemple à des enjeux particuliers de sécurité ou de lutte contre le vol, la surveillance vidéo permanente de salariés constitue une atteinte à la protection des données personnelles », réaffirme-t-elle.

On peut rappeler le cas qu’avait choisi de rendre public l’autorité : La Samaritaine. Ainsi l’enseigne a reçu en septembre une amende de 100 000 euros pour des caméras et micros dissimulés aux salariés suite aux révélations de Médiapart en 2023.

L’autorité en profite aussi pour faire un rappel sur les manquements aux obligations des sous-traitants. Par exemple, en décembre, la CNIL a rendu publique l’amende d’un million d’euros d’amende adressée à un sous traitant de Deezer, à propos de la fuite des données de 46 millions d’utilisateurs dans le monde dont 9 millions en France intervenue en 2022.

Elle rappelle que les sous-traitants doivent :

  • « mettre en œuvre les mesures techniques et organisationnelles appropriées afin de garantir un niveau de sécurité adéquat ;
  • ne traiter les données que sur instruction du responsable de traitement ;
  • et supprimer les données à l’issue de leur relation contractuelle avec le responsable de traitement ».

Trois rappels qui correspondent typiquement aux soucis rencontrés dans le cas de Mobius Solutions, le sous-traitant de Deezer.

Une procédure simplifiée en vitesse de croisière

Parmi les 83 sanctions prononcées par la CNIL, 67 l’ont été dans le cadre de la procédure simplifiée mise en place en 2022. C’est peu ou prou le même nombre qu’en 2024 (69 à l’époque). « La sécurisation insuffisante des données personnelles, l’absence de coopération avec la CNIL et le non respect des droits des personnes constituent les trois principaux motifs » des décisions prises dans ce cadre.

Sur le manquement relatif à la sécurité des données personnelles, l’autorité compte 14 organismes qui n’avaient pas mis en œuvre les mesures nécessaires. 80 % des violations de données auraient pu être évitées, déplorait encore récemment la présidente de l’autorité, Marie-Laure Denis.

La CNIL note que 14 sociétés ou professionnels libéraux ont été sanctionnés pour tout simplement ne pas lui avoir répondu. Et 14 autres décisions sanctionnent le fait que le responsable du traitement de données personnelles n’a pas pris en compte des demandes d’effacement, d’opposition ou d’accès à ces données. Enfin, 10 sanctions concernent la prospection (commerciale ou politique) dont cinq candidats aux élections européennes et législatives de 2024.

Enfin, l’autorité a émis 143 mises en demeure, notamment dans « le secteur de l’aide sociale à l’enfance pour les manquements suivants : l’absence de politique rigoureuse de conservation de données pour les dossiers des mineurs, l’information des personnes, la politique de gestion des habilitations et des mots de passe, la tenue d’un registre des traitements et la réalisation d’une analyse d’impact relative à la protection des données ».

Si le nombre de 83 sanctions peut paraitre faible, on peut se rassurer sur le fait qu’au moins, l’autorité française recouvre la plupart des amendes infligées, comme nous l’expliquions récemment, puisqu’entre 2019 et 2024, 95 % de ses sanctions ont été recouvrées par le Trésor Public, alors que son homologue irlandaise n’en recouvre que 0,5 %.

Cybersécurité vs Gen AI : l’ANSSI « n’a pas de preuve d’attaque à 100 % IA »

9 février 2026 à 11:58
Lycos, va attaquer !
Cybersécurité vs Gen AI : l’ANSSI « n’a pas de preuve d’attaque à 100 % IA »

L’ANSSI remet l’église au centre du village : oui l’IA générative peut aider des pirates à lancer des cyberattaques, mais elle ne leur permet pas (encore) de les automatiser de bout en bout : « L’ANSSI n’a pas de preuve d’attaque à 100 % IA ».

La semaine dernière, l’ANSSI a publié une note de « synthèse de la menace sur l’IA générative face aux attaques informatiques ». Le constat est sans appel pour l’Agence de cybersécurité : « l’ANSSI n’a pas connaissance de cyberattaques menées contre des acteurs français à l’aide de l’intelligence artificielle ou identifié en propre de système d’IA capable de réaliser de manière autonome l’intégralité des étapes d’une attaque informatique ».

« Pas de preuve d’attaque à 100 % IA »

Hugo Mania, chef de projet Intelligence Artificielle à l’ANSSI, avait déjà partagé ce constat mi-janvier lors d’une conférence du Laboratoire national de métrologie sur la cybersécurité à laquelle assistait Next : « On n’a pas identifié d’IA capable de réaliser une attaque de manière autonome. L’ANSSI n’a pas de preuve d’attaque à 100 % IA ». Il ajoutait par contre l’IA générative offrait des fonctions « intéressantes de génération de code ».


Il reste 79% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Quand l’IA générative épuise ses adeptes

9 février 2026 à 11:19

« J’ai produit davantage de code au dernier trimestre que pendant n’importe quel trimestre de ma carrière. Je me suis aussi senti plus épuisé que pendant n’importe quel autre trimestre de ma carrière. Ces deux faits ne sont pas indépendants. »

C’est par ces mots que le développeur Siddhant Khare introduit un article de blog qui a beaucoup fait réagir, ce 8 février, sur X, Bluesky, Linkedin, Hackernews ou ailleurs. Son propos : si l’IA générative rend de nombreux ingénieurs logiciel plus productifs (ce qui explique leur adoption rapide de ces outils), elle les épuise aussi plus rapidement.

Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.

Entre autres évolutions, Siddhant Khare souligne notamment le passage d’une gestion lente mais concentrée sur un seul problème à celle de 5 ou 6 sujets différents en une journée, ce qui l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant – mi-2025, une équipe de chercheurs repérait d’ailleurs une baisse de productivité chez les développeurs recourant à l’IA générative.

Le développeur pointe une autre problématique proche de celle exprimée par les traductrices et traducteurs : de créateur de son texte, il devient « post-éditeur », ou correcteur d’une première version de code déjà produite par les agents conversationnels. Or la correction est une tâche différente (et pas nécessairement moins chronophage) de la production d’un texte ou d’un code inédit.

Il souligne, enfin, un problème persistant dans l’industrie numérique : la peur de manquer le nouveau produit, le nouvel outil, la fonctionnalité qui viendrait réellement changer tout son processus de travail.

Ce FOMO (fear of missing out), dont certains témoignaient déjà auprès de Next à l’été 2025, implique directement de dépenser du temps à tester et évaluer différents outils, pour voir dans certains cas ses efforts d’affinage de prompts (requêtes soumises aux robots conversationnels) disparaître en fumée dès la mise à jour suivante d’un modèle.

Surtout, Siddhant Khare s’inquiète d’une potentielle « atrophie de la pensée » qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Parmi les pistes qu’il indique avoir mises en place, Siddhant Khare évoque le fait de limiter le temps d’utilisation d’une IA : si, par exemple, le code obtenu au bout de 30 minutes n’est pas satisfaisant, il passe à une écriture à la main plutôt que de s’enfermer dans une boucle d’amélioration de son prompt.

Il sépare le temps de réflexion de celui d’usage de l’IA (pour de l’exécution). Il prend note, aussi, des cas dans lesquels l’IA l’a réellement aidé (plutôt des tâches répétitives, de documentation, ou de génération de tests) de ceux où elle lui a fait perdre du temps (décisions d’architecture, débogage complexe et autres tâches demandant de bien connaître son code).

☕️ Marc Prieur, fondateur de Hardware.fr, est décédé

9 février 2026 à 09:51

Le groupe lyonnais LDLC a annoncé lundi matin le décès de Marc Prieur, fondateur du site Hardware.fr, à l’âge de 46 ans.

« Marc Prieur a marqué l’histoire du numérique par sa vision avant-gardiste et son engagement inlassable dans l’univers technique. Fondateur du site Hardware.fr, qu’il crée en mai 1997, alors qu’il était encore lycéen. Il a su transformer ce projet de jeunesse en une référence incontournable dans le domaine du matériel informatique », salue le groupe dans un communiqué.

« En juin 2000, pour assurer la pérennité et la croissance de son projet, Il décide de vendre Hardware.fr au Groupe LDLC dont il rejoint le Directoire. Dans ce rôle, il met à profit son expertise, sa connaissance approfondie de l’écosystème numérique et sa vision stratégique pour contribuer au développement du Groupe. Sa contribution a été un atout précieux tout au long de ces 25 dernières années. », ajoute LDLC.

Piloté par une équipe resserrée aux côtés de son fondateur, Hardware.fr a longtemps été considéré comme l’une des références francophones pour les tests de matériel informatique, jusqu’à l’arrêt de son activité éditoriale, en 2018. Le site disposait également d’un volet e-commerce avec une boutique active jusqu’en juin dernier.

Impossible enfin de ne pas mentionner l’espace de discussion adossé à Hardware.fr (dit HFR) qui depuis plus de vingt ans, constitue l’un des forums communautaires francophones les plus dynamiques du Web. Et même un peu plus pour certains de ses membres, qui aujourd’hui rendent hommage à son créateur.

La page d’accueil de Hardware.fr est figée depuis 2018 et l’annonce du “clap de fin”

☕️ [MàJ] La divulgation des réseaux sociaux pourrait devenir obligatoire en 2026 pour entrer aux États-Unis

9 février 2026 à 09:11

Mise à jour du 11 février : Ajout des précisions de l’ambassade des États-Unis à Paris.

Dans un décret de janvier 2025, Donald Trump avait annoncé vouloir lier l’entrée sur le territoire états-unien à la consultation de l’historique sur les réseaux sociaux. Le 10 décembre, un document de l’administration a signé l’ouverture d’une période de consultation de 60 jours sur le sujet, période qui s’est terminée ce 9 février.

Cela dit, le texte n’est pas un décret officiel. Auprès de FranceInfo, le ministère américain de la sécurité intérieure (DHS) indique que la réglementation finale est toujours à l’étude et que toute évolution relative à l’ESTA n’arrivera pas avant mi 2026.

Le document consultait le public sur la possibilité d’obliger les voyageurs prévoyant d’entrer aux États-Unis à divulguer leurs profils et activités sur les réseaux sociaux. 
Déjà demandé de manière facultative au moment de remplir l’ESTA, ce partage d’informations pourrait devenir obligatoire pour les ressortissants de 38 pays, dont la France.

Les agences de voyage recommandent déjà à leur clientèle de préparer leur dossier longuement à l’avance, le temps de recenser tous les comptes de réseaux sociaux et adresses mail susceptibles d’être déclarés.

Cette requête pourrait avoir un effet d’intimidation sur les touristes concernés, alors que le pays américain a déjà enregistré un recul de plus de 4% du nombre de voyageurs internationaux venus en 2025.

Si les États-Unis promeuvent cette mesure dans le cadre du renforcement des contrôles aux frontières voulu par Donald Trump dès son retour au pouvoir, elle ne leur est pas spécifique.

La Colombie demande par exemple aux personnes requérant un visa de fournir leur nom d’utilisateur sur les principales plateformes sociales américaines, rappelle Le Figaro.

❌