Vue normale

Reçu hier — 6 janvier 2026Next.ink

Hey, vous utilisez quoi comme clavier dans la rédac ?

6 janvier 2026 à 16:46
So creamyyyyyy !
Hey, vous utilisez quoi comme clavier dans la rédac ?

L’équipe a bien voulu se prêter à un petit exercice : quels types de claviers utilisent les membres de la rédaction ? Quel rapport entretient l’équipe avec ce périphérique si anodin mais sur lequel nous passons une aussi grande partie de notre temps ?

Je ne suis pas un fou des claviers, mais ils m’intéressent assez pour que l’entassement commence à se faire sentir dans un placard. J’ai toujours été sensible au confort de frappe. Avec l’explosion des claviers mécaniques ces dernières années, un autre phénomène s’est enclenché chez certaines personnes : la course au « feeling ». Comment obtenir le son parfait ? La frappe la plus satisfaisante ?

Dans la grande majorité des tests de claviers que l’on peut voir sur YouTube, une partie est ainsi réservée au test sonore : un exercice de dactylo, un micro plus ou moins bon, et vous obtenez des sons qui peuvent vous faire autant d’effet que l’ASMR (pour celles et ceux qui y sont sensibles), ou au contraire faire grimper l’exaspération, comme un bruit de mastication quand on est misophone (coucou).

Alors parlons claviers !

De la membrane au mécanique low profile

J’utilise au quotidien un clavier Magi96 Pro de la marque chinoise Iqunix. Elle est presque inconnue en France, mais mériterait de se faire une place dans le cœur des utilisateurs… qui n’ont pas peur d’abandonner l’ISO-FR (le fameux azerty).

Pourquoi cette marque, ce modèle ? Parce que j’avais vu passer plusieurs tests de leur Magi65 Pro, que celui-ci m’avait conquis et que je voulais une version plus complète, avec les touches de fonctions et le pavé numérique. J’apprécie son knob pour régler rapidement le son, ses contrôles médias sur cette croix si étrange, et son emplacement pour le dongle USB (Wi-Fi 2,4 GHz). Il est plutôt cher (180 dollars, sans les frais de port), mais la qualité se ressent partout, jusque dans le poids (près de 2 kg). Et malgré les apparences, la base n’est pas en plastique, mais en aluminium.

C’est actuellement le clavier qui me fournit le plus grand plaisir à l’écriture, pour le confort de frappe (touches en PBT, switchs lubrifiés…) et le son « crémeux » aujourd’hui recherché par une partie du public. Comment j’en suis arrivé là ? Après de nombreuses années sur des claviers à membrane, dont l’excellent Illuminated de Logitech et ses descendants (en quelque sorte) K800 et MX Keys. Mes premières vraies incursions dans le monde du mécanique en 2019 n’ont pas été très heureuses : des fautes de frappe, encore et encore. Je me suis rendu compte que le retour aux touches en hauteur pleine ne passait pas, malgré les semaines à insister. J’avais passé trop de temps sur les claviers « plats » de type ordinateur portable.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le ministère de la Culture relaie une « hallucination » générée par IA

6 janvier 2026 à 15:54
Rachida Data
Le ministère de la Culture relaie une « hallucination » générée par IA

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Sur X.com, @nizzague s’étonne en effet de voir que l’hommage rendu au rappeur récemment décédé Calbony M’Bani, dit Calbo, vantait la « virtuosité du groupe et leur amour de la langue française maniant rimes multisyllabiques et métaphores sans jamais perdre leur ancrage dans le réel ».

Après avoir initialement avancé que le communiqué « illustre parfaitement les limites de l’IA », @nizzague a publié un second message relevant que « quasiment tout a été pompé et retravaillé à partir d’un site qui dressait la biographie de Calbo, juste avant son décès » :

« Avec la même erreur sur « Shalom » au lieu de « Shaolin » et le même plan de présentation avec des termes similaires. »

À gauche, le communiqué du ministère de la Culture, à droite, le billet de blog généré par IA

Des fautes d’accord, de conjugaison et de syntaxe

Pis, relève LePoint.fr : « des fautes d’accord, de conjugaison et de syntaxe se sont glissées dans le texte, qui manifestement n’a pas été relu », telles que « il était définitivement entrée »« des titres comme Boxe ou Shalom avait révélé » ou encore « la virtuosité du groupe et leur amour ».

Le communiqué du ministère de la Culture a depuis été corrigé, mais nous ne sommes pas suffisamment connaisseurs de l’œuvre de Calbo et du groupe Ärsenik qu’il avait créé avec son frère Lino pour savoir si y figuraient d’autres erreurs venant du billet de blog qui avait halluciné « Shaolin » en « Shalom ».

Le blog dont se serait inspiré le conseiller de Rachida Dati auteur du communiqué est lui-même truffé de biographies ou de billets consacrés à la maternité semblant, eux aussi, avoir été générés par IA. Étrangement, y figure également un billet intitulé « Grosse Bite : Définition, Perception et Réalité », alors que le blog est censé être celui d’une entreprise bordelaise de location d’équipements pour bébés.

Un spammeur qui rachète des noms de domaine expirés

Gambin, l’entreprise en question, avait en réalité cessé ses activités en août 2024, et son nom de domaine expiré a depuis été racheté pour y héberger des contenus générés par IA, à l’instar des milliers de sites d’infos générées par IA (GenAI) que nous avons identifiés ces derniers mois.

Une récente étude de Médiamétrie, basée sur notre base de données de sites d’infos « en tout ou partie » générées par IA (GenAI, qui vient de franchir ce week-end le cap des 9 500 sites GenAI !) a ainsi découvert qu’un quart des internautes français visitent chaque mois au moins un des 250 sites GenAI faisant partie du Top1000 des sites mis en avant par l’algorithme Discover de recommandation de contenus Discover.

Occasion de rappeler que Next propose une extension web gratuite, pour les navigateurs basés sur Chrome et Firefox (y compris dans sa version Android) qui affiche un message d’alerte lorsque ses utilisateurs consultent ces sites d’infos GenAI.

Nous venons d’y rajouter gambin.co, ainsi que le site de l’école de tir de Chabris, celui du Fonds Alcuin pour l’école de la fondation Roi Baudouin et celui d’Au Vél’o Vert, un loueur de vélos de l’île de Groix, dont les noms de domaine expirés ont eux aussi été rachetés par le spammeur GenAI.

Message d’alerte apparaissant sur les sites d’infos générées par IA figurant dans l’extension de Next

☕️ La bibliothèque clandestine Anna’s Archive perd son .org

6 janvier 2026 à 15:48

Le nom de domaine annas-archive.org a été suspendu. Cette bibliothèque clandestine est, en fait, une métamoteur de recherche pour fouiller aussi bien dans Sci-hub que dans Libgen ou Z-Lib à la recherche d’epubs piratés. Son équipe s’est récemment illustrée en revendiquant la récupération de 300 To de musique de Spotify.

Mais, comme l’a repéré TorrentFreak, le registre en charge du domaine annas-archive.org semble l’avoir placé en statut « ServerHold », ce qui le désactive dans le DNS.

Comme le soulignent nos confrères, la suspension de domaines en .org, géré par le registre d’intérêt public PIR, est plutôt rare, ce qui laisse supposer qu’elle a été prise dans le cadre d’une décision de justice. Mais le directeur marketing du registre affirme à nos confrères que « malheureusement, le PIR n’est pas en mesure de commenter la situation pour le moment ».

De son côté, l’équipe de la bibliothèque clandestine a constaté sur Reddit cette suspension de façon flegmatique en indiquant : « Nos autres domaines fonctionnent correctement, et nous en avons ajouté quelques-uns supplémentaires. Nous vous recommandons de consulter notre page Wikipédia pour connaître les derniers domaines ». Elle ajoute ne pas croire que ça puisse avoir un lien avec la récupération de millions de fichiers qu’elle a effectuée sur Spotify.

.

Intel lance 14 processeurs Core Ultra Series 3 (Panther Lake), les premiers gravés en 18A

6 janvier 2026 à 15:16
1, et 2 et 3…
Intel lance 14 processeurs Core Ultra Series 3 (Panther Lake), les premiers gravés en 18A

Intel vient d’annoncer sa nouvelle famille de processeurs Core Ultra Series 3 pour les ordinateurs portables. Les processeurs ont jusqu’à 16 cœurs CPU (il y en a trois types différents) et peuvent intégrer pour certains une partie graphique Arc B3x0. Ce sont les premiers CPU gravés avec le procédé Intel 18A. Les premières machines seront disponibles dans quelques jours.

Une fois n’est pas coutume, posons-nous deux secondes avant d’entrer dans le vif du sujet. Les Core Ultra Series 3 sont une famille de processeurs à l’intérieur de laquelle on trouve des gammes de CPU Core Ultra 3, Ultra 5, Ultra 7, etc.

Core Ultra Series : résumé des trois saisons en cours


Il reste 96% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

6 janvier 2026 à 13:58
Paris d'initiés
Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

En pariant sur la chute du chef d’État vénézuélien Nicolás Maduro juste avant son annonce, un internaute a gagné plus de 430 000 dollars sur Polymarket. Nouvelle lumière sur la plate-forme qui a permis de parier aussi bien sur la résistance du sous-marin touristique Titan en 2023 que plus récemment, sur des avancées militaires sur le front russo-ukrainien. Avec, pour les paris gagnants, leurs lots de soupçons de délits d’initiés ou même de manipulation de données.

Comme certains patrons du numérique très proches de Donald Trump, des utilisateurs de la plateforme de pari en ligne Polymarket ont misé sur la déstabilisation du Venezuela. L’un d’entre eux a opportunément créé un compte en décembre dernier et a commencé à parier sur le sujet « Maduro démis de ses fonctions avant le 31 janvier 2026 ? » le 31 décembre en augmentant sa mise de façon conséquente vendredi 2 janvier, juste avant l’enlèvement de Nicolás Maduro par l’armée états-unienne. Son gain ? 436 759,61 dollars après avoir misé 32 537,28 dollars en tout.

Un pic des paris sur la chute de Maduro juste avant son enlèvement

La plateforme permet de parier sur la réalisation ou non d’un événement jusqu’à une date donnée. Comme l’a repéré le Wall Street Journal, les paris en faveur du départ de Nicolás Maduro de ses fonctions avant le 31 janvier ont oscillé entre 5 % et 6 % pendant la majeure partie de la semaine dernière avant d’augmenter vendredi, atteignant 12,5 % dans la nuit peu de temps après que les États-Unis ont ordonné aux avions commerciaux de quitter l’espace aérien vénézuélien.

En tout, 56,6 millions de dollars ont été mis sur la table pour des paris sur le départ de Maduro dont 11 millions sur le fait que cela arrive avant le 31 janvier 2026 et 40 millions entre le 30 novembre 2025 et le 31 décembre 2025.

Le compte de l’utilisateur anonyme qui a remporté la plus grosse mise semble avoir été supprimé mais une sauvegarde de son profil existe sur archive.org. On peut y voir qu’il avait aussi parié de plus petites sommes sur l’invasion du Venezuela par les États-Unis et l’invocation par Donald Trump de la loi américaine sur les pouvoirs de guerre contre le Venezuela, de même avant le 31 janvier 2026 :

Aujourd’hui, sur la page d’accueil de Polymarket, on peut voir que l’actualité géopolitique est particulièrement visée par les parieurs même si le sport, et notamment le Super Bowl, est aussi présent :

Plusieurs paris gagnés sur la plateforme sont régulièrement mis en avant. Ainsi, la plateforme s’est fait remarquer vraiment pour la première fois en 2023, lorsque des utilisateurs ont parié sur la fin tragique des richissimes habitants du sous-marin touristique Titan. En novembre 2024, un utilisateur de la plateforme, se présentant comme français, a plus que doublé sa mise en remportant 155 millions de dollars sur l’élection de Donald Trump.

Mais ce cas particulier de pari sur Maduro pose plus que jamais des questions sur l’encouragement au délit d’initié et à la manipulation de l’information par ce genre de plate-forme où l’utilisateur peut faire des paris peu contrôlés sur tout et n’importe quoi.

Une manipulation des cartes en coïncidence avec un pari

Mi-novembre, ce n’est pas un délit d’initié qui a été repéré mais la manipulation de certaines données en sources ouvertes utilisées par Polymarket à propos du front opposant la Russie et l’Ukraine. En effet, certains utilisateurs parient froidement sur les différentes avancées militaires concernant l’invasion en cours de l’Ukraine par la Russie. On peut voir, par exemple, que certains internautes ont parié sur la possibilité que la Russie frappe la municipalité de Kyïv avant le 31 décembre ? Début décembre, le Kyiv Post dénonçait une « guerre transformée en casino mondial ».

Pour valider les gains sur ce sujet, Polymarket utilise notamment une carte éditée en direct par le think tank néoconservateur américain Institute for the Study of War. Celui-ci est censé mettre à jour sa carte avec une méthodologie qu’il décrit sur son site. Mais selon 404 Media, cette carte a été éditée pour afficher une fausse avancée russe sur la ville de Myrnohrad le 15 novembre, ce qui coïncide avec un pari fait sur la plateforme. La plateforme affiche plus d’1,3 million de dollars de paris concernant la prise par l’armée russe de cette ville.

Rappelons qu’en France, les jeux de hasard et d’argent sont strictement encadrés par le Code de la sécurité intérieure, même s’il a été récemment modifié par la loi 2010 - 476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne. En novembre 2024, l’Autorité nationale des jeux a examiné la plateforme et a conclu que son offre était illégale sur le territoire français.

Un système de prédiction pour le milieu financier ?

Mais Polymarket et Kalshi, son concurrent direct, ne se sont pas montées financièrement comme de simples plateformes de pari en vogue sur internet. Comme l’explique Bloomberg, elles prétendent pouvoir fournir des informations utiles aux sphères économiques. Polymarket et Kalshi vendent leur plateforme comme une nouvelle forme de sondages prédictifs basée sur l’argent misé par tout un chacun à propos de son quotidien.

De fait, si elles font la une des médias sur des paris politiques, géopolitiques ou de conquêtes militaires, une bonne partie des paris s’intéresse à d’autres sujets comme le résultat de matchs de football américains ou d’autres sujets de société.

C’est sur cette promesse en tout cas, que des entreprises de la finance comme CME, Intercontinental Exchange ou Cboe Global Markets ont investi des milliards de dollars dans ce secteur. Les valeurs des deux entreprises ont doublé pendant l’année 2025 en atteignant plus de 10 milliards de dollars.

« Il est dans leur intérêt de nous convaincre que cela va être extrêmement bénéfique pour la société », explique à Bloomberg l’économiste de la Dartmouth Business School Ken French, pour qui « [ces] marchés créent en grande partie des risques qui n’ont pas lieu d’être ».

NVIDIA dévoile ses CPU Vera avec 88 cœurs Arm et GPU Rubin avec 336 milliards de transistors

6 janvier 2026 à 11:43
Rubin sur l’ongle
NVIDIA dévoile ses CPU Vera avec 88 cœurs Arm et GPU Rubin avec 336 milliards de transistors

La nouvelle génération de plateforme pour l’IA de NVIDIA est là. Il s’agit d’un couple CPU/GPU avec Vera Rubin. Les performances sont en hausse, comme le nombre de transistors sur le GPU Rubin qui augmente de 60 % ! D’autres composants sont mis à jour, notamment sur les échanges entre puces et le réseau.

Au CES 2026 de Las Vegas, NVIDIA parle de sa plateforme Rubin, qui viendra remplacer Blackwell. Rubin est « construite à partir de six nouvelles puces, chacune avec un rôle spécifique dans l’usine de l’IA et pensée dès le départ pour fonctionner au sein d’un système unifié à l’échelle d’un rack ».

Vera remplace Grace (CPU), Rubin remplace Blackwell (GPU)

Rubin est aussi le nom du nouveau GPU de nouvelle génération, qui viendra donc succéder à Blackwell (en hommage au mathématicien David Blackwell). Rubin est un hommage à Vera Rubin, une « astronome américaine principalement connue pour son étude sur la vitesse de rotation des étoiles dans les galaxies spirales », rappelle Wikipédia.

Et Vera alors ? Le nom a été donné à la partie CPU qui accompagne la plateforme Rubin. Elle succède à Grace, présentée en même temps que la génération Hopper de GPU, avant Blackwell (et après Ampere). Grace Hopper était un hommage à une informaticienne américaine.

On résume :

  • Plateforme Hopper : CPU Grace, GPU Hopper
  • Plateforme Blackwell : CPU Grace, GPU Blackwell
  • Plateforme Rubin : CPU Vera, GPU Rubin

CPU Vera : 88 cœurs Arm, « multithreading spatial » et la blinde de cache


Il reste 89% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Lego Smart Play : et les briques devinrent capables d’interactions contextuelles

6 janvier 2026 à 11:23
AFOLant
Lego Smart Play : et les briques devinrent capables d’interactions contextuelles

Lego lancera début mars les premiers sets d’une nouvelle collection baptisée Smart Play, articulée autour d’une brique intelligente, d’un tag et d’une figurine capables d’interactions croisées. Le groupe présente ce trio Smart Brique, Smart Tag et Smart Minifigurine comme une évolution majeure dans la façon de jouer avec ses kits de construction. Le tout sans écran, ni IA.

Dévoilée lundi à l’occasion du CES de Las Vegas, la gamme Lego Smart Play ne serait rien de moins que la « plus grande innovation » depuis l’introduction des mini-figurines, en 1978. Au-delà des superlatifs chers au marketing, l’annonce repose effectivement sur une nouveauté inédite chez le fabricant danois : l’intégration de fonctions connectées au niveau d’une brique de taille standard, la classique 2×4.

Une brique 2×4 centralise les interactions

Dotée d’un système électronique (un ASIC développé en interne) et d’une batterie rechargeable par induction (sur une base dédiée), cette Smart Brick fonctionne en adéquation avec deux éléments satellites : de petites tuiles (2×2 tenons) baptisées Smart Tags et des mini-figurines, elles aussi qualifiées de « smart ». Et ce sont les interactions entre ces trois éléments qui sont censées offrir une dimension supplémentaire aux jeux Lego.

« La technologie permet ainsi aux créations des constructeurs de devenir interactives, en réagissant aux actions par des sons et des comportements appropriés, pour une expérience de jeu véritablement réactive », promet le fabricant.

En pratique ? Dissimulée au sein d’une construction Lego (par exemple, un véhicule), la Smart Brick met à profit sa panoplie de capteurs (accéléromètres, micro, détecteur de lumière) pour déclencher son haut-parleur et ses éclairages en fonction de ses interactions avec les tuiles et les mini-figurines situées à proximité.

Une brique « intelligente » émet du son et de la lumière en fonction des interactions mesurées avec les tuiles et les figurines du set

Dans cette logique, ce sont les tags et les mini-figurines qui amènent le contexte. Le tag va par exemple permettre de définir si la construction en cours est une voiture, un vaisseau spatial ou un hélicoptère, tandis que la figurine servira à déclencher des réactions liées au contexte de jeu :

« Lorsqu’elle est placée au-dessus ou à proximité d’un Smart Tag, la Smart Brique devient ce que le Smart Tag lui demande. Cela signifie qu’elle peut être tour à tour un hélicoptère puis une voiture. 
Mais elle peut aussi détecter la présence de Smart Minifigurines pour donner vie à vos histoires d’une manière inédite. La Smart Brique génère les sons, les humeurs et les réactions uniques de chaque Smart Minifigurine. »

Un système de positionnement intégré

Outre les nombreux kits dédiés à l’apprentissage de la programmation, les amateurs de Lego ont certainement en tête l’expérience des figurines Mario « connectées », qui offraient une dimension interactive, mais sortaient des standards de construction de la marque. Ici, pas de personnage alimenté par des piles LR6 : les éléments Smart Play ont vocation à prendre place au cœur des sets traditionnels, et c’est via des constructions emblématiques de l’univers Star Wars que le groupe danois va tester le marché.

En jaune, le chargeur à induction qui permet d’alimenter la Smart Brique

Les trois premiers produits compatibles Smart Play sortiront ainsi début mars avec un Tie Fighter (set 75421, 473 pièces, figurine Dark Vador, 70 euros), un X-Wing (set 75423, 584 pièces, figurines Luke Skywalker et Princesse Leia, 90 euros) et une scène baptisée Throne Room Duel & A-Wing (set 75427, 962 pièces, deux briques, trois figurines et cinq tags, 160 euros).

Les possibilités en matière d’interactions sont censées s’enrichir au fur et à mesure que le nombre de composants Smart augmente. Lego affirme en effet que chaque élément est capable de se positionner dans l’espace par rapport à ses homologues. « Cela signifie que ces éléments peuvent réagir à la présence des autres, savoir dans quelle position il se trouvent, si on les fait tourner, balancer, si on les lance… tout ! », promet le groupe dans un article dédié à la genèse du projet.

Pour ce faire, Lego indique avoir mis au point un protocole baptisé BrickNet, basé sur le Bluetooth, adossé à un système de positionnement magnétique propriétaire, le Neighbour Position Measurement (NPM). La combinaison des deux doit par exemple permettre de déclencher des interactions différentes selon que la figurine de Luke ou celle de Leia est installée au cockpit du X-Wing. C’est également elle qui servira à détecter si le vaisseau est posé, en mouvement, ou situé à proximité d’un autre set équipé en Smart Play.

Lego, qui revendique neuf ans de R&D et 25 brevets déposés, laisse en effet entendre que son environnement Smart Play a vocation à s’enrichir de nouveaux appareils et donc de nouvelles possibilités d’interactions.

Telegram touché par le gel de 427 millions d’euros d’obligations russes

6 janvier 2026 à 10:52
Money money money
Telegram touché par le gel de 427 millions d’euros d’obligations russes

Alors que Pavel Durov multiplie les efforts pour distancier sa plateforme du pouvoir russe, 427 millions d’obligations émises par Telegram se retrouvent gelées dans le cadre des sanctions occidentales contre le pays de l’Est.

Mise à jour 15h40 : ajout de la précision de Telegram.

Le patron de Telegram Pavel Durov a beau avoir manœuvré pour élaguer les liens de son entreprise avec la Russie, 500 millions de dollars (427 millions d’euros) d’obligations sont gelées dans le cadre des sanctions occidentales contre Moscou.

Au fil des années récentes, la société a lancé une série d’émissions obligataires pour racheter sa dette existante, détaille le Financial Times, dont 1,45 milliard d’euros en mai dernier. Telegram aurait ainsi racheté l’essentiel des obligations arrivant à échéance en 2026. Les 427 millions d’euros d’obligations gelées viennent illustrer les liens que la société maintient néanmoins avec le pays d’origine de son fondateur.

Pavel Durov : une carrière de refus de partage de données utilisateurs

Historiquement, Pavel Durov s’est fait connaître pour avoir cofondé VKontakte, l’équivalent russe de Facebook, en 2007. Après avoir refusé de partager les données de certains utilisateurs ukrainiens avec les services secrets russes, en 2014, Pavel Durov a déclaré s’être fait licencier. Il a ensuite été contraint de vendre ses parts à des entités liées au Kremlin.

En 2013, avec son frère Nikolai, l’entrepreneur a co-fondé Telegram, dont il a refusé de partager le code source avec le FSB. D’abord implantée à Berlin, le siège de l’entreprise a rapidement été déménagé à Dubai.

En avril 2018, alors que son patron avait de nouveau refusé au Kremlin d’accéder à des données d’utilisateurs, la plateforme de messagerie était bannie de Russie. Le blocage a été levé deux ans plus tard, en juin 2020, après que l’entreprise a démontré sa « volonté » d’aider les autorités locales dans leur lutte contre le terrorisme. À l’été 2025, le service était de nouveau limité en Russie, aux côtés de WhatsApp (Meta), au motif qu’il n’agirait pas suffisamment pour lutter contre la fraude et le terrorisme.

L’épineuse question des liens de Telegram avec la Russie

Malgré ces passes d’armes, les doutes subsistent : quels sont les liens qu’entretient Telegram avec le Kremlin ? Pour Pavel Durov, toute spéculation sur le sujet relève de la « théorie du complot ». Son récent biographe Nikolay Kononov, qui décrit l’entrepreneur comme ayant « un QI très élevé », mais « enclin aux théories du complot », déclare n’avoir trouvé aucune preuve que Durov ait travaillé avec ou pour le gouvernement russe.

En 2025, une enquête de l’Organized Crime and Corruption Reporting Project (OCCRP) révélait néanmoins que le maintien de ses serveurs et la gestion d’une large part des adresses IP du service de messagerie étaient assurés par la société de Vladimir Vedeneev, un ingénieur russe ayant travaillé à plusieurs reprises avec des acteurs de la défense russe et les services du FSB.

L’information relative aux 427 millions d’euros d’obligations touchés par les sanctions occidentales, elle, émerge alors que Pavel Durov travaille à une possible entrée en bourse de sa société. Auprès de Next, Telegram note que le montant fait référence « à l’émission obligataire de 2021 » et ne présente, en soi, « aucun risque » pour l’entreprise. « Conformément aux pratiques standard, les fonds destinés au remboursement des obligations sont transférés à un intermédiaire international, et les paiements ultérieurs aux obligataires ne relèvent plus de la responsabilité de la société, même si certains détenteurs ne sont pas en mesure de les recevoir. »

Formulé dès le printemps 2024, le projet d’entrée en bourse de la société avait pris du retard sous le coup des sanctions que lui a imposées la justice française à partir de l’été 2024. Les mesures qui visaient son dirigeant ont été définitivement levées en novembre 2025.

Dell ressuscite finalement sa marque XPS, mais l’IA ne fait pas vendre

6 janvier 2026 à 10:19
Bonne épiphanie 2026
Dell ressuscite finalement sa marque XPS, mais l’IA ne fait pas vendre

Dans une même conférence, Dell a relancé sa gamme XPS et évoqué la « promesse non tenue de l’IA ». Le constructeur revient dans une position qui se veut à l’écoute des retours.

Il y a un an jour pour jour, Dell abandonnait ses gammes XPS (entre autres). Toutes les machines étaient réorientées selon trois gammes : Dell pour le grand public, Dell Pro pour la productivité et Dell Pro Max pour les performances maximales. Chaque gamme était découpée en trois segments : Base, Plus et Premium. Alienware restait une entité à part, toujours active et développée séparément, à destination surtout des joueurs.

Alors que revoilà les XPS

Pour fêter l’anniversaire de cette disparition, Dell relance les XPS. La réponse du marché semble avoir été particulièrement négative et le constructeur s’est adapté. Deux machines ont été présentées, les nouveaux XPS 14 et 16, tous deux équipés des Core Ultra Series 3 d’Intel, tout juste présentés eux aussi au CES de Las Vegas.

Selon le constructeur, tout est nettement mieux : le processeur, l’écran (allant du LCD classique au Tandem OLED), la partie graphique intégrée, la webcam intégrée, etc. Même l’autonomie est à l’avenant, annoncée pour 27 heures en usage classique et jusqu’à 40 heures en lecture vidéo locale (batterie de 70 Wh, densité de 900ED).

Les machines sont disponibles aux États-Unis pour respectivement 2 049 et 2 199 dollars dans leur configuration de base. D’autres configurations et une disponibilité plus générale dans d’autres marchés sont attendues pour février. Des versions Ubuntu seront également proposées plus tard dans l’année, de même qu’un nouveau XPS 13.

Parler d’IA à tout bout de champ ne fait pas vendre

Relancer la gamme XPS peut être vu comme un aveu d’échec. Dell en a d’ailleurs fait un autre : parler d’IA à tout bout de champ ne fait pas vendre, comme le rapporte notamment PC Gamer. Jeff Clarke, vice-président et directeur des opérations, était ainsi sur une scène du CES pour évoquer le marché, notant une migration lente. Il a surtout mentionné la « promesse non tenue de l’IA », couplée à une « pénurie de mémoire assez importante ». Durant la présentation des nouveaux produits, ce fut la seule mention de l’IA.

Interrogé à ce sujet par nos confrères, Kevin Terwilliger, responsable produit chez Dell, confirme : « Une chose que vous remarquerez, c’est que le message que nous avons transmis autour de nos produits n’était pas axé sur l’IA. Donc, un petit changement par rapport à il y a un an, quand tout tournait autour des PC IA ».

Toutes les machines annoncées contiennent un NPU, mais « ce que nous avons appris au cours de cette année, surtout du point de vue des consommateurs, c’est qu’ils n’achètent pas en fonction de l’IA », a reconnu Kevin Terwilliger. Il a ajouté : « En fait, je pense que l’IA les embrouille probablement plus qu’elle ne les aide à comprendre un résultat précis ». Des réponses jugées rafraichissantes et bienvenues par nos confrères.

[Test] Chargeurs USB Ugreen (45 et 65 watts) à moins de 23 euros… tout va bien !

6 janvier 2026 à 08:48
Green ? Super Green !
[Test] Chargeurs USB Ugreen (45 et 65 watts) à moins de 23 euros… tout va bien !

Après avoir passé en revue des chargeurs à moins de 20 euros vendus sur des marketplaces comme Amazon, Cdiscount et AliExpress, nous nous sommes penchés sur des chargeurs de marques connues en France. Nous commençons avec Ugreen et deux chargeurs de 45 et 65 watts, achetés sur la marketplace d’Amazon.

Ugreen est une marque chinoise fondée à Shenzhen au début des années 2010. Pour se lancer à l’international, elle a massivement utilisé des plateformes comme Amazon, AliExpress et eBay. En juillet 2024, Ugreen débute en bourse… puis se casse la figure dans les semaines qui suivent ; son cours est divisé par deux. Depuis août 2025, Ugreen reprend du poil de la bête et dépasse largement son niveau d’introduction (+ 27,60 % depuis le début).

L’entreprise s’est largement diversifiée et propose désormais des batteries externes, des stations d’accueil, des câbles, des NAS, etc. Aujourd’hui, nous allons nous concentrer sur deux chargeurs USB avec trois ports de charge chacun, dont deux Type-C à chaque fois.

Ils revendiquent respectivement 45 et 65 watts. Promesses tenues pour respectivement moins de 17 et 23 euros ? Si oui, dans de bonnes conditions et sans trop chauffer ? Une chose est sûre, nous sommes à mille lieues des chargeurs USB « no name » que nous avions achetés quelques euros sur les marketplaces de plusieurs boutiques en ligne.

Ugreen X527 : chargeur GaN avec trois ports USB, jusqu’à 45 watts


Il reste 94% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Windows : Microsoft se débarrasse de l’activation par téléphone

6 janvier 2026 à 08:13

Plusieurs médias (dont Neowin et Tom’s Hardware) ont remarqué que l’activation par téléphone ne fonctionnait plus pour toutes les versions de Windows, de 7 à 11.

Si vous ne l’avez jamais utilisée, cette méthode permet d’activer Windows quand on se retrouve sans connexion internet. Elle était également utile à une certaine époque, chez les personnes qui modifiaient plusieurs pièces de leur PC. Windows détectait alors les modifications matérielles et il pouvait être nécessaire de procéder à une nouvelle activation, le processus étant lié à la configuration matérielle.

Selon les remontées constatées, cette méthode ne fonctionne plus. À la place, les personnes reçoivent un SMS avec un lien vers une page web. C’est bien sur celle-ci que les manipulations se feront ; mais avec une différence de taille : il est nécessaire d’entrer le compte Microsoft, ce que l’activation par téléphone n’exigeait pas.

Selon Ben Kleinberg, on tombe automatiquement sur un message vocal, qui annonce : « Le support de l’activation du produit a été déplacé en ligne. Pour le moyen le plus rapide et le plus pratique d’activer votre produit, veuillez visiter notre portail d’activation de produit en ligne à aka.ms/aoh ». On peut voir d’ailleurs sur l’adresse en question que le site est clairement pensé pour la navigation mobile. Sur ce point, Tom’s Hardware indique qu’un collaborateur a tenté l’opération sur la version iOS de Firefox, sans succès, mais que la procédure a bien fonctionné avec Safari.

La méthode ne semble plus fonctionner par aucun moyen, où que soit déclenchée la procédure. Pourtant, la documentation officielle de Microsoft indique que l’on peut activer par téléphone. Il est probable qu’elle n’ait pas été mise à jour, nous avons posé la question à Microsoft pour nous en assurer.

☕️ Les caméras « touristiques » des communes dans le viseur de la CNIL

6 janvier 2026 à 07:50

Lorsque la CNIL parle des caméras « touristiques », il s’agit de celles utilisées par des communes pour « valoriser un territoire ». La Commission rappelle qu’elles « ne devraient pas permettre la collecte de données personnelles ».

Problème : « lors de contrôles, la CNIL a constaté qu’il était parfois possible de distinguer, sur les vidéos et photographies diffusées par les communes sur leurs sites web à des fins de promotion touristique, des personnes dans leur quotidien ainsi que des plaques d’immatriculation des véhicules dans le champ des caméras ».

La Commission explique que cela constitue un traitement de données personnelles et qu’il doit donc respecter le RGPD. Certaines communes ont fait valoir « que l’utilisation de ces caméras […] reposait sur la base légale de l’intérêt légitime ».

La CNIL n’est pas du même avis et parle d’un « traitement de données personnelles disproportionné au regard de sa finalité ». De plus, « ce type de dispositif ne permet pas aux personnes de s’opposer à cet enregistrement avant le recueil des images ». Les communes ciblées et les griefs précis ne sont pas indiqués.

Les caméras permettaient d’observer « des moments de vie personnels » comme ceux aux terrasses de bars, ou lors de manifestations sur la voie publique, mais aussi des moments « intimes » avec des caméras sur les entrées et fenêtres d’habitations par exemple. La Commission rappelle aussi qu’il existe des risques de « cambriolages, harcèlement, chantage, violences conjugales ».

La CNIL n’interdit pas les caméras touristiques, mais à condition qu’elles respectent la vie privée des personnes. Un exemple de bonnes et mauvaises pratiques est donné avec Notre-Dame à Paris :

PC Copilot+, voitures et robots : le triptyque de Qualcomm au CES

6 janvier 2026 à 07:19
Triptyque et pas criptyque !
PC Copilot+, voitures et robots : le triptyque de Qualcomm au CES

Au CES, Qualcomm fait des annonces autour des ordinateurs portables avec ses deux nouvelles puces Snapdragon X2 Plus, des voitures (connectées) avec Snapdragon Digital Chassis et des robots avec Dragonwing IQ10.

Comme toujours avec le CES de Las Vegas, les annonces sont nombreuses du côté des fabricants de puces. On ouvre le bal avec Qualcomm et sa gamme de SoC Snapdragon X2 Plus, avec des cœurs Oryon de 3ᵉ génération.

Snapdragon X2 Plus : 6 ou 10 cœurs au choix, avec ou sans « Performance »

Le processeur vient donc se positionner en dessous des Snapdragon X2 Extreme et Elite annoncés en septembre dernier. Ils ont pour rappel eux aussi des cœurs Oryon de troisième génération : 18 jusqu’à 4,4 GHz pour la version Extreme, 18 ou 12 jusqu’à 4 GHz pour la version Elite.

La version Plus du Snapdragon X2 ne propose que six ou dix cœurs maximum, là encore jusqu’à 4 GHz. Qualcomm dispose de deux types de cœurs : les Prime (les plus rapides) et les Performance (moins énergivores).

La version du X2 Plus avec dix cœurs dispose de deux six cœurs Prime et de quatre cœurs Performances, tandis que la version à six cœurs laisse tomber les cœurs Performance pour n’avoir que des Prime. À voir les conséquences que cela aura, surtout sur l’autonomie des machines.

Voici notre tableau récapitulatif des SoC Qualcomm avec des cœurs Oryon de 3ᵉ génération :

Des ordinateurs Copilot+ arrivent, avec jusqu’à 80 TOPS pour l’IA

Pas de changement pour le NPU qui revendique une puissance de calcul de 80 TOPS sur des entiers en 8 bits. La LPDDR5x grimpe jusqu’à 9 523 MT/s (MegaTransferts par seconde) avec une capacité de 128 Go au maximum ; le bus est sur 128 bits, la bande passante de 152 Go/s.

Attention toutefois à la partie graphique sur laquelle Qualcomm ne donne que très peu d’informations (comme trop souvent) : il s’agit dans les deux cas d’un Adreno X2-45 cadencé à 1,7 GHz sur le Snapdragon X2 Plus avec dix cœurs, contre 0,9 GHz seulement sur la version six cœurs ; soit un rapport quasiment du simple au double…

Du classique pour le reste avec huit lignes PCIe 5.0, quatre lignes PCIe 4.0, de l’USB4 (40 Gb/s), du Wi-Fi 7 et Bluetooth 5.4 via le FastConnect 7800 System, de la 5G jusqu’à 10 Gb/s avec le modem Snapdragon X75, un ISP Spectra pour le traitement des images, etc. Tous les détails sont disponibles dans ce document (pdf).

Les nouveaux Snapdragon X2 Plus seront disponibles dans des PC estampillés Copilot+ durant le premier semestre de l’année. Ce sont pour rappel des portables avec au moins 40 TOPS pour le NPU. Les machines seront moins performantes que celles avec des SoC Snapdragon X2 Elite (et Extreme évidemment) : l’autonomie sera aussi à surveiller, surtout pour la version six cœurs.

Voitures et robots : les autres annonces de Qualcomm

Cette nouvelle gamme de puces n’était pas la seule annonce, loin de là. Qualcomm annonce aussi un renforcement de son partenariat avec Google autour de la voiture connectée et de sa plateforme Snapdragon Digital Chassis. Le fabricant veut notamment apporter de « l’IA agentique et du calcul haute performance aux véhicules ». Le CES est aussi l’occasion d’annoncer un partenariat avec Leapmotor.

Toujours dans le monde de l’automobile, mais plus particulièrement sur les fonctions d’aide à la conduite ADAS (Advanced Driver Assistance System), Qualcomm s’associe à ZF « pour fournir une solution ADAS de pointe et évolutive qui combine des capacités avancées de calcul et de perception de l’IA ».

L’autre gros morceau des annonces de Qualcomm concerne les robots avec la plateforme Qualcomm Dragonwing IQ10. Le constructeur parle du « cerveau du robot » avec un ensemble complet qui « intègre matériel, logiciel et IA ».

Qualcomm indique travailler avec plusieurs entreprises du secteur : Advantech, APLUX, AutoCore, Booster, Figure, Kuka Robotics, Robotec.ai et VinMotion « afin de proposer à grande échelle des robots ». Le robot VinMotion’s Motion 2 (présenté il y a une semaine) est exposé sur le stand de Qualcomm ; il est par contre équipé de la plateforme de la génération précédente, la Qualcomm Dragonwing IQ9.

Reçu avant avant-hierNext.ink

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 16:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

5 janvier 2026 à 15:13
Vous êtes dans la matrice
Pour Microsoft, le slop de l’IA est un sujet dépassé, place à l’IA utile

Satya Nadella, CEO de Microsoft, blogue désormais sur l’IA. Selon lui, le débat sur le « slop » est un sujet presque dépassé. Il préfère évoquer 2026 comme une « année charnière » et ce qui, selon lui, demande aujourd’hui le plus de réflexion : trouver des débouchés à ce qu’il considère comme une évolution drastique de la pensée.

Microsoft est l’un des acteurs clés de l’IA, ne serait-ce que par son investissement massif dans OpenAI, avant l’emballement que l’on constate aujourd’hui. La société a cependant un problème : un sérieux écart entre la vision de ce que pourraient accomplir ses différents Copilot et ce qu’ils peuvent faire réellement.

Dans un contexte trouble pour l’entreprise, son CEO prend la parole, avec un premier billet de blog pour explorer quelques réflexions. Certaines recouvrent de vraies questions, notamment sur la direction à donner aux évolutions de l’IA ou le manque d’expérience dans son exploitation, quand d’autres illustrent une bulle de réflexion hors de laquelle plus rien d’autre ne semble exister.

Encore une année charnière

2026 sera une « année charnière » pour l’IA pour Satya Nadella. « Oui, encore une autre », reconnait le CEO de Microsoft. Il estime cependant qu’elle semble « différente à quelques égards notables ».

La phase initiale de découverte est selon lui terminée. Place désormais à la diffusion généralisée, le public prenant peu à peu ses marques et commençant à faire la distinction entre « spectacle » et « substance ». La direction prise par la technologie serait plus claire et plus sérieuse désormais, maintenant que l’émerveillement est passé.

Le débat autour du « slop » (bouillie) n’aurait plus lieu d’être, car il serait surtout lié à des cas d’utilisation sans réel débouché : un fonctionnement à vide de l’IA, sans apport réel dans la vie des gens. On pourrait ajouter qu’il s’agit aussi de l’inévitable produit d’une course à la vitesse et aux opportunités, largement accélérée par l’IA et à ses multiples impacts, notamment dans le monde de la cybersécurité.

Et comme si le CEO n’était pas assez clair, il insiste sur l’idée que l’IA doit amplifier l’humain, pas le remplacer. Il n’hésite pas à reprendre l’image de la « bicyclette pour l’esprit » que Steve Jobs utilisait pour décrire l’outil informatique en général. L’IA devrait ainsi être considérée comme aidant la pensée et l’action humaines, pas s’y substituant.

Systèmes complexes et résultats responsables

Pour Satya Nadella, les modèles isolés comme ChatGPT et Gemini ne sont pas l’avenir. Une vision que l’on a déjà entendue, par exemple chez l’ingénieur Horacio Gonzalez. Selon lui, l’avenir appartient à des modèles plus petits, plus spécialisés et coopérant.

Selon le CEO de Microsoft, l’important maintenant est de construire des systèmes qui orchestrent plusieurs modèles, gèrent la mémoire, l’accès aux données et l’utilisation d’outils de façon sûre. Une manière élégante de dire que l’intégration et l’ingénierie comptent plus que la taille brute des modèles.

Il « milite » également pour des résultats réels et responsables : pour que l’IA soit acceptée par la société, elle doit avoir un impact mesurable. « Les choix que nous ferons sur l’endroit où nous utiliserons nos rares ressources énergétiques, de calcul et de talents auront de l’importance. C’est la question socio-technique autour de laquelle nous devons construire un consensus », ajoute Nadella.

Microsoft dans une bulle

L’année 2025 a probablement été pénible pour Microsoft. La société semble captive d’une bulle dans laquelle elle s’est elle-même installée : la certitude que l’IA représente son futur, sans pour autant arriver à lui faire faire ce qu’elle veut. Ou, plus exactement, sans que les utilisateurs aient la garantie d’arriver au résultat attendu.

Satya Nadella résume tout le problème : « Ce sera un processus de découverte chaotique, comme toute technologie et développement de produits l’est toujours ». Autrement dit, il s’agit d’une technologie puissante, presque trop actuellement, et les usages vont continuer à s’y casser les dents jusqu’à ce que la brume se dissipe un peu plus.

Le souci de Microsoft est cependant très concret. Après avoir autant investi dans l’IA, les actionnaires attendent probablement un retour sur investissement qu’ils ne voient pas venir. D’où un « forcing » urgent dans toutes les gammes de produits. Avec à la clé des augmentations tarifaires, justifiées selon l’entreprise par les capacités supplémentaires. Et tant pis si ces capacités ne sont pas clairement définies ou que leurs résultats ne sont pas prévisibles.

C’est là que la tension s’illustre le plus, comme on l’a vu avec Windows. Microsoft veut en effet faire de son produit le premier « système agentique », mais son annonce n’est pas bien passée. Un très grand nombre de personnes ont répondu très négativement à cette perspective, beaucoup demandant que Windows 11 remplisse d’abord sa mission initiale de système d’exploitation, avec sécurité, fiabilité et performances.

« Les premiers kilomètres d’un marathon »

Sur ce point, Satya Nadella n’offre aucun début d’éclaircie : « Nous sommes encore dans les premiers kilomètres d’un marathon. Beaucoup de choses restent imprévisibles ». Son intervention est avant tout philosophique, l’IA étant comparée à « un échafaudage pour l’esprit humain », même si la mention de la rareté énergétique est notable.

Le ton général est en outre inhabituellement sobre pour un dirigeant d’une société technologique aussi importante. Surtout après les prises de position de certains responsables de l’entreprise. On se souvient que face au manque d’enthousiasme sur les évolutions annoncées de Windows 11, Mustafa Suleyman lui-même, responsable de l’IA, avait traité de « cyniques » les personnes décriant l’annonce.

Entre les lignes, on devine quand même l’intention : recalibrer les attentes et repositionner Microsoft sur une ingénierie voulue « utile », en opposition à la puissance brute des gros modèles. On peut y voir également une forme d’aveu, dans le sens où les progrès technologiques ne suffisent pas si le public n’y trouve aucune valeur réelle, au-delà de l’amusement passager. Moins de buzz, plus de concret ?

Les AI Overviews de Google fournissent aussi des conseils de santé erronés

5 janvier 2026 à 14:37
Aïe aïe AI Overviews
Les AI Overviews de Google fournissent aussi des conseils de santé erronés

Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.

Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».

Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».

Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.

Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :

« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »

Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.

« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :

« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »

Des synthèses générées par IA qui changent selon le moment

Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :

« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »

Elle se dit également « extrêmement préoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :

« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable. Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »

Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :

« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »

Des « captures d’écran incomplètes », plaide Google

Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.

Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :

« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »

Vague massive de deepfakes générés par Grok : la justice française étend son enquête

5 janvier 2026 à 14:01
IA pas de consentement
Vague massive de deepfakes générés par Grok : la justice française étend son enquête

Grok a généré des deepfakes de femmes déshabillées sans leur consentement, parfois des mineures, à la demande massive d’utilisateurs de X qui ont créé une tendance sur ce réseau. La justice française ajoute cette pièce au désormais épais dossier contre les deux entreprises d’Elon Musk.

La semaine dernière, avant le réveillon de la Saint-Sylvestre, nombre d’utilisateurs du réseau social X ont profité de la publication par des utilisatrices de photos d’elles-mêmes dans des tenues de fête pour les déshabiller virtuellement sans leur consentement, à l’aide de Grok. Saisi par plusieurs députés français et par des membres du gouvernement, le parquet de Paris va élargir l’enquête qu’il a déjà ouverte à propos de X et de xAI.

L’humiliation des femmes par le montage d’images à caractère sexuel n’est pas nouvelle. Mais l’IA générative permet une massification du phénomène depuis 2023 alors que des chercheuses et chercheurs avaient repéré dès 2021 que les ensembles de données utilisés pour entraîner les LLM comme LAION-400M contenaient de la misogynie, de la pornographie et des stéréotypes malveillants.

Début 2024 marquait une nouvelle étape : des utilisateurs de X partageaient massivement des deepfakes pornographiques de Taylor Swift, et quelques mois plus tard des influenceuses moins connues étaient aussi attaquées sur Instagram.

Massification via X et Grok

En cette fin d’année 2025, c’est Grok qui refait parler de lui à ce sujet. En effet, des utilisateurs du réseau social X ont massivement utilisé l’IA générative d’Elon Musk pour déshabiller virtuellement des femmes. Souvent avec une simple demande sous le partage d’une photo d’une utilisatrice, Grok générait une version de cette photo mais en représentant la personne en bikini ou plus ou moins dénudée.

En mai dernier, nos confrères de 404 expliquaient que l’outil de xAI posait très peu de freins à une demande d’utilisateur de déshabiller des femmes en reprenant des photos déjà existantes pour les trafiquer en objet de désir des utilisateurs du réseau social X. Mais cette « tendance » dégradante a été tellement suivie en cette fin d’année 2025 que n’importe quel utilisateur pouvait voir ce genre d’images dans la colonne « pour vous » du réseau social, avec certaines images ciblant des jeunes filles mineures.

« Je me suis retrouvée plus ou moins dévêtue sur plusieurs photos totalement sans mon consentement », raconte Fafa, une streameuse de 28 ans à France Info. « Trois ou quatre personnes s’étaient amusées à utiliser l’IA de X en vue de me dévêtir » en faisant un deepfake à partir d’un selfie de réveillon qu’elle avait posté le 31 décembre. Elle envisage de porter plainte. La doctorante en études théâtrales Marie Coquille-Chambel a vécu le même genre de violences sur le réseau social d’Elon Musk et a ensuite subi un harcèlement massif après l’avoir signalé sur X.

Devant la justice française

Le 2 janvier, les députés Arthur Delaporte (PS) et Éric Bothorel (Renaissance) ont tous deux saisi le procureur de la République de Paris, dénonçant ces deepfakes à caractère sexuel qui « contreviennent de fait à l’article 226-8-1 du Code pénal et portent atteinte à la dignité des personnes représentées et dont les contenus ont été détournés », comme l’affirme le signalement du député du Parti socialiste.

Quelques heures plus tard, le parquet de Paris expliquait à Politico qu’il allait élargir l’enquête déjà ouverte en juillet à propos de X, au départ pour ingérence étrangère. Il l’avait déjà étendue une première fois pour prendre en compte les propos négationnistes générés en novembre dernier par Grok, toujours publiés sur X.

Le gouvernement français réagissait un peu plus tard dans un communiqué expliquant que plusieurs de ses membres avaient aussi effectué des signalements à la justice : « les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé signalent au procureur de la République ainsi qu’à la plateforme Pharos, en vertu de l’article 40 du code de procédure pénale, des contenus manifestement illicites générés par l’intelligence artificielle générative Grok et diffusés sur la plateforme X, afin d’obtenir leur retrait immédiat ».

Alors qu’Elon Musk n’avait réagi à cette « tendance » sur son réseau social qu’avec des « 🤣🤣 » à propos d’une image de lui-même en bikini générée par IA, son entreprise a communiqué via le compte de Grok en publiant un message affirmant avoir « identifié des lacunes dans [ses] mesures de sécurité » pour répondre à un signalement d’un deepfake sur une enfant. xAI affirmait « s’ [employer] à les corriger de toute urgence » et ajoutait que « le CSAM [child sexual abuse material, la pédopornographie] est illégal et interdit » en accompagnant son message d’un lien de signalement vers un site du FBI.

L’autorité malaisienne de la communication a elle aussi réagi, expliquant sur Facebook qu’elle avait « pris note avec une vive inquiétude des plaintes du public concernant l’utilisation abusive des outils d’intelligence artificielle (IA) sur la plateforme X, en particulier la manipulation numérique d’images de femmes et de mineurs afin de produire des contenus indécents, grossièrement offensants et autrement préjudiciables » et annonçait, elle aussi, lancer une enquête à ce sujet.

☕️ Flipper Zero et Raspberry Pi étaient interdits lors de l’investiture de Zohran Mamdani (New York)

5 janvier 2026 à 12:40

Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).

Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.

En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.

« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.

Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.

Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.

« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».

Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.

☕️ Elon Musk offre Starlink pendant un mois à la population vénézuélienne

5 janvier 2026 à 11:01

À la suite de l’enlèvement du chef d’État vénézuélien Nicolas Maduro par l’armée des États-Unis, accusé par la Maison Blanche d’être à la tête d’un cartel de narcotrafiquants, Starlink a annoncé fournir ses services gratuitement à la population vénézuélienne pendant un mois. 
L’opération de capture du président vénézuélien qui s’est déroulée dans la nuit de vendredi à samedi 3 janvier 2026 s’est accompagnée de frappes américaines dans le sud et l’est de la capitale de Caracas.

À la suite de ces opérations, certaines zones de la ville avaient perdu accès à l’électricité et à internet, selon l’ONG Netblocks.

Le 4 janvier, la filiale de SpaceX Starlink publiait un communiqué annonçant fournir gratuitement ses services de connexion internet via ses satellites en basse orbite aux « nouveaux » clients, comme aux « existants ».

La carte de disponibilité de Starlink indique « coming soon » (à venir) pour le Venezuela, ce qui suggère que le service n’était pas déployé sur place auparavant, quand bien même le communiqué déclare que des utilisateurs sont déjà actifs.

Capture d’écran de la carte de disponibilité de Starlink / Starlink

L’évolution des tarifs à partir du 3 février 2026 n’a pas été communiquée pour le moment.

Le Venezuela n’est pas le premier terrain de conflit dans lequel intervient Starlink.

Au déclenchement de l’offensive russe contre l’Ukraine, en 2022, l’entreprise avait déployé ses services pour pallier les pannes du réseau internet local. Si l’épisode avait d’abord été salué, rappelle CNBC, il avait rapidement soulevé la question de l’influence d’une unique entité – et de son patron Elon Musk – dans un tel conflit.

Le Pentagone avait finalement passé un contrat avec l’entreprise pour assurer le maintien de ses services en Ukraine.

À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

5 janvier 2026 à 10:17
IA débat
À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

Trois ans après l’arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l’enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».

Avant même la sortie de ChatGPT, certains étudiants utilisaient déjà les modèles de langage pour générer tout ou partie de leurs devoirs. Cette pratique, qui s’est largement popularisée avec l’arrivée du chatbot d’OpenAI, a changé les choses à l’université. Il est devenu compliqué de garder les mêmes systèmes d’évaluation. En effet, les devoirs, notamment ceux traditionnellement faits à la maison, ne peuvent plus être considérés comme des travaux personnels.

Trois ans après l’arrivée massive de l’IA générative dans notre quotidien, son utilisation est massive à l’université, par les étudiants de toutes disciplines, qu’ils soient en sciences humaines et sociales, en informatique, en philosophie, en ingénierie ou ailleurs.

Ainsi, 85 % des étudiants de l’université de Bordeaux-Montaigne (axée notamment sur la littérature et les sciences humaines et sociales) déclarent, en réponse à un questionnaire de l’établissement, avoir souvent recours aux IA génératives, et près de 70 % affirment l’utiliser tout le temps.

Si vous traînez en bibliothèque universitaire, vous pouvez parfois entendre des « il dit quoi ChatGPT ? » dans la bouche d’étudiants et d’étudiantes qui bossent leurs cours avec l’IA sans pour autant répéter bêtement ce que dit la machine.

Des universitaires appellent à l’ « arrêt de l’adoption aveugle » ou à l’« objection de conscience »

Si certains estiment que l’IA générative est là et qu’il faut faire avec, force est de constater que le sujet fait encore débat à l’université, en France mais aussi à l’étranger. Ainsi, en juin 2025, plusieurs universitaires néerlandais ont publié une lettre ouverte adressée aux universités de leur pays réclamant l’ « arrêt de l’adoption aveugle des technologies d’IA dans le milieu universitaire ». Celle-ci a recueilli plus de 1 500 signatures, dont celles de plusieurs de leurs collègues en dehors du pays.

En septembre, les enseignants-chercheurs qui ont impulsé cette lettre ouverte ont publié un nouveau texte plus précis pour expliquer « pourquoi les universités doivent prendre leur rôle au sérieux afin a) de contrer le marketing, le battage médiatique et les effets néfastes de l’industrie technologique, et b) de préserver l’enseignement supérieur, la pensée critique, l’expertise, la liberté académique et l’intégrité scientifique ».

Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l’information opéré par le cerveau à l’aide des modèles de l’informatique », comme le rappelle Wikipédia.

« Étude après étude, il apparaît que les étudiants souhaitent développer ces compétences de pensée critique, qu’ils ne sont pas paresseux et qu’un grand nombre d’entre eux seraient favorables à l’interdiction de ChatGPT et d’outils similaires dans les universités », expliquait Olivia Guest dans un communiqué de son université.

Du côté français aussi la question reste discutée. En février 2025, Florence Maraninchi, professeure en informatique à Grenoble-INP UGA, a publié un billet pour expliquer pourquoi elle n’utilise pas ChatGPT et d’autres outils du genre. « Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques », expliquait-elle.

Depuis, un manifeste pour une « objection de conscience » dans l’enseignement supérieur a été publié. Il réunit à ce jour près de 2 000 signatures. « Nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser », y expliquent les enseignants-chercheurs.

« La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique », lui rétorque le Réseau scientifique de recherche et de publication (TERRA-HN) dans un texte intitulé « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ».


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌