Vue normale

Reçu — 21 janvier 2026 Next - Articles gratuits

À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

21 janvier 2026 à 17:16
Bouh ! Même pas peur (enfin pas trop)
À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

Au forum de Davos, plusieurs dirigeants d’entreprises de la tech américaine se disputent sur la tactique à mettre en place face à la Chine dans la course à l’IA, chacun voyant midi à sa porte.

Avant que l’arrivée de Donald Trump à Davos ne recentre les discussions sur sa volonté d’annexion du Groenland, les dirigeants des géants américains de l’IA générative ont opposé leurs visions stratégiques concentrées sur un pays qu’ils considèrent comme leur seul adversaire : la Chine.

Si les volontés chinoises de s’emparer du territoire dépendant du Danemark ne se retrouvent vraiment que dans les déclarations du dirigeant américain, la Chine a montré de réelles capacités concernant l’IA il y a un an avec le modèle R1 de DeepSeek. Publié en open-source, il provoquait une déflagration sur le marché de l’IA et, même si la course était déjà bien engagée avant, les entreprises états-uniennes découvraient qu’elles avaient de sérieux concurrents dans le pays dirigé par Xi Jinping.

Cette année, les dirigeants de la tech américaine se disputent sur la stratégie à mettre en place. Certains évoquent clairement le pays comme l’éventuel futur de l’IA. Ruth Porat, la présidente et directrice des investissements chez Alphabet (Google), a affirmé à Semafor que la Chine répondrait forcément présente si un vide était laissé par les États-Unis. Elle raconte à nos confrères que des chefs d’États lui affirment ne pas vouloir rater cette transformation numérique et que « si les États-Unis ne sont pas là, nous travaillerons avec la Chine ».

« Comme vendre des armes nucléaires à la Corée du Nord »

Dans le même sens, le CEO d’Anthropic, Dario Amodei a profité d’une interview chez Bloomberg pour critiquer le choix pris récemment par l’administration Trump d’autoriser NVIDIA à exporter en Chine ses puces H200. « Les PDG de ces entreprises affirment que “c’est l’embargo sur les puces électroniques qui nous freine” », a-t-il affirmé.

Les H200 seraient les puces américaines les plus avancées qui pourraient être exportées en Chine, font remarquer nos confrères de Bloomberg et NVIDIA n’y vendrait pas ses Blackwell et celles qui sont encore en préparation dans ses laboratoires (Vera Rubin et suivantes).

Mais pour lui, cette décision va se retourner contre les États-Unis : « Nous avons plusieurs années d’avance sur la Chine en matière de fabrication de puces. Je pense donc que ce serait une grave erreur d’expédier ces puces ». Cette avance pourrait aussi fondre comme neige au soleil, avec la Chine qui met des moyens colossaux dans ses champions locaux (Huawei et Baidu) pour développer des GPU maison capables de rivaliser avec ceux de NVIDIA.

« Je trouve cela complètement fou », a ajouté Dario Amodei, « c’est un peu comme vendre des armes nucléaires à la Corée du Nord et se vanter que Boeing a fabriqué les boîtiers ». Mais il n’a pas voulu répondre quand le rédacteur en chef de Bloomberg, John Micklethwait, lui a fait remarquer que son ami, David Sacks, qui est aussi le CEO de Palantir, était « en train d’armer les Chinois ».

Une vision atténuée par Demis Hassabis, le CEO de DeepMind

Cette vision du danger chinois pour les entreprises d’IA américaines est un peu atténuée par le CEO de DeepMind, Demis Hassabis. Pour lui, il y a eu une « réaction disproportionnée » l’année dernière face à l’arrivée du modèle R1 de Deepseek.

Le développement de l’IA en Chine n’a pas encore atteint le niveau américain : « ils sont très doués pour rattraper leur retard et se rapprocher de la frontière, et ils sont de plus en plus capables de le faire, affirme-t-il, mais je pense qu’ils doivent encore prouver qu’ils peuvent innover au-delà ».

Rappelons que pour mettre en place R1, la recherche chinoise a paradoxalement été boostée par les restrictions américaines. Les chercheurs de DeepSeek se sont posé, à l’époque, la question de la possibilité de faire sans les H100 de NVIDIA et ont élaboré une architecture capable d’entrainer le modèle sur des puces H800, une version castrée pour le marché chinois.

Le CEO de NVIDIA, Jensen Huang, semble avoir volontairement évité de mentionner la Chine comme le fait remarquer le South China Morning Post. Mais pour lui, chaque pays devrait développer son propre système d’IA, en intégrant sa propre langue et sa propre culture dans les modèles.

Selon Reuters reprenant Bloomberg, la réouverture du marché pour son entreprise le pousserait à faire une visite d’ici la fin du mois. Il y a quelques mois, il marchait sur des œufs : « Nous ne pouvons servir un marché que si le pays le veut bien […] Je suis déçu par ce que je vois, mais il y a des sujets plus larges à régler entre la Chine et les États-Unis, et je le comprends ». Il avait alors « demandé à tous les analystes financiers de ne pas inclure la Chine » dans les prévisions. L’ambiance change.

Le CEO de Microsoft, Satya Nadella, semble vouloir éviter le sujet, par contre. Il est resté dans le nouveau couloir de communication de son entreprise sur le besoin de mettre en place une IA qui serait utile. « En tant que communauté mondiale, nous devons parvenir à utiliser l’IA pour faire quelque chose d’utile qui change la vie des gens, des communautés, des pays et des industries » a-t-il déclaré.

La Chine n’est pas le seul sujet de préoccupation (même s’il est sur toutes les lèvres ou presque), comme en témoigne la présidente de la fondation Signal. Elle préfère aborder les questions de sécurité que pose l’introduction des agents IA. Notamment, elle a souligné que leur intégration plus poussée dans les appareils serait « assez périlleuse ».

Fidèle au créneau de sécurité de la vie privée de Signal, elle pointe leurs besoins d’accéder à d’énormes quantités de données stockées dans les diverses applications. Et elle souligne que casser « la barrière hémato-encéphalique entre l’application et le système d’exploitation » provoquerait des risques : « Si vous accordez à un tel système des droits d’accès root, il peut être piraté ».

Et de mettre en avant le problème pour une application comme Signal : « Notre chiffrement n’a plus d’importance si tout ce que vous avez à faire est de détourner cette fenêtre contextuelle qui dispose effectivement des droits root dans votre système d’exploitation pour accéder à toutes ces données ».

ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

21 janvier 2026 à 12:50
What could go wrong?
ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

L’entreprise de Sam Altman annonce la mise en place de plusieurs barrières pour les mineurs. Des protections supplémentaires… avant de lâcher la bride à son chatbot sur ce que les adultes peuvent générer ? C’est ce qu’avait laissé entendre Sam Altman, affaire à suivre donc.

OpenAI a annoncé ce mardi la mise en place de son système interne de prédiction d’âge sur ChatGPT ainsi qu’un système de vérification d’âge géré par une entreprise tierce en deuxième option. Ce double système doit permettre de séparer les utilisations de son chatbot par les adolescents et par les adultes.

Sam Altman avait déjà sorti que son chatbot pourrait être plus érotique à l’occasion de cette séparation, mais OpenAI précise que les filtres de ChatGPT seront différents aussi pour d’autres sujets comme la violence graphique ou gore et les comportements malsains. Le déploiement est mondial, mais la société précise que, « dans l’UE, la prédiction de l’âge sera mise en place dans les prochaines semaines afin de tenir compte des exigences régionales ».

Deux solutions possibles pour franchir la barrière d’âge

Pour permettre d’accéder à son chatbot avec des restrictions beaucoup plus faibles, OpenAI propose plusieurs solutions censées filtrer les moins de 18 ans. Si les adolescents déclarent être âgés de moins de 18 ans lors de leur inscription, l’entreprise active des filtres de protection « visant à réduire leur exposition à des contenus sensibles ou potentiellement préjudiciables ».

Mais si l’utilisateur ne donne pas explicitement son âge, OpenAI utilise deux systèmes pour filtrer les mineurs. La première est un système interne de « prédiction d’âge ». Ici pas de scan de carte d’identité. OpenAI va utiliser toutes les données qu’elle collecte sur l’utilisateur pour prédire s’il a ou non plus de 18 ans. « Il examine différents signaux liés à votre compte. Par exemple, il peut examiner les sujets généraux dont vous parlez ou les moments de la journée où vous utilisez ChatGPT », affirme l’entreprise dans sa page d’aide à ce sujet. Si l’entreprise donne ces exemples, elle ne dévoile pas tous les paramètres qu’elle prend en compte pour prédire l’âge de l’utilisateur.

« Aucun système n’est parfait. Il peut parfois y avoir des erreurs », explique OpenAI dans un moment d’humilité rare dans le monde de l’IA. Elle explique que « si vous avez 18 ans ou plus et que vous avez été classé par erreur dans la catégorie des moins de 18 ans, vous pouvez vérifier votre âge ». Pour ça, l’entreprise utilise le système de vérification d’un tiers nommé Persona.

Pour cette vérification, Persona pourra, en fonction du pays où l’utilisateur se trouve, utiliser soit un selfie live soit une pièce d’identité qu’il faudra uploader. « Persona vérifie votre date de naissance et s’assure que votre selfie correspond à la photo de votre pièce d’identité », explique OpenAI, qui ajoute que « les pièces d’identité acceptées varient selon les pays ». Au passage, elle précise que Persona doit supprimer les photos des pièces d’identité et les selfies sept jours après la vérification. Le tiers envoie la date de naissance de l’utilisateur ou la prédiction d’âge. L’entreprise de Sam Altman assure conserver « ces informations en toute sécurité et les [utiliser] uniquement conformément à la politique de confidentialité d’OpenAI ».

Au passage, on peut remarquer qu’OpenAI n’a pas choisi de s’appuyer sur l’outil de scan d’iris de World ID, l’autre entreprise de Sam Altman.

Des filtres différents sur des sujets sensibles selon l’âge de l’utilisateur

À partir du moment où l’utilisateur est enregistré comme ayant plus de 18 ans par OpenAI, ChatGPT aura beaucoup moins de garde-fous.

Si l’utilisateur est détecté comme ayant moins de 18 ans, ChatGPT « applique automatiquement des protections supplémentaires conçues pour réduire l’exposition à des contenus sensibles, telles que la violence graphique ou gore, les défis viraux pouvant encourager des comportements risqués ou dangereux, les jeux de rôle à caractère sexuel, romantique ou violent, les contenus promouvant des normes de beauté extrêmes, des régimes alimentaires malsains ou du body shaming ».

Le risque est aussi que ça laisse plus de possibilités à OpenAI pour, ensuite, lâcher les vannes pour ses utilisateurs adultes et ainsi rejoindre Grok et xAI dans la génération de contenus sans réelles limites éthiques.

Rappelons qu’avec beaucoup moins de limites que ses concurrents, l’IA d’Elon Musk a généré des textes antisémites et négationnistes, des deepfakes dénudant des femmes et qu’il alimente le climatoscepticisme. La vague d’indignation mondiale suite aux deepfakes de Grok diffusés sur X ne semble pas avoir d’influence sur la levée des barrières décidée par les majors états-uniennes de l’IA.

Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

21 janvier 2026 à 07:55
Y a plus qu'à
Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

Alors que le règlement sur l’internet ouvert a dix ans, l’autorité publie un rapport sur son rôle alors que les IA génératives bouleversent Internet aussi bien dans ses usages que dans son paysage économique. Elle y affirme que l’Europe doit plus appliquer les textes déjà votés aux entreprises d’IA plutôt que d’en voter de nouveaux.

À l’occasion des 10 ans du règlement sur « l’internet ouvert » qui a ancré dans les textes européens la fin de l’itinérance et la neutralité des réseaux, l’Arcep cherche à regarder plus loin.

L’autorité a posé la question « et ensuite ? » lors d’un événement organisé au Parlement européen et publié un rapport soulignant les « défis pour l’avenir de l’internet ouvert » engendrés par l’IA générative [PDF].

Dans celui-ci, l’Arcep estime que l’arrivée de ces nouveaux outils « qui produisent des réponses uniques aux requêtes des utilisateurs » est « susceptible d’entrer en contradiction avec certaines valeurs fondatrices de l’internet au premier rang desquelles son ouverture, entendue comme la liberté pour tout internaute d’accéder, de publier et de contribuer en ligne, et son caractère décentralisé, qui repose historiquement sur une pluralité de points d’accès, d’acteurs et de sources ».

L’IA générative change beaucoup de choses pour le principe de « l’internet ouvert »

L’autorité réaffirme « l’internet ouvert » comme un « principe fondateur pour l’innovation et les libertés en ligne ». Mais elle souligne que « depuis les premiers débats relatifs à la neutralité du net, l’écosystème numérique a profondément évolué ». Et qu’« au-delà des fournisseurs d’accès à internet, de grandes plateformes numériques, telles que les moteurs de recherche, les réseaux sociaux, les systèmes d’exploitation ou les boutiques d’applications, sont devenues des intermédiaires incontournables pour accéder aux contenus et services en ligne ».

L’Arcep constate que les IA génératives changent beaucoup de choses. Ainsi, pour l’autorité, avec les chatbots IA, « l’utilisateur passe d’un rôle d’explorateur du web, naviguant de lien en lien, à celui de lecteur d’une réponse synthétique produite par un système d’IA ». Elle note cependant que, depuis l’arrivée de ChatGPT, « des progrès notables » ont été réalisés, « avec le déploiement de mécanismes permettant d’expliciter le raisonnement et d’indiquer certaines sources mobilisées ».

L’autorité souligne que l’arrivée des agents IA pourrait conduire les internautes à leur déléguer le
choix des applications ou des services utilisés. « La sélection effectuée pourrait alors être orientée par les préférences ou les partenariats, notamment commerciaux, établis par le fournisseur du service d’IA, au détriment du libre choix et de l’innovation ouverte sur internet », commente-t-elle.

Tous ces changements soulèvent « des enjeux majeurs en matière de découvrabilité, de modèles économiques et de pérennité des acteurs traditionnels de la création et de la fourniture de contenus et de services en ligne ». L’Arcep n’oublie pas d’évoquer les problèmes liés aux sites GenAI en citant le travail de Next sur le sujet. Elle souligne d’ailleurs que « le scénario d’une artificialisation de l’internet, dominé par des contenus majoritairement synthétiques, constituerait non seulement une atteinte à la diversité en ligne, mais pourrait également fragiliser le développement des futurs services d’IA générative eux-mêmes, puisque les données issues du monde réel sont nécessaires à leur entraînement et à la qualité de leurs sorties ».

Mais les textes européens sont là, il faut les appliquer, selon l’Arcep

Pour autant, l’autorité souligne l’existence du Digital Markets Act (DMA) qui a « apporté de premiers éléments de réponse », et l’Arcep pousse non pas à continuer de créer de nouveaux textes dans le droit européen, mais à « mobiliser les outils de régulation existants pour garantir l’ouverture des services d’IA générative ». Ainsi, elle souligne que le DMA « s’applique déjà à plusieurs acteurs et services intégrant des fonctionnalités d’IA, notamment certains moteurs de recherche, systèmes d’exploitation et navigateurs ».

Elle ajoute que « certaines de ses obligations nécessitent d’être adaptées », mais par l’adoption d’actes délégués. Ceux-ci permettent « au législateur de l’Union européenne de déléguer à la Commission européenne le pouvoir d’adopter des actes non législatifs de portée générale qui modifient ou complètent des éléments non essentiels de l’acte législatif », comme l’explique le Sénat.

L’autorité fait aussi remarquer que « bien que le cloud fasse déjà partie des services de plateforme essentiels au titre du DMA, aucun fournisseur de services cloud n’a, à ce jour, été désigné en tant que contrôleur d’accès ». Elle rappelle que la Commission enquête justement pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud.« Si ces acteurs étaient désignés au titre du DMA, plusieurs obligations viendraient encadrer leurs pratiques et auraient un impact positif sur la diversité des services d’IA présents sur le marché », plaide l’autorité française. Elle souligne aussi la possibilité que les « principaux services d’IA générative puissent remplir à terme les conditions pour être directement visés par le DMA en tant que navigateurs web, services d’intermédiation ou moteurs de recherche ».

Pour l’Arcep, le Data Act pourrait être aussi mobilisé pour réguler ce nouveau secteur. « En particulier, le
règlement sur les données pourrait s’appliquer à certains fournisseurs d’IA générative dont les services sont susceptibles d’être identifiés à des services cloud, dont font par exemple partie les services de type ” AI as a service” (AIaaS), et ainsi faciliter la portabilité des données des utilisateurs et l’interopérabilité des système
», explique-t-elle. Elle vise notamment le développement de l’IA agentique « qui nécessite des protocoles interopérables entre outils d’IA générative et services tiers », mais aussi la possibilité, pour les utilisateurs, « de changer facilement de fournisseur de service d’IA en conservant leurs données ».

Enfin, le DSA pourrait « contribuer à l’atténuation de certains risques liés à l’usage de l’IA générative ». Elle souligne que certaines entreprises étant déjà des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne (on pense à Google, par exemple), elles sont déjà soumises à des exigences plus contraignantes par le texte. Mais l’autorité suggère que « certains services d’IA générative pourraient être considérés comme de très grands moteurs de recherche en ligne (VLOSE) et ainsi relever directement du périmètre d’application de ces obligations ». Ainsi, la Commission pourrait assez facilement contraindre des acteurs comme OpenAI, par exemple, sans que ne soient adoptées de nouvelles lois.

« L’arsenal réglementaire actuel fournit déjà des outils pertinents qu’il conviendra de mobiliser pour traiter une partie des problématiques identifiées et tempérer certains risques liés aux services d’IA », souligne l’autorité, qui les détaille et illustre dans une BD disponible (en français et en anglais) en exergue de son communiqué.

Reçu — 20 janvier 2026 Next - Articles gratuits

☕️ Copyright : NVIDIA a contacté Anna’s Archive pour entrainer ses IA sur des millions de livres

20 janvier 2026 à 09:07

NVIDIA serait entrée en contact avec les responsables de la « bibliothèque clandestine » Anna’s Archive selon des documents d’un procès en cours contre l’entreprise.

En mars 2024, NVIDIA a été attaquée par cinq auteurs de livres pour violation du copyright pour avoir entrainé ses modèles sur une compilation de livres dans laquelle apparaissent leurs textes.

Notamment, ces auteurs pointaient l’utilisation de « bibliothèques clandestines » comme Anna’s Archive.

Dans un texte ajouté au dossier, les avocats des auteurs citent plusieurs documents internes à NVIDIA montrant que l’entreprise a contacté le projet Anna’s Archive. « À la recherche désespérée de livres, NVIDIA a contacté Anna’s Archive, la plus grande et la plus effrontée des bibliothèques clandestines encore existantes, afin d’acquérir ses millions de documents piratés et “d’inclure Anna’s Archive dans les données de pré-entraînement de nos LLM” », rapporte TorrentFreak. L’entreprise a contacté les responsables de la bibliothèque clandestine pour obtenir un « accès à de grands volumes de jeux de données uniques et de haute qualité » en éclaircissant si besoin était leur demande avec la précision « c’est-à-dire des livres ».

livre dématérialisé

« Comme Anna’s Archive facturait des dizaines de milliers de dollars pour un “accès haut débit” à ses collections piratées voir https://annas-archive.org/llm, NVIDIA a cherché à savoir à quoi ressemblerait un “accès haut débit” à ces données », explique le document associé à la plainte [PDF].

Toujours selon les avocats des auteurs, l’équipe de management de NVIDIA aurait donné le feu vert à cette utilisation alors qu’Anna’s Archive avait bien précisé la nature illégale de ses collections.

Reçu — 19 janvier 2026 Next - Articles gratuits

French response : quand la diplomatie française colle à l’ambiance de X

19 janvier 2026 à 16:12
Tweet clash diplomacy
French response : quand la diplomatie française colle à l’ambiance de X

La diplomatie française a intensifié son utilisation du compte French response pour ne pas laisser passer les attaques étrangères sur le réseau social d’Elon Musk. Ce compte réagit aussi aux attaques politiques du milliardaire états-unien comme du CEO de Telegram Pavel Durov.

« Ne rien céder dans la bataille des récits », c’est ainsi que Jean-Noël Barrot présentait le compte X French Response géré par la diplomatie française le 9 janvier pour les vœux aux ambassadrices et aux ambassadeurs.

Deux jours plus tard, ce compte répondait à Elon Musk sur son propre réseau avec une photo du CEO de X faisant un salut nazi lors de l’investiture de Donald Trump. Le milliardaire d’extrême droite avait précédemment provoqué son audience en demandant « Pourquoi le gouvernement britannique est-il si fasciste ? ».

En ce début d’année important géostratégiquement parlant, le ministre de l’Europe et des affaires étrangères met en avant la stratégie lancée début septembre par son ministère pour contrer les discours étrangers critiquant la position de la France.

« Une posture franche, teintée d’humour, de dérision »

Pris via le prisme principal des manipulations de l’information venues de l’étranger, cette nouvelle communication du Quai d’Orsay se voit comme « une posture franche, teintée d’humour, de dérision, parfois d’autodérision, qui conduit à la viralité sur les réseaux sociaux, qui permet d’augmenter l’impact du message que nous voulons porter », a aussi assumé Jean-Noël Barrot devant les ambassadrices et les ambassadeurs du pays.

Car, si ce compte se permet de répondre à Elon Musk ou à Pavel Durov en pointant la prolifération de contenus pédocriminels sur Telegram pour contrer ses critiques contre la politique de l’Union européenne en la matière, il concentre surtout ses réponses vers des comptes russes et états-uniens diffusant la propagande de leurs pays respectifs, souvent avec les codes utilisés sur le réseau social X.

« Telegram lutte de longue date contre les détournements de sa plateforme, notamment la diffusion de contenus pédocriminels, via des équipes de modération spécialisées et des signalements émanant d’ONG internationales. Depuis 2018, ce dispositif s’est renforcé avec l’introduction de scans automatisés par empreinte numérique des contenus médias publiés sur la plateforme publique, ainsi que la publication de rapports de transparence quotidiens », a souhaité affirmer Telegram suite à cet article.

Ainsi, le compte du Quai d’Orsay répondait en octobre à Sputnik Afrika en remettant en question l’éthique de ses journalistes avec un mème. Comme nous l’expliquions à ses débuts, le compte a commencé en réfutant des propos du secrétaire d’État étasunien, Marco Rubio, en proposant un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Plus direct encore depuis le début d’année

Plus récemment, French Response a pris des allures encore plus directement diplomatiques en réinterprétant ironiquement des photos utilisées par le département de la Sécurité intérieure américain pour illustrer la « panique » qui aurait envahi les leaders européens suite aux velléités répétées de Donald Trump de s’emparer du Groenland.

Pour le compte de la diplomatie française, « l’Europe ne panique pas, l’Europe vérifie juste que ses tempes ne se dégarnissent pas ». Ce dimanche, French Response lançait un « Make Dmitry Mannered Again (MDMA) » à un Dmitry Medvedev qui affirmait « Make America Great Again (MAGA)= Make Danmark Small Again (MDSA)= Make Europe Poor Again (MEPA). Avez-vous enfin compris, bande d’imbéciles ? ».

La France est donc entrée pleinement dans le jeu de la petite phrase publiée sur X pour faire rire et sourire les utilisateurs du réseau d’Elon Musk.

« J’étais circonspect, car cela revient à abaisser le débat public à du “tweet clash”, mais French Response a su reprendre tous les codes de la jeunesse, et tape juste », affirme le journaliste et consultant en lutte contre la désinformation Nicolas Hénin au Monde.

Dans son discours aux ambassadrices et ambassadeurs, Jean-Noël Barrot leur a promis : « vous verrez qu’aucune fausse information n’émane de ce compte ». Mais est-ce possible de jouer avec ces règles dans la cour d’un réseau dirigé par une des cibles de French Response et dont l’IA officielle est un superdiffuseur de désinformation et qui génère des messages antisémites et dénude des femmes sur demande ?

On peut se demander quel est réellement le but de ce compte. Toujours aux ambassadrices et ambassadeurs, le ministre explique qu’il a « une vertu, qui est de riposter lorsque des contenus portant atteinte à notre image sont diffusés. Mais “French Response” a aussi une vertu d’inhibition, parce que nos adversaires savent désormais que s’ils portent atteinte à notre image, ils peuvent être ridiculisés par “French Response ” ».

Cette diplomatie numérique se limite par contre pour l’instant au réseau social d’Elon Musk. Le ministère ne revendique pour l’instant pas de compte du même genre sur des réseaux sociaux comme TikTok, Instagram ou BlueSky sur lesquels il devrait sans doute adapter son discours à des environnements plus policés.

☕️ HubEE, le hub d’échange de l’État piraté, au moins 160 000 documents volés

19 janvier 2026 à 08:31

La plateforme d’échange de fichiers de l’État, HubEE, a subi une attaque le 9 janvier dernier. Le pirate a pu s’introduire dans le système et a eu accès à au moins 70 000 dossiers contenant au total 160 000 documents.

Ce vendredi 16 janvier, la direction interministérielle du numérique (DINUM) a communiqué sur le sujet, expliquant avoir mis en place le jour de l’attaque des « mesures conservatoires » pour « bloquer l’attaquant » ainsi que des mécanismes d’authentification et de surveillance des flux pour pouvoir ensuite rétablir le service à partir du 12 janvier.

La DINUM explique que certains documents qu’a pu obtenir le pirate contenaient des données personnelles sans donner de précision sur leur nature ni sur le nombre de documents concernés. « À ce jour, les données exfiltrées n’ont pas été publiées et la DINUM a mis en place une veille active », explique-t-elle.

La Direction de l’information légale et administrative avait envoyé, au cours de la semaine dernière, un email à certains utilisateurs expliquant qu’ « un des sous-traitants de http://Service-public.gouv.fr a rencontré un incident de sécurité entre le 4 et le 9 janvier ». Ce message ajoutait que « cet incident de sécurité a occasionné la divulgation d’une partie de vos données personnelles renseignées lors d’une démarche en ligne que vous avez réalisée sur notre site. Il peut s’agir de vos données d’identification et le cas échéant de pièces justificatives produites à l’appui de votre demande ».

Elle précisait ensuite sur X que « Service.public.gouv.fr n’a pas été victime de cyberattaque. Le site est fonctionnel et son intégrité est totalement préservée. Les démarches en ligne opérées via le site (8,2 millions gérées en 2025) transitent par une plateforme technique d’échanges entre administrations. C’est sur cette plateforme que certaines données nécessaires aux démarches en ligne ont été détournées. Des mesures immédiates ont permis de juguler I’intrusion ».

Mais ce sont, selon l’information publiée par la Dinum vendredi, plutôt des données en possession de quatre directions ministérielles qui seraient concernées : la direction de l’information légale et administrative (DILA), la direction générale de la cohésion sociale (DGCS), la direction générale de la Santé (DGS) et la caisse nationale des allocations familiales (CNAF).

Reçu — 16 janvier 2026 Next - Articles gratuits

Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

16 janvier 2026 à 13:49
À table avec une longue cuillère ?
Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

Alors que Wikipédia fête ses 25 ans, la fondation Wikimedia en profite pour mettre en avant son programme « Enterprise » et les accords qu’elle vient de signer avec des entreprises majeures de l’IA générative telles qu’Amazon, Meta, Microsoft, Mistral AI ou Perplexity. Des accords qui lui permettent de canaliser le nombre énorme de requêtes effectuées par les bots crawlers d’IA générative sur ses infrastructures.

Hier, Wikipédia fêtait ses 25 ans. « Avec des milliards de visites mensuelles et un nombre toujours croissant d’organisations qui s’appuient sur les connaissances gratuites et vérifiées de Wikipédia, cette plateforme est devenue partie intégrante de l’architecture de l’ensemble de l’Internet », déclarait à cette occasion Maryana Iskander, directrice générale de la Fondation Wikimédia.

Le lendemain de cet anniversaire, cette même fondation annonce avoir conclu des accords avec les entreprises d’IA générative Amazon, Meta, Microsoft, Mistral AI et Perplexity pour son programme « Wikimedia Enterprise ».

Une saturation des infrastructures de Wikimédia qui demande un changement d’utilisation

Depuis le début des modèles de langage, le contenu de Wikipédia est crucial pour leur entrainement. L’encyclopédie participative permet à toutes ces entreprises de s’appuyer sur d’importantes masses de données créées par des humains. Elle est à la fois une source énorme d’exemples d’écriture et d’informations mises à jour régulièrement couvrant un spectre encyclopédique.

L’adoption par Wikipédia de la licence Creative Commons by-sa en 2009 rend les choses encore plus simples pour la réutilisation de ses contenus (la question de la citation des auteurs dans les outils d’IA générative se pose néanmoins). Ainsi, en 2020, GPT-3 d’OpenAI s’appuyait déjà sur trois milliards de tokens venant de la version anglophone de l’encyclopédie.

Mais depuis, les modèles de langage sont sortis des laboratoires et les entreprises en mettent de nouveaux sur le marché toutes les semaines. De plus, l’utilisation généralisée du RAG (ou génération à enrichissement contextuel en français), technique qui permet d’optimiser leur réponse sans relancer un processus d’entrainement, augmente considérablement le nombre de requêtes envoyées aux sites qui peuvent rafraichir les informations contenues dans le modèle. Ces requêtes envoyées par les robots crawlers des entreprises d’IA saturent régulièrement les infrastructures de certains sites. Et Wikipédia en fait évidemment partie.

En avril 2025, la fondation Wikimedia tirait un signal d’alarme : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants », expliquait-elle. Surtout que certaines entreprises d’IA générative ne respectent pas les fichiers robots.txt qui sont censés permettre de donner des instructions aux robots crawlers comme leur interdire l’accès.

Plusieurs API et une volonté d’utiliser le programme pour mieux gérer les citations

Le programme Enterprise permet à la fondation de rediriger les entreprises d’IA vers des API qui gèrent mieux leurs accès au contenu. Elle en propose plusieurs : l’API On-demand renvoie la version la plus récente pour une demande d’article spécifique, l’API Snapshot fournit Wikipédia sous forme de fichier téléchargeable pour chaque langue, mis à jour toutes les heures, et l’API Realtime diffuse les mises à jour dès qu’elles se produisent.

En octobre dernier, la fondation expliquait que l’encyclopédie perdait 8 % de pages vues par les humains en un an et mettait ça sur le compte de l’IA. À cette occasion, elle s’émeuvait d’un risque d’une baisse de la participation au projet. Car si les internautes ne savent pas que les contenus générés par IA sont tirés en grande partie de Wikipédia et qu’ils ne la consultent plus, il est possible qu’ils ne voient plus l’intérêt d’y participer. La fondation expliquait à ce moment-là que son programme « Enterprise » devait pousser aussi les entreprises d’IA à attribuer correctement les contenus.

« Wikipédia est un élément essentiel du travail de ces entreprises technologiques, qui doivent trouver comment le soutenir financièrement », explique Lane Becker, président de Wikimedia Enterprise à Reuters. « Il nous a fallu un certain temps pour comprendre quelles étaient les fonctionnalités et les caractéristiques à proposer si nous voulions faire passer ces entreprises de notre plateforme gratuite à une plateforme commerciale… mais tous nos grands partenaires technologiques comprennent vraiment la nécessité de s’engager à soutenir le travail de Wikipédia », ajoute-t-il.

La fondation précise que ce ne sont pas les premiers accords dans ce sens avec d’importantes entreprises du monde de l’IA générative. Ainsi, Google, Ecosia, Nomic, Pleias, ProRata et Reef Media étaient déjà entrées dans son programme Enterprise.

Mais avec les cinq nouveaux accords, la fondation Wikimédia se lie économiquement de plus en plus avec ce milieu. Si leurs montants prennent une place significative dans son budget, des dents pourraient grincer au sein de la communauté Wikipédia. Rappelons que l’IA est un sujet sensible qui s’est un peu enflammé quand la fondation a voulu utiliser l’IA générative pour créer des résumés automatiques d’articles de l’encyclopédie.

☕️ La distribution Tails 7.4 permet maintenant de garder les réglages de langues

16 janvier 2026 à 07:57

La distribution Linux Tails, spécialisée dans la sécurité, a été mise à jour jeudi. Arrivant un mois après la 7.3.1, cette nouvelle version contient des évolutions de paquets telles que le passage de Tor Browser à la version 15.0.4, Thunderbird en version 140.6.0 ou le noyau Linux dans sa version 6.12.63.

Une des nouveautés les plus visibles pour l’utilisateur, c’est la possibilité de garder ses réglages de langues, de disposition de clavier et de format d’affichage des dates et heures entre deux utilisations de la distribution live.

En effet, l’équipe de Tails explique avoir mis en place une option pour enregistrer ces options si l’utilisateur l’active. Ainsi, on peut plus facilement saisir le mot de passe de notre stockage persistant, si on le veut. Attention, le billet annonçant la nouvelle version précise que ces options sont stockées de manière non chiffrée.

L’équipe de Tails précise aussi qu’ « avec la transition en cours de BitTorrent v1 vers v2, les fichiers BitTorrent v1 que nous avons fournis jusqu’à présent peuvent devenir un problème de sécurité ». Elle a donc choisi de ne plus utiliser le protocole BitTorrent pour distribuer sa distribution : « Nous ne pensons pas que la mise à jour vers BitTorrent v2 justifie les coûts supplémentaires liés à la migration et à la maintenance ».

Reçu — 15 janvier 2026 Next - Articles gratuits

Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

15 janvier 2026 à 11:53
Et la santé surtout !
Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

Alors que la pandémie de Covid-19 a marqué un accroissement de la circulation de fausses informations en santé, notamment via les réseaux sociaux, la ministre de la Santé, Stéphanie Rist, lance une stratégie pour « y répondre de manière concrète, durable et collective ».

Des outils de diffusion d’informations et de riposte contre la désinformation, la constitution d’un « observatoire de la désinformation en santé » et la mise en place d’outils de mesure de la perception des citoyens… La ministre de la Santé, Stéphanie Rist, semble vouloir agir contre la désinformation en santé dont la circulation s’est fortement accrue depuis le début de la pandémie de Covid-19.

Elle vient de lancer une « stratégie nationale contre la désinformation en santé » en s’appuyant sur le rapport que lui ont remis lundi 12 janvier Mathieu Molimard, Dominique Costagliolia et Hervé de Maisonneuve.

« La parole publique en santé est trop dispersée, trop lente face à la viralité »

Dans leur texte [PDF], les trois médecins rapporteurs affirment que la plupart des acteurs qu’ils ont interrogés « décrivent une augmentation de la désinformation en santé, alimentée par une littératie scientifique déficiente, un esprit critique insuffisant, la viralité numérique, la perte de repères scientifiques et la diffusion organisée de contenus trompeurs ». Des journalistes scientifiques, des organismes de santé, des politiques ou même des plateformes de réseaux sociaux comme Meta ou YouTube (le rapport note le « seul refus explicite d’entretien » de la part de la plateforme X/Twitter) ont été auditionnés.

Pour les auteurs, « si notre système scientifique, pris dans son ensemble, est solide, la parole publique en santé est trop dispersée, trop lente face à la viralité ». Et la désinformation touche « tous les domaines » de la santé : « vaccination, cancer, alimentation, santé mentale, santé des femmes, pratiques de soins non conventionnelles ou risques environnementaux ».

Les profils des acteurs de la désinformation en santé en France sont « variés » : influenceurs, groupes militants, professionnels de santé ou scientifiques dévoyés… « Les industriels, qu’ils commercialisent des produits de santé ou des produits impactant la santé, peuvent aussi être à l’origine de désinformation en santé », expliquent-ils. Et les trois médecins constatent que « la détection et la réponse à la désinformation restent inorganisées ».

Écoute et riposte prévues par le ministère

C’est à ce problème que veut remédier Stéphanie Rist. Sa stratégie se déploie sur trois axes. De l’écoute et des consultations citoyennes, d’abord, avec l’exploration des perceptions et logiques de croyance et un baromètre national sur la question. Mais aussi l’observation en ligne « dans la durée des attitudes et pratiques des citoyens face à la désinformation en santé » et la volonté de « recueillir leurs réactions en temps réel et tester des hypothèses de communication ». Un « comité » composé de 27 citoyens a aussi été mis en place. Il doit remettre un avis à la fin du mois de janvier ou début février.

La ministre explique travailler à la mise en place d’un « Observatoire de la désinformation en santé » dont elle ne donne pour l’instant pas la composition. Celui-ci doit « être l’acteur essentiel de l’identification et de la compréhension des phénomènes de désinformation en santé ».

Concernant la riposte sur le numérique, un dispositif d’« infovigilance en santé » doit être lancé à partir de fin janvier. En s’appuyant sur de la veille et de la détection de fausses informations en santé, il est censé conduire à la mise en place d’outils de diffusion d’informations et de riposte sur ces sujets adaptés aux plateformes comme TikTok et YouTube Shorts, avec comme « site de référence » l’espace « décryptages » du site sante.fr (et non Santé.fr comme écrit dans le rapport). Espérons qu’un effort de modernisation du site soit prévu avant le lancement de la campagne.

Enfin, pour « bâtir un socle de confiance propice à l’information en santé », le ministère élabore des « kits pédagogiques sur l’information en santé à destination des enseignants et enfants ». Il veut aussi intégrer plus la désinformation en santé au sein des programmes de recherche. Il aurait été d’ailleurs intéressant que, pour le rapport sur lequel il s’appuie, le ministère ne sollicite pas seulement le regard de médecins mais aussi celui de chercheuses et chercheurs en sciences de l’information et en sociologie.

☕️ Un rapport de police britannique invente un match de foot et rejette la faute sur Copilot

15 janvier 2026 à 09:46

Le responsable de la police du comté britannique des Midlands de l’Ouest, Craig Guildford, a reconnu une erreur dans un rapport concernant l’interdiction de stade de supporters du club de foot lors d’un match de Ligue Europa.

En effet, pour le match d’Aston Villa contre le Maccabi Tel-Aviv qui se jouait en octobre dernier, la police locale l’avait classé « à haut risque » et s’était prononcée pour l’interdiction aux supporters visiteurs d’assister au match. Dans son communiqué de presse, pas d’erreur, mais dans son rapport remis aux autorités pour justifier sa position, elle évoquait un match entre West Ham et le Maccabi Tel Aviv qui n’a jamais eu lieu.

Depuis la date du match, les critiques pleuvent sur cette décision, notamment de la part du Premier ministre britannique Keir Starmer et du gouvernement israélien. Lundi dernier, Craig Guildford a envoyé une lettre [PDF] à Karen Bradley, membre du Parlement britannique et responsable du Home Affairs Select Committee de la Chambre des communes.

« Vendredi après-midi, j’ai pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l’utilisation de Microsoft Co Pilot », s’y explique-t-il après avoir nié en décembre s’être appuyé sur l’IA pour préparer le rapport, remarque The Verge. Il avait aussi imputé le problème à une erreur dans les résultats du moteur de recherche de Google.

illustration d'une personne manipulée comme une marionnette par une IA

Pour la ministre de l’Intérieur britannique, Shabana Mahmood, c’en est trop. Selon l’AFP, celle-ci a affirmé : Craig Guildford « n’a plus ma confiance » devant la Chambre des communes après avoir commandé un rapport indépendant dont les conclusions sont « accablantes », selon elle. L’agence de presse explique qu’elle n’a pas le pouvoir de le démettre de ses fonctions mais qu’elle a annoncé que son gouvernement allait rétablir cette possibilité.

Reçu — 14 janvier 2026 Next - Articles gratuits

☕️ Interrail : fuite de données personnelles avec numéro de passeport, date d’expiration…

14 janvier 2026 à 08:57

L’entreprise néerlandaise Eurail B.V., qui gère les pass Interrail et Eurail, est en train d’informer ses clients qu’elle avait été victime d’un incident de sécurité impliquant leurs données personnelles. La société affiche également un bandeau dès la page d’accueil de son site, renvoyant vers cet article.

Si elle affirme avoir « immédiatement pris des mesures pour sécuriser nos systèmes et lancé une enquête avec le soutien de spécialistes externes en cybersécurité », l’entreprise confirme qu’une « personne non autorisée a eu accès à une partie de [sa] base de données clients ».

Ainsi, sa « première analyse indique que [les données personnelles de ses clients] ont été consultées, et peuvent inclure :

  • Informations d’identité : prénom, nom, date de naissance, sexe ;
  • Coordonnées : adresse e-mail, adresse postale, numéro de téléphone, le cas échéant;
  • Informations sur le passeport: numéro de passeport, pays d’émission et date d’expiration ».

Eurail précise par contre qu’elle ne conserve « pas de copie visuelle du passeport ».

Eurail affirme continuer son enquête et avoir informé « les autorités compétentes, conformément à la législation en vigueur » et elle renvoie vers les consignes de l’autorité néerlandaise en de pareille situation. L’entreprise ajoute que, pour le moment, « il n’existe aucune preuve que ces données aient été mal utilisées ou rendues publiques ».

☕️ Le laboratoire de la CNIL lance un test sur les dark patterns

14 janvier 2026 à 08:07

Sous le titre « Apparences Trompeuses », le LINC (Laboratoire d’Innovation Numérique de la CNIL) propose un petit test pour passer en revue les différents mécanismes utilisés par les dark pattterns.

Ces designs poussent les utilisateurs de sites web à faire un choix qu’ils ne feraient pas forcément s’ils étaient correctement informés par le site en question.

« Sauriez-vous reconnaitre un détournement d’attention ? Débusquer un réglage intrusif par défaut en créant un compte ? Résister à un parcours labyrinthique dans un centre de confidentialité, ou à un pilotage émotionnel en supprimant vos données ? » demande le laboratoire dans son texte de présentation du questionnaire.

Et en effet, certains concepteurs de sites web rivalisent d’idées pour vous guider vers un choix qui les arrange. En octobre encore, Meta a encore été pointée du doigt par la Commission européenne qui l’accuse d’utiliser des « dark patterns » et des designs « d’interface trompeuses » dans ses mécanismes de « notification et d’action ».

Reçu — 13 janvier 2026 Next - Articles gratuits

☕️ Firefox 147 : WebGPU sur Apple Silicon et support de la spécification XDG Base Directory

13 janvier 2026 à 15:32

Comme prévu, la version Firefox 147 apporte notamment le support de WebGPU aux Mac équipés de puces Apple Silicon, signalent les release notes publiées mardi par Mozilla.

Firefox 147 est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »), mise en place par Freedesktop pour faciliter le fait de retrouver où certains fichiers doivent se trouver. Elle définit un ou plusieurs répertoires de base où les fichiers doivent être localisés.

En nouveauté un peu plus visible pour l’utilisateur lambda, une option apparait dans le navigateur pour permettre à une fenêtre de lecture en incrustation d’image de s’ouvrir automatiquement quand une vidéo est en cours de lecture dans un onglet et qu’on passe cet onglet en arrière-plan :

La nouvelle version comprend aussi une amélioration des performances pour les vidéos avec les GPU AMD et la prise en charge de Safe Browsing V5.

Comme nous l’expliquions fin 2025, une vue partagée pour afficher deux sites côte à côte est en phase de test dans Firefox mais Firefox147 ne l’intègre pas encore officiellement.

Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

13 janvier 2026 à 15:02
L'IA pour le travail et pour la santé, whatelse?
Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

S’appuyant sur son Claude Code, qui rencontre un certain succès, Anthropic est en train de mettre en place Cowork, un agent pour traiter vos tâches (pas trop complexes) de bureau à votre place en travaillant en mode « bac à sable » sur des dossiers choisis par l’utilisateur.

Anthropic a présenté ce lundi 12 janvier son projet nommé Cowork, un agent IA qui doit permettre d’automatiser une bonne partie des tâches de bureau autres que le code : « Claude Code pour le reste de votre travail », affirme même l’entreprise.

Claude pour le travail

Elle explique qu’après avoir lancé Claude Code, elle s’est rendu compte que les gens l’utilisaient aussi pour autre chose que du code. Anthropic a donc lancé un projet un peu similaire à son outil phare mais en l’adaptant à des tâches de bureau de la vie de tous les jours sur un ordinateur. L’idée est de ne surtout pas faire comme Microsoft avec Recall et de limiter la tâche qu’on veut automatiser à un seul répertoire dans lequel Claude pourra lire, éditer, créer (et donc supprimer) des fichiers.

Là, il pourra par exemple réorganiser et renommer des fichiers en fonction de la date de téléchargement, « créer une nouvelle feuille de calcul avec une liste de dépenses à partir d’une pile de captures d’écran, ou rédiger une première ébauche de rapport à partir de vos notes éparpillées », explique Anthropic.

De fait, Cowork est créé sur le SDK de l’agent Claude et utilise donc le même modèle que Claude Code. La seule chose qui les différencie, c’est l’approche moins « développeur » de Cowork pour mettre en place les routines avec une interface de configuration plus « user-friendly ». Dans un tutoriel, Anthropic présente encore Cowork comme un outil qui a « la puissance de Claude Code sans le terminal ».

Pour l’instant, Cowork est proposé aux abonnés Max (de 100 à 200 $/mois) qui utilisent Claude Desktop sur macOS. Une liste d’attente existe pour les autres.

Claude pour la santé

Dimanche, Anthropic a aussi essayé de se rattraper concernant le secteur de la santé qui a été sous les phares du CES cette année avec l’annonce de l’assouplissement de la surveillance des dispositifs de santé portables ou s’appuyant sur l’IA par la FDA. OpenAI en avait profité pour lancer son ChatGPT Santé.

Une semaine après, Anthropic pousse donc son projet Claude for Healthcare, un ensemble d’outils et de ressources qui permettent aux prestataires de soins de santé et aux patients d’utiliser Claude à des fins médicales « grâce à des produits conformes à la norme HIPAA », explique l’entreprise.

Comme ChatGPT Santé, Claude Healthcare va permettre à ses utilisateurs de synchroniser leurs données corporelles captées par leurs iPhone, smartwatchs et autres gadgets de fitness et de sport pour donner des conseils santé. Mais le service d’Anthropic pourra aussi s’appuyer sur les données de la Classification internationale des maladies, PubMed et, aux États-Unis, sur celles de Medicare et Medicaid et sur le National Provider Identifier.

Ainsi, l’entreprise promet d’accélérer l’examen des demandes d’autorisation préalable des dossiers des patients, promettant avec beaucoup de solutionisme technologique qu’ils « obtiendront plus rapidement des soins vitaux ».

Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

13 janvier 2026 à 09:08
Le criquet a mangé un bout de pomme
Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

Apple et Google viennent d’officialiser une collaboration « pluriannuelle » : toutes les IA génératives de l’entreprise à la Pomme s’appuieront sur les modèles Gemini de Google, ce qui inclut la nouvelle version de Siri qui doit arriver cette année. Cette annonce bouscule le secteur et Elon Musk dénonce « une concentration de pouvoir déraisonnable pour Google ».

Apple a annoncé ce lundi 12 janvier son choix d’utiliser les modèles de Google pour alimenter ses futures fonctionnalités d’intelligence artificielle, dont son fameux assistant virtuel Siri qui doit sortir sous une nouvelle version cette année.

Apple abandonne la course après être parti bien tard

« Après une évaluation minutieuse, Apple a déterminé que la technologie IA de Google constituait la base la plus performante pour ses modèles de fondation et se réjouit des nouvelles expériences innovantes qu’elle offrira aux utilisateurs Apple », affirme un communiqué signé conjointement par les deux entreprises.

Ainsi, la société de Tim Cook abandonne la course aux modèles dans laquelle elle était en retard. Elle avait sorti ses premières fonctionnalités boostées à l’IA générative en juin 2024 mais, un an après, l’enthousiasme n’était toujours pas au rendez-vous chez les utilisateurs.

Et Apple devait même repousser la sortie de la nouvelle version de Siri, son produit phare en matière d’IA. Rappelons que les modèles de langage n’étaient pas la tasse de thé de l’équipe dirigeante d’Apple. L’entreprise avait plus tard recruté Amar Subramanya (ex Google et Microsoft) sur le tard en décembre dernier pour relancer son IA.

Mais en aout 2025, Bloomberg se faisait déjà l’écho de tests chez Apple pour utiliser Gemini et ainsi rebooster Siri. Et en novembre, Bloomberg toujours parlait d’un accord d’un milliard de dollars par an entre les deux entreprises pour ce projet. Les deux entreprises viennent de passer à la vitesse supérieure en officialisant le projet et en élargissant même la collaboration à toutes les fonctionnalités d’Apple utilisant l’IA générative.

Gemini utilisé par les équipes d’Apple, pas une intégration des app Google directement dans iOS

Pour rassurer les utilisateurs d’Apple, ce ne sont pas les outils IA Gemini de Google qui sont intégrés à iOS et macOS directement a priori. Apple garde la main sur la gestion des iPhone. Dans leur communiqué, les deux entreprises expliquent que « la prochaine génération de modèles fondation sera basée sur les modèles Gemini et la technologie cloud de Google ». Ainsi, on peut imaginer que l’entreprise à la Pomme pourra affiner les modèles de Google à sa sauce et les intégrer à ses produits de la façon dont elle le veut.

Jusque-là, si Apple utilisait ses propres modèles, elle avait aussi noué un partenariat en 2024 avec OpenAI pour « intégrer ChatGPT dans les expériences Apple » et notamment dans Siri. Cette annonce est un changement important dans le paysage industriel de l’IA générative et donne un poids encore plus important à Google dont la dernière version de Gemini avait reboosté l’image chez les aficionados d’IA générative.

Alphabet (la maison mère de Google) vient de dépasser les 4 000 milliards de dollars de valorisation en bourse, après une année 2025 plus que prolifique. Son action a en effet bondi de plus de 60 % en un an.

Un bon choix pour les deux entreprises qui pousse Google en position dominante

« [L’annonce de lundi] est ce que Wall Street attendait, car l’invisibilité de la stratégie d’IA d’Apple était l’éléphant dans la pièce », explique Dan Ives, l’analyste de la banque d’affaires Wedbush Securities cité par Le Monde, « Même si le délai est plus long que prévu au départ, il était nécessaire pour Apple de proposer un assistant IA au sein de son propre écosystème d’appareils  ». « C’est une validation majeure de la haute qualité de ses modèles d’IA », ajoute-t-il.

Mais l’ombre de la position dominante de Google sur le numérique pourrait aussi s’étendre sur l’IA générative avec cet accord. L’entreprise vient d’ailleurs de transformer ses IA en vendeurs multicartes avec un protocole ouvert et de la pub.

Rappelons qu’elle a aussi été reconnue coupable d’abus de sa position dominante dans le domaine de la recherche en ligne par la justice états-unienne l’année dernière sans pour autant avoir à abandonner Chrome alors que l’hypothèse planait pendant un moment.

Apple a, pour rappel, un accord avec Google pour utiliser son moteur de recherche. C’est d’ailleurs sur ce terrain qu’a attaqué Elon Musk en réponse au message posté par Google sur son réseau : « Cela semble être une concentration de pouvoir déraisonnable pour Google, étant donné qu’ils possèdent également Android et Chrome ».

OpenAI ne semble pas avoir réagi publiquement à cette annonce pour le moment (et n’a pas souhaité répondre à nos confrères étasuniens), pas plus que Sam Altman ou Fidji Simo (respectivement numéro un et deux de l’entreprise). Sentant le vent tourner, le patron de l’entreprise avait enclenché un « code rouge » pour faire de la qualité de ChatGPT une priorité.

Reçu — 12 janvier 2026 Next - Articles gratuits

Google transforme ses IA en vendeurs multicartes avec un protocole ouvert et de la pub

12 janvier 2026 à 16:38
IA déjà trop de pubs
Google transforme ses IA en vendeurs multicartes avec un protocole ouvert et de la pub

Le géant de la pub en ligne va lancer son tunnel d’achat géré par des agents IA, ainsi qu’un protocole ouvert de commerce agentique permettant à tout un chacun de l’intégrer ou de créer son tunnel.

Google est encore la première agence de publicité en ligne. Et, alors que s’ouvre la course à l’utilisation marchande de l’IA générative, l’entreprise de Sundar Pichai veut le rester et profiter de la vibe qui entoure son modèle Gemini actuellement.

Amazon s’est récemment fait pincer à laisser son IA revendre des produits sans le consentement de leurs vendeurs, OpenAI cherche à intégrer des publicités dans ChatGPT et Microsoft intègre des fonctions de paiement et d’achat directement dans Copilot.

Google, lui, met en place un protocole ouvert (Universal Commerce Protocol, UCP) pour l’intégration de publicités personnalisées dans l’e-commerce piloté par les agents IA, qu’il a bien évidemment déjà intégré dans ses propres produits.

Un « langage commun » …

« En établissant un langage commun et des fonctions primaires, l’UCP permet des parcours commerciaux fluides entre les interfaces consommateurs, les entreprises et les prestataires de paiement », vante Google dans le billet qui lui est consacré.

Il précise aux développeurs que « UCP est un standard open source en constante évolution, conçu pour être piloté par la communauté », aux plateformes d’IA qu’elles peuvent facilement intégrer le shopping à leurs agents avec UCP, et aux prestataires de paiement que le protocole est ouvert et pensé pour être interopérable. Et pour les consommateurs, « il élimine les frictions entre la découverte du produit et la décision d’achat », selon Google.

Bref, l’UCP met en place une façon standard de communiquer entre agents IA, plateformes marchandes et prestataires de paiement tout en étant compatible avec les protocoles existants comme Agent2Agent (A2A), Agent Payments Protocol (AP2) et Model Context Protocol (MCP).

… déjà maitrisé par Google

Évidemment, Google ne propose pas ce fonctionnement sans l’avoir déjà intégré dans ses propres outils, se donnant une longueur d’avance. Ainsi l’entreprise explique qu’elle va bientôt proposer « une nouvelle fonctionnalité de paiement sur les fiches produits Google éligibles en mode IA dans la recherche et l’application Gemini, permettant aux acheteurs de passer commande auprès de détaillants américains éligibles dès qu’ils effectuent une recherche sur Google ».

Et de mettre en place son propre tunnel d’achat en s’appuyant sur Google Pay et les informations de paiement et de livraison enregistrées dans Google Wallet, avec un peu plus tard la possibilité de payer via PayPal. Elle annonce être déjà en train de penser à des services connexes comme la découverte de produits similaires ou la mise en place de systèmes de fidélité d’achat et des expériences de shopping personnalisées.

Google en profite aussi pour créer « Business Agent », qui pourrait rapidement remplacer les chatbots des sites de vente puisque l’entreprise présente cette fonctionnalité comme « un nouveau moyen pour les acheteurs de discuter avec les marques, directement dans le moteur de recherche ». Les vendeurs n’auraient plus qu’à choisir la couleur de leur marque, des messages de bienvenue différents et des prompts de début de conversation pour lancer leur robot vendeur.

Le leader de la publicité numérique n’oublie pas de proposer de nouvelles façons de faire de la pub dans ses IA avec la possibilité de proposer des « offres directes » aux acheteurs, comme par exemple des promos spéciales.

Une méthode pas si nouvelle pour une entreprise déjà épinglée pour abus de position dominante

La méthode d’introduction du standard UCP n’est pas sans rappeler la manière de faire de l’entreprise à d’autres moments, comme par exemple avec l’AMP : proposer un protocole ouvert pour que chaque acteur du marché fournisse ses propres données au format qui arrange le géant du numérique.

Google a regroupé d’autres acteurs du commerce en ligne pour soutenir ce protocole. Ainsi, on peut retrouver Shopify, Etsy, Wayfair ou Zalando côté commerce en ligne pur, MasterCard, Stripe ou Paypal pour les prestataires de paiement, et Walmart ou Carrefour pour les grandes marques de la distribution.

Rappelons que Google a écopé rien qu’au dernier trimestre 2025 d’une amende de 2,95 milliards d’euros par la Commission européenne pour avoir enfreint les règles de la concurrence dans le domaine de la publicité et d’une autre amende de 572 millions d’euros par l’Allemagne. Elle a aussi été reconnue coupable d’abuser de sa position dominante dans le domaine de la recherche en ligne par la justice états-unienne, même si celle-ci ne l’a finalement pas obligée à se séparer de Chrome, ni d’Android.

Six câbles sous-marins endommagés dans la mer Baltique ces derniers jours

12 janvier 2026 à 13:26
Deep internet
Six câbles sous-marins endommagés dans la mer Baltique ces derniers jours

La mer Baltique a de nouveau été le théâtre de plusieurs alertes aux sabotages de câbles sous-marins fin 2025-début 2026. Les câbles concernés relient la Lituanie et la Lettonie, mais aussi l’Estonie à la Finlande, à la Suède et à son île Hiiumaa.

La police criminelle centrale de Finlande a annoncé mercredi 7 janvier avoir saisi le navire Fitburg qu’elle suspecte d’avoir endommagé un câble de télécommunications sous-marin dans la mer Baltique. Ce premier câble endommagé relie l’Estonie à la Finlande. La police finlandaise avait pris le contrôle du bateau le 31 décembre alors qu’il était sur sa route de Saint-Pétersbourg à Haïfa. L’enquête est ouverte pour « dommages criminels aggravés, tentative de dommages criminels aggravés et interférence aggravée avec les télécommunications ».

« Les polices finlandaise et estonienne ont terminé leur travail à bord du navire, et la saisie peut donc être levée. Hier, dimanche 11 janvier, le tribunal de district d’Helsinki a placé en détention provisoire un membre d’équipage du navire Fitburg dans l’attente d’un nouveau procès. Certains membres d’équipage du navire restent soumis à une interdiction de voyager », a déclaré Risto Lohi, le responsable de l’enquête ce lundi 12 janvier dans un communiqué annonçant la levée de l’ordre de saisie du navire.

Au nord de la mer Baltique

Selon Euronews, le câble aurait été endommagé dans la zone économique exclusive de l’Estonie. Un deuxième câble reliant l’Estonie à la Finlande, exploité par la société suédoise Arelion, aurait été aussi sectionné le 31 décembre.

Mais la police lettone a aussi saisi et inspecté dimanche 4 janvier un autre navire dans le port de Liepāja, explique le Financial Times. Cette fois, les autorités suspectent le bateau d’avoir endommagé le 2 janvier le câble BCS East, un câble de 65 km qui relie Sventoji en Lituanie à Liepaja en Lettonie. Mais leurs investigations ne leur ont apporté aucun lien avec l’incident. L’Estonie a signalé des incidents sur deux autres câbles la reliant à la Suède et à son île de Hiiumaa.

Des suspicions sur la Russie mais aucune preuve formelle et peu d’intérêt stratégique

Ces divers incidents sur des câbles dans la mer Baltique relancent les suspicions de sabotage évoquées l’année dernière, alors que le même genre de problèmes avait été constaté dans la région.

Mais pour Andres Vosman, ancien directeur adjoint des services de renseignement extérieur estoniens, les raisons pour lesquelles ces câbles sont abîmés sont sans doute à trouver ailleurs. « Je suis convaincu que la plupart des incidents récents dans la mer Baltique sont en grande partie le résultat d’une conjonction de facteurs : un trafic maritime beaucoup plus intense vers la Russie, des navires en mauvais état avec un équipage peu compétent, davantage d’infrastructures sous-marines que par le passé et une attention accrue du public », expliquait-il au journal estonien Eesti Express (voir la traduction en anglais publiée par l’auteur de l’interview). Pour lui, « chaque incident de ce type suscite de nouveaux appels à des mesures restrictives concernant les flottes fantômes et autres, les missions de l’OTAN, les sanctions. D’un point de vue stratégique, Moscou n’a pas besoin de ce désordre ».

La saisine du Fitburg par les autorités finlandaises émet néanmoins un message de dissuasion envers Moscou. Car l’année 2025 a attiré l’attention sur d’autres signaux faibles : de multiples pays européens ont été survolés et plusieurs aéroports comme ceux d’Oslo, Bruxelles ou Munich ont préféré fermer suite à ce genre de signalements.

☕️ Cloudflare crie à la censure et menace de quitter l’Italie après une amende salée

12 janvier 2026 à 10:59

Le régulateur italien des télécommunications AGCOM vient d’infliger une amende de 14,2 millions d’euros à Cloudflare à payer dans les 30 jours, une somme représentant 1 % du chiffre d’affaires mondial de l’entreprise.

L’AGCOM reproche au géant états-unien de ne pas avoir mis en œuvre le blocage par son résolveur DNS 1.1.1.1 de sites pirates qu’elle lui avait demandé en février 2025 en s’appuyant sur la loi anti-piratage italienne votée en 2023.

Celle-ci permet d’imposer le blocage de noms de domaine et d’adresses IP liés au piratage dans un délai de 30 minutes, comme l’explique TorrentFreak. « Il avait été demandé à la société, en tant que fournisseur de services numérique impliqué dans l’accès à des contenus diffusés illégalement, de désactiver la résolution DNS des noms de domaine et le routage du trafic réseau vers les adresses IP signalées par les titulaires des droits via la plateforme Piracy Shield, ou, en tout état de cause, de prendre les mesures technologiques et organisationnelles nécessaires pour rendre les contenus diffusés illégalement inaccessibles aux utilisateurs finaux », explique l’AGCOM dans son communiqué de presse.

Comme l’explique le média Heise, Cloudflare s’est défendu en affirmant que la demande était « disproportionnée et déraisonnable », car cette demande l’obligeait à mettre un filtre sur les 200 milliards de requêtes que reçoit son DNS 1.1.1.1 par jour, ce qui entrainerait une latence importante de son service et son efficacité. L’entreprise a aussi pointé le risque de « surblocage », avec un ciblage trop large.

L’entreprise pourra mettre de nouveau en avant ces arguments devant la Cour d’appel administrative régionale du Lazio auprès de laquelle elle a déjà annoncé qu’elle ferait appel.

Le CEO de Cloudflare, Matthew Prince, a vertement réagi vendredi sur X dans un long message en estimant que cette amende était infligée à son entreprise pour « ne pas s’être conformée à [un] programme de censure d’Internet ».

Il y explique aussi que Cloudflare réfléchit à « 1) mettre fin aux services de cybersécurité pro bono d’une valeur de plusieurs millions de dollars qu’ [elle fournit] aux prochains Jeux olympiques de Milan-Cortina ; 2) mettre fin aux services de cybersécurité gratuits de Cloudflare pour tous les utilisateurs basés en Italie ; 3) retirer tous les serveurs des villes italiennes ; et 4) mettre fin à tous les projets de création d’un bureau Cloudflare en Italie ou d’investissements dans le pays ».

Reçu — 9 janvier 2026 Next - Articles gratuits

☕️ Le ministère des Armées signe un accord-cadre avec Mistral

9 janvier 2026 à 14:52

Le ministère des Armées et des Anciens Combattants a annoncé [PDF] ce jeudi 8 janvier avoir signé un accord-cadre avec Mistral.

Cela doit permettre « à l’ensemble des armées, directions et services du ministère, ainsi qu’à des établissements publics dont le ministère a la tutelle, dont le Commissariat à l’énergie atomique et aux énergies alternatives, l’Office national d’études et de recherches aérospatiales et le Service hydrographique et océanographique de la marine, d’accéder aux solutions d’intelligence artificielle avancées proposées par Mistral AI ».

C’est la récente Agence ministérielle pour l’intelligence artificielle de défense (AMIAD) qui pilotera cet accord-cadre. Celui-ci permet à toutes les entités du ministère d’accéder « aux modèles, logiciels et prestations d’IA de pointe développés par Mistral AI ».

logo de Mistral AI
Logo Mistral

Chargée de mettre en oeuvre la stratégie ministérielle pour l’IA de défense, l’AMIAD a inauguré en septembre dernier son supercalculateur classifié installé au Mont-Valérien à Suresnes, aux portes de Paris, dont la construction avait été confiée à Orange et HPE.

Contacté par Next, Mistral n’a pas souhaité en dire plus au sujet de cet accord-cadre.

De l’autre côté de l’Atlantique, fin décembre, le ministère de la Guerre (DoW, ex-ministère de la Défense renommé en septembre) de Donald Trump annonçait des accords avec Google Gemini et xAI afin d’alimenter sa nouvelle plateforme GenAI.mil.

NASA : un budget moins catastrophique que prévu mais Mars Sample Return est abandonné

9 janvier 2026 à 13:46
Can you hear me, Major Tom?
NASA : un budget moins catastrophique que prévu mais Mars Sample Return est abandonné

Alors que l’administration de Donald Trump voulait diviser par deux le budget scientifique de la NASA, après négociation entre démocrates et républicains, le Congrès des États-Unis prévoit une baisse de 1 %. Toutefois le Sénat et la Chambre des représentants ont entériné la mort du projet Mars Sample Return que les États-Unis avaient déjà quasiment abandonné.

L’année 2026 devrait être moins problématique que prévu concernant le budget scientifique de la NASA. Alors que l’administration de Donald Trump proposait dès mars 2025 une baisse de 50 %, les élus républicains et démocrates du Congrès des États-Unis ont négocié qu’il baisse de 1 %, rendant à l’agence spatiale états-unienne les moyens dont elle a besoin pour effectuer ses recherches.

Une baisse de 2 % du budget total de la NASA au lieu des 25 % prévus par Trump

Comme l’explique ArsTechnica, le projet de budget total de la NASA avec notamment l’exploration spatiale (comprenant les missions vers la Lune voulues par Donald Trump) prévu par les élus pour 2026 devrait atteindre les 24,4 milliards de dollars. C’est 2 % de moins que les 24,9 milliards de dollars du budget de l’agence pour 2025, une baisse aussi beaucoup moins importante que celle voulue par Donald Trump qui avait prévu de l’amputer d’un quart. À titre de comparaison, le budget de l’ESA est de 22,1 milliards d’euros pour 2026, avec 3,787 milliards d’euros pour le programme scientifique.

« Franchement, c’est mieux que ce que j’aurais pu espérer. Il y a très peu de choses à redire à ce sujet », a déclaré Casey Dreier, responsable de la politique spatiale pour The Planetary Society à nos confrères, même s’il regrette la perte de temps et d’énergie qu’ont dû endurer ses équipes pour réfléchir à la manière de fonctionner avec les coupes drastiques prévues par Donald Trump.

Cette décision n’annulera cependant pas le plan de départs volontaires mis en place l’année dernière au sein de l’agence ni la fermeture de bâtiments et de services comme la principale bibliothèque.

Plus de budget pour Mars Sample Return

Le compromis sur le budget [PDF], explique par contre que « l’accord ne soutient pas le programme Mars Sample Return (MSR) existant ». C’est donc l’arrêt définitif du financement par les États-Unis du retour des échantillons géologiques de sol martien récoltés par le rover Perseverance. Le programme était déjà sur la sellette avant le retour de Trump au pouvoir. En avril 2024, la NASA lançait un appel pour trouver des solutions moins coûteuses.

En octobre dernier, des chercheurs de la NASA et de l’ESA publiaient quatre articles sur le sujet de la récupération de ces échantillons dans la revue scientifique Astrobiology. Une autre équipe de chercheurs proposait son regard sur la question dans la même revue en décembre dernier. Une des questions, explique l’ESA dans ce billet de blog est d’éviter la contamination des échantillons avec la chimie terrestre.

Mais le Congrès des États-Unis met donc une croix quasiment définitive sur le financement du projet de son côté de l’Atlantique. « Cependant, les capacités technologiques développées dans le cadre du programme MSR sont non seulement essentielles à la réussite des futures missions scientifiques, mais aussi à l’exploration humaine de la Lune et de Mars », explique quand même le document de compromis sur le budget.

« Par conséquent, l’accord prévoit une demande de 110 000 000 dollars pour le programme Mars Future Missions, y compris les efforts MSR existants, afin de soutenir les systèmes radar, spectroscopie, entrée, descente et atterrissage, ainsi que les technologies précurseurs translationnelles qui permettront de mener à bien les missions scientifiques de la prochaine décennie, y compris les missions lunaires et martiennes ».

« Mars Future Missions » n’était jusque là pas un nom de programme connu au sein de la NASA. L’argent prévu pour cette nouvelle mission pourrait permettre à la NASA d’appuyer sur le bouton reset, selon Jack Kiraly, directeur des relations gouvernementales à la Planetary Society cité par la revue Science.

ZefZERO, le plan B de l’ESA pour utiliser autrement l’Earth Return Orbiter

Vu les projets de coupes drastiques dans le budget de la NASA de Trump l’année dernière et les déboires passés du programme MSR, l’ESA a présenté en novembre dernier un plan B, nommé ZefZERO pour réutiliser sa contribution principale au projet, l’Earth Return Orbiter. Celui-ci devait récupérer les échantillons après s’être positionné en orbite martienne.

Dans cette nouvelle mission européenne, l’orbiteur devrait mesurer des vents martiens à différentes altitudes de la planète rouge, selon La Tribune. « Ces mesures directes de vents n’ont jamais été faites en dehors de la Terre à ce jour. Ce serait vraiment une première », expliquait Daniel Neuenschwander, le directeur de l’exploration humaine et robotique de l’ESA.

❌