Vue normale

Reçu — 16 janvier 2026 Actualités numériques

Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

16 janvier 2026 à 13:49
À table avec une longue cuillère ?
Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

Alors que Wikipédia fête ses 25 ans, la fondation Wikimedia en profite pour mettre en avant son programme « Enterprise » et les accords qu’elle vient de signer avec des entreprises majeures de l’IA générative telles qu’Amazon, Meta, Microsoft, Mistral AI ou Perplexity. Des accords qui lui permettent de canaliser le nombre énorme de requêtes effectuées par les bots crawlers d’IA générative sur ses infrastructures.

Hier, Wikipédia fêtait ses 25 ans. « Avec des milliards de visites mensuelles et un nombre toujours croissant d’organisations qui s’appuient sur les connaissances gratuites et vérifiées de Wikipédia, cette plateforme est devenue partie intégrante de l’architecture de l’ensemble de l’Internet », déclarait à cette occasion Maryana Iskander, directrice générale de la Fondation Wikimédia.

Le lendemain de cet anniversaire, cette même fondation annonce avoir conclu des accords avec les entreprises d’IA générative Amazon, Meta, Microsoft, Mistral AI et Perplexity pour son programme « Wikimedia Enterprise ».

Une saturation des infrastructures de Wikimédia qui demande un changement d’utilisation

Depuis le début des modèles de langage, le contenu de Wikipédia est crucial pour leur entrainement. L’encyclopédie participative permet à toutes ces entreprises de s’appuyer sur d’importantes masses de données créées par des humains. Elle est à la fois une source énorme d’exemples d’écriture et d’informations mises à jour régulièrement couvrant un spectre encyclopédique.

L’adoption par Wikipédia de la licence Creative Commons by-sa en 2009 rend les choses encore plus simples pour la réutilisation de ses contenus (la question de la citation des auteurs dans les outils d’IA générative se pose néanmoins). Ainsi, en 2020, GPT-3 d’OpenAI s’appuyait déjà sur trois milliards de tokens venant de la version anglophone de l’encyclopédie.

Mais depuis, les modèles de langage sont sortis des laboratoires et les entreprises en mettent de nouveaux sur le marché toutes les semaines. De plus, l’utilisation généralisée du RAG (ou génération à enrichissement contextuel en français), technique qui permet d’optimiser leur réponse sans relancer un processus d’entrainement, augmente considérablement le nombre de requêtes envoyées aux sites qui peuvent rafraichir les informations contenues dans le modèle. Ces requêtes envoyées par les robots crawlers des entreprises d’IA saturent régulièrement les infrastructures de certains sites. Et Wikipédia en fait évidemment partie.

En avril 2025, la fondation Wikimedia tirait un signal d’alarme : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants », expliquait-elle. Surtout que certaines entreprises d’IA générative ne respectent pas les fichiers robots.txt qui sont censés permettre de donner des instructions aux robots crawlers comme leur interdire l’accès.

Plusieurs API et une volonté d’utiliser le programme pour mieux gérer les citations

Le programme Enterprise permet à la fondation de rediriger les entreprises d’IA vers des API qui gèrent mieux leurs accès au contenu. Elle en propose plusieurs : l’API On-demand renvoie la version la plus récente pour une demande d’article spécifique, l’API Snapshot fournit Wikipédia sous forme de fichier téléchargeable pour chaque langue, mis à jour toutes les heures, et l’API Realtime diffuse les mises à jour dès qu’elles se produisent.

En octobre dernier, la fondation expliquait que l’encyclopédie perdait 8 % de pages vues par les humains en un an et mettait ça sur le compte de l’IA. À cette occasion, elle s’émeuvait d’un risque d’une baisse de la participation au projet. Car si les internautes ne savent pas que les contenus générés par IA sont tirés en grande partie de Wikipédia et qu’ils ne la consultent plus, il est possible qu’ils ne voient plus l’intérêt d’y participer. La fondation expliquait à ce moment-là que son programme « Enterprise » devait pousser aussi les entreprises d’IA à attribuer correctement les contenus.

« Wikipédia est un élément essentiel du travail de ces entreprises technologiques, qui doivent trouver comment le soutenir financièrement », explique Lane Becker, président de Wikimedia Enterprise à Reuters. « Il nous a fallu un certain temps pour comprendre quelles étaient les fonctionnalités et les caractéristiques à proposer si nous voulions faire passer ces entreprises de notre plateforme gratuite à une plateforme commerciale… mais tous nos grands partenaires technologiques comprennent vraiment la nécessité de s’engager à soutenir le travail de Wikipédia », ajoute-t-il.

La fondation précise que ce ne sont pas les premiers accords dans ce sens avec d’importantes entreprises du monde de l’IA générative. Ainsi, Google, Ecosia, Nomic, Pleias, ProRata et Reef Media étaient déjà entrées dans son programme Enterprise.

Mais avec les cinq nouveaux accords, la fondation Wikimédia se lie économiquement de plus en plus avec ce milieu. Si leurs montants prennent une place significative dans son budget, des dents pourraient grincer au sein de la communauté Wikipédia. Rappelons que l’IA est un sujet sensible qui s’est un peu enflammé quand la fondation a voulu utiliser l’IA générative pour créer des résumés automatiques d’articles de l’encyclopédie.

Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

16 janvier 2026 à 13:49
À table avec une longue cuillère ?
Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

Alors que Wikipédia fête ses 25 ans, la fondation Wikimedia en profite pour mettre en avant son programme « Enterprise » et les accords qu’elle vient de signer avec des entreprises majeures de l’IA générative telles qu’Amazon, Meta, Microsoft, Mistral AI ou Perplexity. Des accords qui lui permettent de canaliser le nombre énorme de requêtes effectuées par les bots crawlers d’IA générative sur ses infrastructures.

Hier, Wikipédia fêtait ses 25 ans. « Avec des milliards de visites mensuelles et un nombre toujours croissant d’organisations qui s’appuient sur les connaissances gratuites et vérifiées de Wikipédia, cette plateforme est devenue partie intégrante de l’architecture de l’ensemble de l’Internet », déclarait à cette occasion Maryana Iskander, directrice générale de la Fondation Wikimédia.

Le lendemain de cet anniversaire, cette même fondation annonce avoir conclu des accords avec les entreprises d’IA générative Amazon, Meta, Microsoft, Mistral AI et Perplexity pour son programme « Wikimedia Enterprise ».

Une saturation des infrastructures de Wikimédia qui demande un changement d’utilisation

Depuis le début des modèles de langage, le contenu de Wikipédia est crucial pour leur entrainement. L’encyclopédie participative permet à toutes ces entreprises de s’appuyer sur d’importantes masses de données créées par des humains. Elle est à la fois une source énorme d’exemples d’écriture et d’informations mises à jour régulièrement couvrant un spectre encyclopédique.

L’adoption par Wikipédia de la licence Creative Commons by-sa en 2009 rend les choses encore plus simples pour la réutilisation de ses contenus (la question de la citation des auteurs dans les outils d’IA générative se pose néanmoins). Ainsi, en 2020, GPT-3 d’OpenAI s’appuyait déjà sur trois milliards de tokens venant de la version anglophone de l’encyclopédie.

Mais depuis, les modèles de langage sont sortis des laboratoires et les entreprises en mettent de nouveaux sur le marché toutes les semaines. De plus, l’utilisation généralisée du RAG (ou génération à enrichissement contextuel en français), technique qui permet d’optimiser leur réponse sans relancer un processus d’entrainement, augmente considérablement le nombre de requêtes envoyées aux sites qui peuvent rafraichir les informations contenues dans le modèle. Ces requêtes envoyées par les robots crawlers des entreprises d’IA saturent régulièrement les infrastructures de certains sites. Et Wikipédia en fait évidemment partie.

En avril 2025, la fondation Wikimedia tirait un signal d’alarme : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants », expliquait-elle. Surtout que certaines entreprises d’IA générative ne respectent pas les fichiers robots.txt qui sont censés permettre de donner des instructions aux robots crawlers comme leur interdire l’accès.

Plusieurs API et une volonté d’utiliser le programme pour mieux gérer les citations

Le programme Enterprise permet à la fondation de rediriger les entreprises d’IA vers des API qui gèrent mieux leurs accès au contenu. Elle en propose plusieurs : l’API On-demand renvoie la version la plus récente pour une demande d’article spécifique, l’API Snapshot fournit Wikipédia sous forme de fichier téléchargeable pour chaque langue, mis à jour toutes les heures, et l’API Realtime diffuse les mises à jour dès qu’elles se produisent.

En octobre dernier, la fondation expliquait que l’encyclopédie perdait 8 % de pages vues par les humains en un an et mettait ça sur le compte de l’IA. À cette occasion, elle s’émeuvait d’un risque d’une baisse de la participation au projet. Car si les internautes ne savent pas que les contenus générés par IA sont tirés en grande partie de Wikipédia et qu’ils ne la consultent plus, il est possible qu’ils ne voient plus l’intérêt d’y participer. La fondation expliquait à ce moment-là que son programme « Enterprise » devait pousser aussi les entreprises d’IA à attribuer correctement les contenus.

« Wikipédia est un élément essentiel du travail de ces entreprises technologiques, qui doivent trouver comment le soutenir financièrement », explique Lane Becker, président de Wikimedia Enterprise à Reuters. « Il nous a fallu un certain temps pour comprendre quelles étaient les fonctionnalités et les caractéristiques à proposer si nous voulions faire passer ces entreprises de notre plateforme gratuite à une plateforme commerciale… mais tous nos grands partenaires technologiques comprennent vraiment la nécessité de s’engager à soutenir le travail de Wikipédia », ajoute-t-il.

La fondation précise que ce ne sont pas les premiers accords dans ce sens avec d’importantes entreprises du monde de l’IA générative. Ainsi, Google, Ecosia, Nomic, Pleias, ProRata et Reef Media étaient déjà entrées dans son programme Enterprise.

Mais avec les cinq nouveaux accords, la fondation Wikimédia se lie économiquement de plus en plus avec ce milieu. Si leurs montants prennent une place significative dans son budget, des dents pourraient grincer au sein de la communauté Wikipédia. Rappelons que l’IA est un sujet sensible qui s’est un peu enflammé quand la fondation a voulu utiliser l’IA générative pour créer des résumés automatiques d’articles de l’encyclopédie.

☕️ La distribution Tails 7.4 permet maintenant de garder les réglages de langues

16 janvier 2026 à 07:57

La distribution Linux Tails, spécialisée dans la sécurité, a été mise à jour jeudi. Arrivant un mois après la 7.3.1, cette nouvelle version contient des évolutions de paquets telles que le passage de Tor Browser à la version 15.0.4, Thunderbird en version 140.6.0 ou le noyau Linux dans sa version 6.12.63.

Une des nouveautés les plus visibles pour l’utilisateur, c’est la possibilité de garder ses réglages de langues, de disposition de clavier et de format d’affichage des dates et heures entre deux utilisations de la distribution live.

En effet, l’équipe de Tails explique avoir mis en place une option pour enregistrer ces options si l’utilisateur l’active. Ainsi, on peut plus facilement saisir le mot de passe de notre stockage persistant, si on le veut. Attention, le billet annonçant la nouvelle version précise que ces options sont stockées de manière non chiffrée.

L’équipe de Tails précise aussi qu’ « avec la transition en cours de BitTorrent v1 vers v2, les fichiers BitTorrent v1 que nous avons fournis jusqu’à présent peuvent devenir un problème de sécurité ». Elle a donc choisi de ne plus utiliser le protocole BitTorrent pour distribuer sa distribution : « Nous ne pensons pas que la mise à jour vers BitTorrent v2 justifie les coûts supplémentaires liés à la migration et à la maintenance ».

☕️ La distribution Tails 7.4 permet maintenant de garder les réglages de langues

16 janvier 2026 à 07:57

La distribution Linux Tails, spécialisée dans la sécurité, a été mise à jour jeudi. Arrivant un mois après la 7.3.1, cette nouvelle version contient des évolutions de paquets telles que le passage de Tor Browser à la version 15.0.4, Thunderbird en version 140.6.0 ou le noyau Linux dans sa version 6.12.63.

Une des nouveautés les plus visibles pour l’utilisateur, c’est la possibilité de garder ses réglages de langues, de disposition de clavier et de format d’affichage des dates et heures entre deux utilisations de la distribution live.

En effet, l’équipe de Tails explique avoir mis en place une option pour enregistrer ces options si l’utilisateur l’active. Ainsi, on peut plus facilement saisir le mot de passe de notre stockage persistant, si on le veut. Attention, le billet annonçant la nouvelle version précise que ces options sont stockées de manière non chiffrée.

L’équipe de Tails précise aussi qu’ « avec la transition en cours de BitTorrent v1 vers v2, les fichiers BitTorrent v1 que nous avons fournis jusqu’à présent peuvent devenir un problème de sécurité ». Elle a donc choisi de ne plus utiliser le protocole BitTorrent pour distribuer sa distribution : « Nous ne pensons pas que la mise à jour vers BitTorrent v2 justifie les coûts supplémentaires liés à la migration et à la maintenance ».

Vidéosurveillance algorithmique : les députés ont voté la prolongation jusqu’en 2027

16 janvier 2026 à 07:30
ad lib ?
Vidéosurveillance algorithmique : les députés ont voté la prolongation jusqu’en 2027

La proposition gouvernementale de renouveler l’expérimentation de « vidéoprotection algorithmique » jusqu’à fin 2027 a été adoptée par l’Assemblée nationale ce mardi 13 janvier. Les députés ont voté l’article concerné sans modifier la version amendée par le Sénat. Objectif : prolonger jusqu’au JO de 2030. Et au-delà ?

Depuis la fin des JO 2024, les gouvernements ont changé mais la volonté politique de prolonger l’expérimentation de la vidéosurveillance algorithmique mise en place pour l’occasion est restée. Passé les étapes du vote du Sénat en juin dernier puis maintenant du vote de l’Assemblée nationale, le texte du gouvernement qui la poursuit jusqu’au 31 décembre 2027 passe sans encombre.

En mars 2025, le gouvernement de l’époque avait glissé la même prolongation dans sa proposition de loi relative au renforcement de la sûreté dans les transports. À l’époque, il donnait comme prétexte le fait que l’expérimentation lors des JO 2024 n’avait pas donné assez de résultats : « En effet, eu égard à son champ et à ses modalités de mise en œuvre, l’expérimentation n’a pas apporté de réponse satisfaisante et pérenne quant à la pertinence du recours à l’intelligence artificielle en matière de vidéoprotection ». Mais le Conseil constitutionnel l’avait retoquée, non sur le fond mais sur le fait qu’elle était un « cavalier législatif ».

Quelques mois après, le gouvernement remettait donc sur le métier sa proposition de prolongation dans un projet de loi relative à l’organisation des jeux Olympiques et Paralympiques de 2030, ce qui devrait éviter les accusations de « cavalier législatif ». Cette fois, la ministre des Sports de l’époque, Marie Barsacq, expliquait que le terrain des JO de 2030 n’était pas le même que celui des JO de 2024 :

« Pour les Alpes françaises, on va être dans un territoire de montagne, donc on n’aura pas autant de forces de l’ordre, et en tout cas pas une concentration comme on a pu avoir à Paris avec Paris 2024 de population au même endroit, et donc cette disposition de vidéosurveillance algorithmique pourrait être beaucoup plus pertinente, donc c’est pour ça qu’on souhaite prolonger l’expérience ».

Une simple reconduction

L’article 35 du projet de loi du gouvernement concernant cette prolongation était succinct et proposait sa « reconduite, dans les mêmes conditions, jusqu’au 31 décembre 2027 », avec une remise au Parlement au plus tard le 30 septembre 2027 d’un rapport d’évaluation de la mise en œuvre de cette nouvelle période d’expérimentation.


Il reste 57% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 15 janvier 2026 Actualités numériques

Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

15 janvier 2026 à 11:53
Et la santé surtout !
Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

Alors que la pandémie de Covid-19 a marqué un accroissement de la circulation de fausses informations en santé, notamment via les réseaux sociaux, la ministre de la Santé, Stéphanie Rist, lance une stratégie pour « y répondre de manière concrète, durable et collective ».

Des outils de diffusion d’informations et de riposte contre la désinformation, la constitution d’un « observatoire de la désinformation en santé » et la mise en place d’outils de mesure de la perception des citoyens… La ministre de la Santé, Stéphanie Rist, semble vouloir agir contre la désinformation en santé dont la circulation s’est fortement accrue depuis le début de la pandémie de Covid-19.

Elle vient de lancer une « stratégie nationale contre la désinformation en santé » en s’appuyant sur le rapport que lui ont remis lundi 12 janvier Mathieu Molimard, Dominique Costagliolia et Hervé de Maisonneuve.

« La parole publique en santé est trop dispersée, trop lente face à la viralité »

Dans leur texte [PDF], les trois médecins rapporteurs affirment que la plupart des acteurs qu’ils ont interrogés « décrivent une augmentation de la désinformation en santé, alimentée par une littératie scientifique déficiente, un esprit critique insuffisant, la viralité numérique, la perte de repères scientifiques et la diffusion organisée de contenus trompeurs ». Des journalistes scientifiques, des organismes de santé, des politiques ou même des plateformes de réseaux sociaux comme Meta ou YouTube (le rapport note le « seul refus explicite d’entretien » de la part de la plateforme X/Twitter) ont été auditionnés.

Pour les auteurs, « si notre système scientifique, pris dans son ensemble, est solide, la parole publique en santé est trop dispersée, trop lente face à la viralité ». Et la désinformation touche « tous les domaines » de la santé : « vaccination, cancer, alimentation, santé mentale, santé des femmes, pratiques de soins non conventionnelles ou risques environnementaux ».

Les profils des acteurs de la désinformation en santé en France sont « variés » : influenceurs, groupes militants, professionnels de santé ou scientifiques dévoyés… « Les industriels, qu’ils commercialisent des produits de santé ou des produits impactant la santé, peuvent aussi être à l’origine de désinformation en santé », expliquent-ils. Et les trois médecins constatent que « la détection et la réponse à la désinformation restent inorganisées ».

Écoute et riposte prévues par le ministère

C’est à ce problème que veut remédier Stéphanie Rist. Sa stratégie se déploie sur trois axes. De l’écoute et des consultations citoyennes, d’abord, avec l’exploration des perceptions et logiques de croyance et un baromètre national sur la question. Mais aussi l’observation en ligne « dans la durée des attitudes et pratiques des citoyens face à la désinformation en santé » et la volonté de « recueillir leurs réactions en temps réel et tester des hypothèses de communication ». Un « comité » composé de 27 citoyens a aussi été mis en place. Il doit remettre un avis à la fin du mois de janvier ou début février.

La ministre explique travailler à la mise en place d’un « Observatoire de la désinformation en santé » dont elle ne donne pour l’instant pas la composition. Celui-ci doit « être l’acteur essentiel de l’identification et de la compréhension des phénomènes de désinformation en santé ».

Concernant la riposte sur le numérique, un dispositif d’« infovigilance en santé » doit être lancé à partir de fin janvier. En s’appuyant sur de la veille et de la détection de fausses informations en santé, il est censé conduire à la mise en place d’outils de diffusion d’informations et de riposte sur ces sujets adaptés aux plateformes comme TikTok et YouTube Shorts, avec comme « site de référence » l’espace « décryptages » du site sante.fr (et non Santé.fr comme écrit dans le rapport). Espérons qu’un effort de modernisation du site soit prévu avant le lancement de la campagne.

Enfin, pour « bâtir un socle de confiance propice à l’information en santé », le ministère élabore des « kits pédagogiques sur l’information en santé à destination des enseignants et enfants ». Il veut aussi intégrer plus la désinformation en santé au sein des programmes de recherche. Il aurait été d’ailleurs intéressant que, pour le rapport sur lequel il s’appuie, le ministère ne sollicite pas seulement le regard de médecins mais aussi celui de chercheuses et chercheurs en sciences de l’information et en sociologie.

Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

15 janvier 2026 à 11:53
Et la santé surtout !
Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

Alors que la pandémie de Covid-19 a marqué un accroissement de la circulation de fausses informations en santé, notamment via les réseaux sociaux, la ministre de la Santé, Stéphanie Rist, lance une stratégie pour « y répondre de manière concrète, durable et collective ».

Des outils de diffusion d’informations et de riposte contre la désinformation, la constitution d’un « observatoire de la désinformation en santé » et la mise en place d’outils de mesure de la perception des citoyens… La ministre de la Santé, Stéphanie Rist, semble vouloir agir contre la désinformation en santé dont la circulation s’est fortement accrue depuis le début de la pandémie de Covid-19.

Elle vient de lancer une « stratégie nationale contre la désinformation en santé » en s’appuyant sur le rapport que lui ont remis lundi 12 janvier Mathieu Molimard, Dominique Costagliolia et Hervé de Maisonneuve.

« La parole publique en santé est trop dispersée, trop lente face à la viralité »

Dans leur texte [PDF], les trois médecins rapporteurs affirment que la plupart des acteurs qu’ils ont interrogés « décrivent une augmentation de la désinformation en santé, alimentée par une littératie scientifique déficiente, un esprit critique insuffisant, la viralité numérique, la perte de repères scientifiques et la diffusion organisée de contenus trompeurs ». Des journalistes scientifiques, des organismes de santé, des politiques ou même des plateformes de réseaux sociaux comme Meta ou YouTube (le rapport note le « seul refus explicite d’entretien » de la part de la plateforme X/Twitter) ont été auditionnés.

Pour les auteurs, « si notre système scientifique, pris dans son ensemble, est solide, la parole publique en santé est trop dispersée, trop lente face à la viralité ». Et la désinformation touche « tous les domaines » de la santé : « vaccination, cancer, alimentation, santé mentale, santé des femmes, pratiques de soins non conventionnelles ou risques environnementaux ».

Les profils des acteurs de la désinformation en santé en France sont « variés » : influenceurs, groupes militants, professionnels de santé ou scientifiques dévoyés… « Les industriels, qu’ils commercialisent des produits de santé ou des produits impactant la santé, peuvent aussi être à l’origine de désinformation en santé », expliquent-ils. Et les trois médecins constatent que « la détection et la réponse à la désinformation restent inorganisées ».

Écoute et riposte prévues par le ministère

C’est à ce problème que veut remédier Stéphanie Rist. Sa stratégie se déploie sur trois axes. De l’écoute et des consultations citoyennes, d’abord, avec l’exploration des perceptions et logiques de croyance et un baromètre national sur la question. Mais aussi l’observation en ligne « dans la durée des attitudes et pratiques des citoyens face à la désinformation en santé » et la volonté de « recueillir leurs réactions en temps réel et tester des hypothèses de communication ». Un « comité » composé de 27 citoyens a aussi été mis en place. Il doit remettre un avis à la fin du mois de janvier ou début février.

La ministre explique travailler à la mise en place d’un « Observatoire de la désinformation en santé » dont elle ne donne pour l’instant pas la composition. Celui-ci doit « être l’acteur essentiel de l’identification et de la compréhension des phénomènes de désinformation en santé ».

Concernant la riposte sur le numérique, un dispositif d’« infovigilance en santé » doit être lancé à partir de fin janvier. En s’appuyant sur de la veille et de la détection de fausses informations en santé, il est censé conduire à la mise en place d’outils de diffusion d’informations et de riposte sur ces sujets adaptés aux plateformes comme TikTok et YouTube Shorts, avec comme « site de référence » l’espace « décryptages » du site sante.fr (et non Santé.fr comme écrit dans le rapport). Espérons qu’un effort de modernisation du site soit prévu avant le lancement de la campagne.

Enfin, pour « bâtir un socle de confiance propice à l’information en santé », le ministère élabore des « kits pédagogiques sur l’information en santé à destination des enseignants et enfants ». Il veut aussi intégrer plus la désinformation en santé au sein des programmes de recherche. Il aurait été d’ailleurs intéressant que, pour le rapport sur lequel il s’appuie, le ministère ne sollicite pas seulement le regard de médecins mais aussi celui de chercheuses et chercheurs en sciences de l’information et en sociologie.

☕️ Un rapport de police britannique invente un match de foot et rejette la faute sur Copilot

15 janvier 2026 à 09:46

Le responsable de la police du comté britannique des Midlands de l’Ouest, Craig Guildford, a reconnu une erreur dans un rapport concernant l’interdiction de stade de supporters du club de foot lors d’un match de Ligue Europa.

En effet, pour le match d’Aston Villa contre le Maccabi Tel-Aviv qui se jouait en octobre dernier, la police locale l’avait classé « à haut risque » et s’était prononcée pour l’interdiction aux supporters visiteurs d’assister au match. Dans son communiqué de presse, pas d’erreur, mais dans son rapport remis aux autorités pour justifier sa position, elle évoquait un match entre West Ham et le Maccabi Tel Aviv qui n’a jamais eu lieu.

Depuis la date du match, les critiques pleuvent sur cette décision, notamment de la part du Premier ministre britannique Keir Starmer et du gouvernement israélien. Lundi dernier, Craig Guildford a envoyé une lettre [PDF] à Karen Bradley, membre du Parlement britannique et responsable du Home Affairs Select Committee de la Chambre des communes.

« Vendredi après-midi, j’ai pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l’utilisation de Microsoft Co Pilot », s’y explique-t-il après avoir nié en décembre s’être appuyé sur l’IA pour préparer le rapport, remarque The Verge. Il avait aussi imputé le problème à une erreur dans les résultats du moteur de recherche de Google.

illustration d'une personne manipulée comme une marionnette par une IA

Pour la ministre de l’Intérieur britannique, Shabana Mahmood, c’en est trop. Selon l’AFP, celle-ci a affirmé : Craig Guildford « n’a plus ma confiance » devant la Chambre des communes après avoir commandé un rapport indépendant dont les conclusions sont « accablantes », selon elle. L’agence de presse explique qu’elle n’a pas le pouvoir de le démettre de ses fonctions mais qu’elle a annoncé que son gouvernement allait rétablir cette possibilité.

☕️ Un rapport de police britannique invente un match de foot et rejette la faute sur Copilot

15 janvier 2026 à 09:46

Le responsable de la police du comté britannique des Midlands de l’Ouest, Craig Guildford, a reconnu une erreur dans un rapport concernant l’interdiction de stade de supporters du club de foot lors d’un match de Ligue Europa.

En effet, pour le match d’Aston Villa contre le Maccabi Tel-Aviv qui se jouait en octobre dernier, la police locale l’avait classé « à haut risque » et s’était prononcée pour l’interdiction aux supporters visiteurs d’assister au match. Dans son communiqué de presse, pas d’erreur, mais dans son rapport remis aux autorités pour justifier sa position, elle évoquait un match entre West Ham et le Maccabi Tel Aviv qui n’a jamais eu lieu.

Depuis la date du match, les critiques pleuvent sur cette décision, notamment de la part du Premier ministre britannique Keir Starmer et du gouvernement israélien. Lundi dernier, Craig Guildford a envoyé une lettre [PDF] à Karen Bradley, membre du Parlement britannique et responsable du Home Affairs Select Committee de la Chambre des communes.

« Vendredi après-midi, j’ai pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l’utilisation de Microsoft Co Pilot », s’y explique-t-il après avoir nié en décembre s’être appuyé sur l’IA pour préparer le rapport, remarque The Verge. Il avait aussi imputé le problème à une erreur dans les résultats du moteur de recherche de Google.

illustration d'une personne manipulée comme une marionnette par une IA

Pour la ministre de l’Intérieur britannique, Shabana Mahmood, c’en est trop. Selon l’AFP, celle-ci a affirmé : Craig Guildford « n’a plus ma confiance » devant la Chambre des communes après avoir commandé un rapport indépendant dont les conclusions sont « accablantes », selon elle. L’agence de presse explique qu’elle n’a pas le pouvoir de le démettre de ses fonctions mais qu’elle a annoncé que son gouvernement allait rétablir cette possibilité.

Reçu — 14 janvier 2026 Actualités numériques

IBAN volés : Free écope de 42 M€ d’amendes par la CNIL pour des manquements de sécurité

14 janvier 2026 à 13:13
42 est toujours la réponse
IBAN volés : Free écope de 42 M€ d’amendes par la CNIL pour des manquements de sécurité

La CNIL vient de prononcer deux amendes de 27 et 15 millions d’euros contre Free Mobile et Free pour ne pas avoir mis en place des mesures de sécurité adaptées pour assurer la confidentialité des données de ses abonnés. Ces décisions ont été prononcées dans le cadre de l’analyse de la fuite de données survenue en octobre 2024 concernant 24 millions de contrats d’abonnés dont certains IBAN faisaient partie.

Rapidement après la fuite de données de clients Free survenue en octobre 2024, la CNIL a réalisé un contrôle chez l’opérateur dès le 8 novembre 2024 et a établi que l’opérateur était coupable de manquements de plusieurs obligations prévues par le RGPD.

Notamment, au vu du « nombre particulièrement élevé de données et de personnes concernées par la violation de données (les données concernant 24 633 469 contrats) » et de manquements en cause, l’autorité de protection des données a prononcé deux amendes de 27 et 15 millions d’euros contre respectivement Free Mobile et Free.

De fait, la CNIL inflige deux amendes aux deux filiales d’Iliad dans deux délibérations différentes datées toutes deux du 8 janvier 2026 (délibération concernant Free Mobile, délibération concernant Free) car c’est bien la connexion de certains systèmes informatiques entre les deux entreprises qui est en cause.

Mais l’autorité se base à chaque fois sur le fait que les deux entreprises sont détenues à 100 % par Iliad pour fixer le montant des amendes en prenant en compte le chiffre d’affaires du groupe et non celui de la filiale.

Une utilisation du VPN interne pas assez sécurisée


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Interrail : fuite de données personnelles avec numéro de passeport, date d’expiration…

14 janvier 2026 à 08:57

L’entreprise néerlandaise Eurail B.V., qui gère les pass Interrail et Eurail, est en train d’informer ses clients qu’elle avait été victime d’un incident de sécurité impliquant leurs données personnelles. La société affiche également un bandeau dès la page d’accueil de son site, renvoyant vers cet article.

Si elle affirme avoir « immédiatement pris des mesures pour sécuriser nos systèmes et lancé une enquête avec le soutien de spécialistes externes en cybersécurité », l’entreprise confirme qu’une « personne non autorisée a eu accès à une partie de [sa] base de données clients ».

Ainsi, sa « première analyse indique que [les données personnelles de ses clients] ont été consultées, et peuvent inclure :

  • Informations d’identité : prénom, nom, date de naissance, sexe ;
  • Coordonnées : adresse e-mail, adresse postale, numéro de téléphone, le cas échéant;
  • Informations sur le passeport: numéro de passeport, pays d’émission et date d’expiration ».

Eurail précise par contre qu’elle ne conserve « pas de copie visuelle du passeport ».

Eurail affirme continuer son enquête et avoir informé « les autorités compétentes, conformément à la législation en vigueur » et elle renvoie vers les consignes de l’autorité néerlandaise en de pareille situation. L’entreprise ajoute que, pour le moment, « il n’existe aucune preuve que ces données aient été mal utilisées ou rendues publiques ».

☕️ Interrail : fuite de données personnelles avec numéro de passeport, date d’expiration…

14 janvier 2026 à 08:57

L’entreprise néerlandaise Eurail B.V., qui gère les pass Interrail et Eurail, est en train d’informer ses clients qu’elle avait été victime d’un incident de sécurité impliquant leurs données personnelles. La société affiche également un bandeau dès la page d’accueil de son site, renvoyant vers cet article.

Si elle affirme avoir « immédiatement pris des mesures pour sécuriser nos systèmes et lancé une enquête avec le soutien de spécialistes externes en cybersécurité », l’entreprise confirme qu’une « personne non autorisée a eu accès à une partie de [sa] base de données clients ».

Ainsi, sa « première analyse indique que [les données personnelles de ses clients] ont été consultées, et peuvent inclure :

  • Informations d’identité : prénom, nom, date de naissance, sexe ;
  • Coordonnées : adresse e-mail, adresse postale, numéro de téléphone, le cas échéant;
  • Informations sur le passeport: numéro de passeport, pays d’émission et date d’expiration ».

Eurail précise par contre qu’elle ne conserve « pas de copie visuelle du passeport ».

Eurail affirme continuer son enquête et avoir informé « les autorités compétentes, conformément à la législation en vigueur » et elle renvoie vers les consignes de l’autorité néerlandaise en de pareille situation. L’entreprise ajoute que, pour le moment, « il n’existe aucune preuve que ces données aient été mal utilisées ou rendues publiques ».

☕️ Le laboratoire de la CNIL lance un test sur les dark patterns

14 janvier 2026 à 08:07

Sous le titre « Apparences Trompeuses », le LINC (Laboratoire d’Innovation Numérique de la CNIL) propose un petit test pour passer en revue les différents mécanismes utilisés par les dark pattterns.

Ces designs poussent les utilisateurs de sites web à faire un choix qu’ils ne feraient pas forcément s’ils étaient correctement informés par le site en question.

« Sauriez-vous reconnaitre un détournement d’attention ? Débusquer un réglage intrusif par défaut en créant un compte ? Résister à un parcours labyrinthique dans un centre de confidentialité, ou à un pilotage émotionnel en supprimant vos données ? » demande le laboratoire dans son texte de présentation du questionnaire.

Et en effet, certains concepteurs de sites web rivalisent d’idées pour vous guider vers un choix qui les arrange. En octobre encore, Meta a encore été pointée du doigt par la Commission européenne qui l’accuse d’utiliser des « dark patterns » et des designs « d’interface trompeuses » dans ses mécanismes de « notification et d’action ».

☕️ Le laboratoire de la CNIL lance un test sur les dark patterns

14 janvier 2026 à 08:07

Sous le titre « Apparences Trompeuses », le LINC (Laboratoire d’Innovation Numérique de la CNIL) propose un petit test pour passer en revue les différents mécanismes utilisés par les dark pattterns.

Ces designs poussent les utilisateurs de sites web à faire un choix qu’ils ne feraient pas forcément s’ils étaient correctement informés par le site en question.

« Sauriez-vous reconnaitre un détournement d’attention ? Débusquer un réglage intrusif par défaut en créant un compte ? Résister à un parcours labyrinthique dans un centre de confidentialité, ou à un pilotage émotionnel en supprimant vos données ? » demande le laboratoire dans son texte de présentation du questionnaire.

Et en effet, certains concepteurs de sites web rivalisent d’idées pour vous guider vers un choix qui les arrange. En octobre encore, Meta a encore été pointée du doigt par la Commission européenne qui l’accuse d’utiliser des « dark patterns » et des designs « d’interface trompeuses » dans ses mécanismes de « notification et d’action ».

Reçu — 13 janvier 2026 Actualités numériques

☕️ Firefox 147 : WebGPU sur Apple Silicon et support de la spécification XDG Base Directory

13 janvier 2026 à 15:32

Comme prévu, la version Firefox 147 apporte notamment le support de WebGPU aux Mac équipés de puces Apple Silicon, signalent les release notes publiées mardi par Mozilla.

Firefox 147 est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »), mise en place par Freedesktop pour faciliter le fait de retrouver où certains fichiers doivent se trouver. Elle définit un ou plusieurs répertoires de base où les fichiers doivent être localisés.

En nouveauté un peu plus visible pour l’utilisateur lambda, une option apparait dans le navigateur pour permettre à une fenêtre de lecture en incrustation d’image de s’ouvrir automatiquement quand une vidéo est en cours de lecture dans un onglet et qu’on passe cet onglet en arrière-plan :

La nouvelle version comprend aussi une amélioration des performances pour les vidéos avec les GPU AMD et la prise en charge de Safe Browsing V5.

Comme nous l’expliquions fin 2025, une vue partagée pour afficher deux sites côte à côte est en phase de test dans Firefox mais Firefox147 ne l’intègre pas encore officiellement.

☕️ Firefox 147 : WebGPU sur Apple Silicon et support de la spécification XDG Base Directory

13 janvier 2026 à 15:32

Comme prévu, la version Firefox 147 apporte notamment le support de WebGPU aux Mac équipés de puces Apple Silicon, signalent les release notes publiées mardi par Mozilla.

Firefox 147 est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »), mise en place par Freedesktop pour faciliter le fait de retrouver où certains fichiers doivent se trouver. Elle définit un ou plusieurs répertoires de base où les fichiers doivent être localisés.

En nouveauté un peu plus visible pour l’utilisateur lambda, une option apparait dans le navigateur pour permettre à une fenêtre de lecture en incrustation d’image de s’ouvrir automatiquement quand une vidéo est en cours de lecture dans un onglet et qu’on passe cet onglet en arrière-plan :

La nouvelle version comprend aussi une amélioration des performances pour les vidéos avec les GPU AMD et la prise en charge de Safe Browsing V5.

Comme nous l’expliquions fin 2025, une vue partagée pour afficher deux sites côte à côte est en phase de test dans Firefox mais Firefox147 ne l’intègre pas encore officiellement.

Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

13 janvier 2026 à 15:02
L'IA pour le travail et pour la santé, whatelse?
Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

S’appuyant sur son Claude Code, qui rencontre un certain succès, Anthropic est en train de mettre en place Cowork, un agent pour traiter vos tâches (pas trop complexes) de bureau à votre place en travaillant en mode « bac à sable » sur des dossiers choisis par l’utilisateur.

Anthropic a présenté ce lundi 12 janvier son projet nommé Cowork, un agent IA qui doit permettre d’automatiser une bonne partie des tâches de bureau autres que le code : « Claude Code pour le reste de votre travail », affirme même l’entreprise.

Claude pour le travail

Elle explique qu’après avoir lancé Claude Code, elle s’est rendu compte que les gens l’utilisaient aussi pour autre chose que du code. Anthropic a donc lancé un projet un peu similaire à son outil phare mais en l’adaptant à des tâches de bureau de la vie de tous les jours sur un ordinateur. L’idée est de ne surtout pas faire comme Microsoft avec Recall et de limiter la tâche qu’on veut automatiser à un seul répertoire dans lequel Claude pourra lire, éditer, créer (et donc supprimer) des fichiers.

Là, il pourra par exemple réorganiser et renommer des fichiers en fonction de la date de téléchargement, « créer une nouvelle feuille de calcul avec une liste de dépenses à partir d’une pile de captures d’écran, ou rédiger une première ébauche de rapport à partir de vos notes éparpillées », explique Anthropic.

De fait, Cowork est créé sur le SDK de l’agent Claude et utilise donc le même modèle que Claude Code. La seule chose qui les différencie, c’est l’approche moins « développeur » de Cowork pour mettre en place les routines avec une interface de configuration plus « user-friendly ». Dans un tutoriel, Anthropic présente encore Cowork comme un outil qui a « la puissance de Claude Code sans le terminal ».

Pour l’instant, Cowork est proposé aux abonnés Max (de 100 à 200 $/mois) qui utilisent Claude Desktop sur macOS. Une liste d’attente existe pour les autres.

Claude pour la santé

Dimanche, Anthropic a aussi essayé de se rattraper concernant le secteur de la santé qui a été sous les phares du CES cette année avec l’annonce de l’assouplissement de la surveillance des dispositifs de santé portables ou s’appuyant sur l’IA par la FDA. OpenAI en avait profité pour lancer son ChatGPT Santé.

Une semaine après, Anthropic pousse donc son projet Claude for Healthcare, un ensemble d’outils et de ressources qui permettent aux prestataires de soins de santé et aux patients d’utiliser Claude à des fins médicales « grâce à des produits conformes à la norme HIPAA », explique l’entreprise.

Comme ChatGPT Santé, Claude Healthcare va permettre à ses utilisateurs de synchroniser leurs données corporelles captées par leurs iPhone, smartwatchs et autres gadgets de fitness et de sport pour donner des conseils santé. Mais le service d’Anthropic pourra aussi s’appuyer sur les données de la Classification internationale des maladies, PubMed et, aux États-Unis, sur celles de Medicare et Medicaid et sur le National Provider Identifier.

Ainsi, l’entreprise promet d’accélérer l’examen des demandes d’autorisation préalable des dossiers des patients, promettant avec beaucoup de solutionisme technologique qu’ils « obtiendront plus rapidement des soins vitaux ».

Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

13 janvier 2026 à 15:02
L'IA pour le travail et pour la santé, whatelse?
Cowork : Anthropic présente un agent pour effectuer certaines tâches de bureau

S’appuyant sur son Claude Code, qui rencontre un certain succès, Anthropic est en train de mettre en place Cowork, un agent pour traiter vos tâches (pas trop complexes) de bureau à votre place en travaillant en mode « bac à sable » sur des dossiers choisis par l’utilisateur.

Anthropic a présenté ce lundi 12 janvier son projet nommé Cowork, un agent IA qui doit permettre d’automatiser une bonne partie des tâches de bureau autres que le code : « Claude Code pour le reste de votre travail », affirme même l’entreprise.

Claude pour le travail

Elle explique qu’après avoir lancé Claude Code, elle s’est rendu compte que les gens l’utilisaient aussi pour autre chose que du code. Anthropic a donc lancé un projet un peu similaire à son outil phare mais en l’adaptant à des tâches de bureau de la vie de tous les jours sur un ordinateur. L’idée est de ne surtout pas faire comme Microsoft avec Recall et de limiter la tâche qu’on veut automatiser à un seul répertoire dans lequel Claude pourra lire, éditer, créer (et donc supprimer) des fichiers.

Là, il pourra par exemple réorganiser et renommer des fichiers en fonction de la date de téléchargement, « créer une nouvelle feuille de calcul avec une liste de dépenses à partir d’une pile de captures d’écran, ou rédiger une première ébauche de rapport à partir de vos notes éparpillées », explique Anthropic.

De fait, Cowork est créé sur le SDK de l’agent Claude et utilise donc le même modèle que Claude Code. La seule chose qui les différencie, c’est l’approche moins « développeur » de Cowork pour mettre en place les routines avec une interface de configuration plus « user-friendly ». Dans un tutoriel, Anthropic présente encore Cowork comme un outil qui a « la puissance de Claude Code sans le terminal ».

Pour l’instant, Cowork est proposé aux abonnés Max (de 100 à 200 $/mois) qui utilisent Claude Desktop sur macOS. Une liste d’attente existe pour les autres.

Claude pour la santé

Dimanche, Anthropic a aussi essayé de se rattraper concernant le secteur de la santé qui a été sous les phares du CES cette année avec l’annonce de l’assouplissement de la surveillance des dispositifs de santé portables ou s’appuyant sur l’IA par la FDA. OpenAI en avait profité pour lancer son ChatGPT Santé.

Une semaine après, Anthropic pousse donc son projet Claude for Healthcare, un ensemble d’outils et de ressources qui permettent aux prestataires de soins de santé et aux patients d’utiliser Claude à des fins médicales « grâce à des produits conformes à la norme HIPAA », explique l’entreprise.

Comme ChatGPT Santé, Claude Healthcare va permettre à ses utilisateurs de synchroniser leurs données corporelles captées par leurs iPhone, smartwatchs et autres gadgets de fitness et de sport pour donner des conseils santé. Mais le service d’Anthropic pourra aussi s’appuyer sur les données de la Classification internationale des maladies, PubMed et, aux États-Unis, sur celles de Medicare et Medicaid et sur le National Provider Identifier.

Ainsi, l’entreprise promet d’accélérer l’examen des demandes d’autorisation préalable des dossiers des patients, promettant avec beaucoup de solutionisme technologique qu’ils « obtiendront plus rapidement des soins vitaux ».

Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

13 janvier 2026 à 09:08
Le criquet a mangé un bout de pomme
Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

Apple et Google viennent d’officialiser une collaboration « pluriannuelle » : toutes les IA génératives de l’entreprise à la Pomme s’appuieront sur les modèles Gemini de Google, ce qui inclut la nouvelle version de Siri qui doit arriver cette année. Cette annonce bouscule le secteur et Elon Musk dénonce « une concentration de pouvoir déraisonnable pour Google ».

Apple a annoncé ce lundi 12 janvier son choix d’utiliser les modèles de Google pour alimenter ses futures fonctionnalités d’intelligence artificielle, dont son fameux assistant virtuel Siri qui doit sortir sous une nouvelle version cette année.

Apple abandonne la course après être parti bien tard

« Après une évaluation minutieuse, Apple a déterminé que la technologie IA de Google constituait la base la plus performante pour ses modèles de fondation et se réjouit des nouvelles expériences innovantes qu’elle offrira aux utilisateurs Apple », affirme un communiqué signé conjointement par les deux entreprises.

Ainsi, la société de Tim Cook abandonne la course aux modèles dans laquelle elle était en retard. Elle avait sorti ses premières fonctionnalités boostées à l’IA générative en juin 2024 mais, un an après, l’enthousiasme n’était toujours pas au rendez-vous chez les utilisateurs.

Et Apple devait même repousser la sortie de la nouvelle version de Siri, son produit phare en matière d’IA. Rappelons que les modèles de langage n’étaient pas la tasse de thé de l’équipe dirigeante d’Apple. L’entreprise avait plus tard recruté Amar Subramanya (ex Google et Microsoft) sur le tard en décembre dernier pour relancer son IA.

Mais en aout 2025, Bloomberg se faisait déjà l’écho de tests chez Apple pour utiliser Gemini et ainsi rebooster Siri. Et en novembre, Bloomberg toujours parlait d’un accord d’un milliard de dollars par an entre les deux entreprises pour ce projet. Les deux entreprises viennent de passer à la vitesse supérieure en officialisant le projet et en élargissant même la collaboration à toutes les fonctionnalités d’Apple utilisant l’IA générative.

Gemini utilisé par les équipes d’Apple, pas une intégration des app Google directement dans iOS

Pour rassurer les utilisateurs d’Apple, ce ne sont pas les outils IA Gemini de Google qui sont intégrés à iOS et macOS directement a priori. Apple garde la main sur la gestion des iPhone. Dans leur communiqué, les deux entreprises expliquent que « la prochaine génération de modèles fondation sera basée sur les modèles Gemini et la technologie cloud de Google ». Ainsi, on peut imaginer que l’entreprise à la Pomme pourra affiner les modèles de Google à sa sauce et les intégrer à ses produits de la façon dont elle le veut.

Jusque-là, si Apple utilisait ses propres modèles, elle avait aussi noué un partenariat en 2024 avec OpenAI pour « intégrer ChatGPT dans les expériences Apple » et notamment dans Siri. Cette annonce est un changement important dans le paysage industriel de l’IA générative et donne un poids encore plus important à Google dont la dernière version de Gemini avait reboosté l’image chez les aficionados d’IA générative.

Alphabet (la maison mère de Google) vient de dépasser les 4 000 milliards de dollars de valorisation en bourse, après une année 2025 plus que prolifique. Son action a en effet bondi de plus de 60 % en un an.

Un bon choix pour les deux entreprises qui pousse Google en position dominante

« [L’annonce de lundi] est ce que Wall Street attendait, car l’invisibilité de la stratégie d’IA d’Apple était l’éléphant dans la pièce », explique Dan Ives, l’analyste de la banque d’affaires Wedbush Securities cité par Le Monde, « Même si le délai est plus long que prévu au départ, il était nécessaire pour Apple de proposer un assistant IA au sein de son propre écosystème d’appareils  ». « C’est une validation majeure de la haute qualité de ses modèles d’IA », ajoute-t-il.

Mais l’ombre de la position dominante de Google sur le numérique pourrait aussi s’étendre sur l’IA générative avec cet accord. L’entreprise vient d’ailleurs de transformer ses IA en vendeurs multicartes avec un protocole ouvert et de la pub.

Rappelons qu’elle a aussi été reconnue coupable d’abus de sa position dominante dans le domaine de la recherche en ligne par la justice états-unienne l’année dernière sans pour autant avoir à abandonner Chrome alors que l’hypothèse planait pendant un moment.

Apple a, pour rappel, un accord avec Google pour utiliser son moteur de recherche. C’est d’ailleurs sur ce terrain qu’a attaqué Elon Musk en réponse au message posté par Google sur son réseau : « Cela semble être une concentration de pouvoir déraisonnable pour Google, étant donné qu’ils possèdent également Android et Chrome ».

OpenAI ne semble pas avoir réagi publiquement à cette annonce pour le moment (et n’a pas souhaité répondre à nos confrères étasuniens), pas plus que Sam Altman ou Fidji Simo (respectivement numéro un et deux de l’entreprise). Sentant le vent tourner, le patron de l’entreprise avait enclenché un « code rouge » pour faire de la qualité de ChatGPT une priorité.

Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

13 janvier 2026 à 09:08
Le criquet a mangé un bout de pomme
Apple va utiliser les modèles Gemini de Google pour tous ses produits IA, dont Siri

Apple et Google viennent d’officialiser une collaboration « pluriannuelle » : toutes les IA génératives de l’entreprise à la Pomme s’appuieront sur les modèles Gemini de Google, ce qui inclut la nouvelle version de Siri qui doit arriver cette année. Cette annonce bouscule le secteur et Elon Musk dénonce « une concentration de pouvoir déraisonnable pour Google ».

Apple a annoncé ce lundi 12 janvier son choix d’utiliser les modèles de Google pour alimenter ses futures fonctionnalités d’intelligence artificielle, dont son fameux assistant virtuel Siri qui doit sortir sous une nouvelle version cette année.

Apple abandonne la course après être parti bien tard

« Après une évaluation minutieuse, Apple a déterminé que la technologie IA de Google constituait la base la plus performante pour ses modèles de fondation et se réjouit des nouvelles expériences innovantes qu’elle offrira aux utilisateurs Apple », affirme un communiqué signé conjointement par les deux entreprises.

Ainsi, la société de Tim Cook abandonne la course aux modèles dans laquelle elle était en retard. Elle avait sorti ses premières fonctionnalités boostées à l’IA générative en juin 2024 mais, un an après, l’enthousiasme n’était toujours pas au rendez-vous chez les utilisateurs.

Et Apple devait même repousser la sortie de la nouvelle version de Siri, son produit phare en matière d’IA. Rappelons que les modèles de langage n’étaient pas la tasse de thé de l’équipe dirigeante d’Apple. L’entreprise avait plus tard recruté Amar Subramanya (ex Google et Microsoft) sur le tard en décembre dernier pour relancer son IA.

Mais en aout 2025, Bloomberg se faisait déjà l’écho de tests chez Apple pour utiliser Gemini et ainsi rebooster Siri. Et en novembre, Bloomberg toujours parlait d’un accord d’un milliard de dollars par an entre les deux entreprises pour ce projet. Les deux entreprises viennent de passer à la vitesse supérieure en officialisant le projet et en élargissant même la collaboration à toutes les fonctionnalités d’Apple utilisant l’IA générative.

Gemini utilisé par les équipes d’Apple, pas une intégration des app Google directement dans iOS

Pour rassurer les utilisateurs d’Apple, ce ne sont pas les outils IA Gemini de Google qui sont intégrés à iOS et macOS directement a priori. Apple garde la main sur la gestion des iPhone. Dans leur communiqué, les deux entreprises expliquent que « la prochaine génération de modèles fondation sera basée sur les modèles Gemini et la technologie cloud de Google ». Ainsi, on peut imaginer que l’entreprise à la Pomme pourra affiner les modèles de Google à sa sauce et les intégrer à ses produits de la façon dont elle le veut.

Jusque-là, si Apple utilisait ses propres modèles, elle avait aussi noué un partenariat en 2024 avec OpenAI pour « intégrer ChatGPT dans les expériences Apple » et notamment dans Siri. Cette annonce est un changement important dans le paysage industriel de l’IA générative et donne un poids encore plus important à Google dont la dernière version de Gemini avait reboosté l’image chez les aficionados d’IA générative.

Alphabet (la maison mère de Google) vient de dépasser les 4 000 milliards de dollars de valorisation en bourse, après une année 2025 plus que prolifique. Son action a en effet bondi de plus de 60 % en un an.

Un bon choix pour les deux entreprises qui pousse Google en position dominante

« [L’annonce de lundi] est ce que Wall Street attendait, car l’invisibilité de la stratégie d’IA d’Apple était l’éléphant dans la pièce », explique Dan Ives, l’analyste de la banque d’affaires Wedbush Securities cité par Le Monde, « Même si le délai est plus long que prévu au départ, il était nécessaire pour Apple de proposer un assistant IA au sein de son propre écosystème d’appareils  ». « C’est une validation majeure de la haute qualité de ses modèles d’IA », ajoute-t-il.

Mais l’ombre de la position dominante de Google sur le numérique pourrait aussi s’étendre sur l’IA générative avec cet accord. L’entreprise vient d’ailleurs de transformer ses IA en vendeurs multicartes avec un protocole ouvert et de la pub.

Rappelons qu’elle a aussi été reconnue coupable d’abus de sa position dominante dans le domaine de la recherche en ligne par la justice états-unienne l’année dernière sans pour autant avoir à abandonner Chrome alors que l’hypothèse planait pendant un moment.

Apple a, pour rappel, un accord avec Google pour utiliser son moteur de recherche. C’est d’ailleurs sur ce terrain qu’a attaqué Elon Musk en réponse au message posté par Google sur son réseau : « Cela semble être une concentration de pouvoir déraisonnable pour Google, étant donné qu’ils possèdent également Android et Chrome ».

OpenAI ne semble pas avoir réagi publiquement à cette annonce pour le moment (et n’a pas souhaité répondre à nos confrères étasuniens), pas plus que Sam Altman ou Fidji Simo (respectivement numéro un et deux de l’entreprise). Sentant le vent tourner, le patron de l’entreprise avait enclenché un « code rouge » pour faire de la qualité de ChatGPT une priorité.

❌