Erebor, le projet de banque fondé par plusieurs acteurs de l’industrie technologique américaine et nommé d’après l’œuvre de J.R.R. Tolkien, a reçu une première approbation de l’administration Trump.
Porté par Palmer Lucker, cofondateur de la société de technologies militaires Anduril, et le Founders Fund de Peter Thiel, le projet vient de recevoir une autorisation conditionnelle pour obtenir le statut de banque nationale.
Cette approbation dépend de l’obtention, par la banque, d’actions dans une banque de la Réserve fédérale et d’une assurance-dépôts auprès de la Federal Deposit Insurance Corporation.
En pratique, Erebor pourrait avoir pour mission de combler le vide laissé par le dépôt de bilan de la Silicon Valley Bank (SVB) en 2023, et de financer des projets risqués, de start-ups voire de l’écosystème des cryptoactifs.
La sénatrice démocrate Elizabeth Warren sonne d’ailleurs l’alarme sur le projet, s’inquiétant de le voir servir les intérêts de la famille Trump dans les crypto-actifs.
Dans un communiqué, elle critique le fait que les « régulateurs financiers de Trump viennent d’accélérer l’approbation de cette entreprise risquée qui pourrait entraîner un nouveau plan de sauvetage financé par les contribuables américains et déstabiliser notre système bancaire », rapporte MSNBC.
50 milliards d’euros d’investissements, une puissance de calcul dédiée à l’IA représentant à terme l’équivalent d’un réacteur nucléaire, le tout sur un terrain de 70 hectares aux portes de la région parisienne : la France devrait bientôt pouvoir s’enorgueillir d’un centre de données aux capacités superlatives. À l’occasion de l’ouverture d’une phase de consultation publique, plongée dans les entrailles du pharaonique projet « Campus IA » au sein duquel subsistent de nombreuses zones d’ombre.
C’était l’une des annonces phares de l’édition 2025 du sommet Choose France : parmi la débauche de milliards d’euros promis pour soutenir l’économie française, une enveloppe significative venue du fonds d’investissement des Émirats arabes unis, MGX, devait aller à la création du « plus grand campus d’IA d’Europe », avec une puissance de calcul programmée censée représenter, à terme, une puissance cumulée de 1,4 GW.
Si l’on entend désormais parler régulièrement de datacenters capables de consommer l’équivalent de la puissance électrique d’un réacteur nucléaire dans les annonces d’OpenAI, ce « campus » est, par ses dimensions, une première pour la France. À titre de comparaison, le datacenter (généraliste, non dédié à l’IA) Paris Digital Park, inauguré à La Courneuve en 2024, représente une consommation de 120 MW, alors qu’il déploie tout de même 40 000 m² de salles serveurs. Il est actuellement considéré comme le plus grand datacenter de l’Hexagone.
Avec le campus IA, on parle donc d’un facteur 10, ce qui soulève d’innombrables questions relatives à l’alimentation électrique, aux ressources nécessaires au refroidissement, mais aussi aux impacts économiques, sociaux ou sociétaux potentiels. Ces questions se posent de façon d’autant plus criante que le campus IA, dont la construction doit démarrer dès 2026 près de Melun, est censé n’être que le premier d’une longue série d’usines à intelligence artificielle, pour reprendre la terminologie employée par la Commission européenne.
Les premières informations concrètes relatives au projet étaient de ce fait particulièrement attendues, aussi bien par les détracteurs de la course à l’IA que par ses partisans, politiques ou économiques.
Il reste 88% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le Privacy Sandbox était une initiative lancée en 2019. À l’époque, Google annonçait son intention de répondre aux demandes liées à la vie privée sur les cookies tiers. Il s’agissait alors de remiser ces derniers graduellement, au profit d’une approche basée sur des cohortes. Objectif, obtenir des statistiques permettant de personnaliser les publicités, tout en réduisant les données personnelles absorbées dans l’opération.
Dans un billet publié le 17 octobre, Anthony Chavez, vice-président de Google, annonce que l’initiative s’arrête. C’est tout le projet qui tombe à l’eau, même si certaines technologies développées dans ce cadre, comme CHIPS et FedCM, « ont été largement adoptées ». Selon le responsable, la décision a été prise suite aux retours de l’industrie : « Les commentaires que nous avons reçus nous ont permis de mieux comprendre ce qui peut générer le plus de valeur pour les entreprises, les développeurs et les utilisateurs ».
Photo de rc.xyz NFT gallery sur Unsplash
Si certaines fonctions demeurent, l’essentiel du développement s’arrête : les API de rapport d’attribution, la protection de la propriété intellectuelle, la personnalisation sur l’appareil, l’agrégation privée, l’audience protégée, les signaux d’application protégés ou encore les ensembles de sites associés.
Cet abandon n’est pas vraiment une surprise. Le développement de la Privacy Sandbox a dû affronter de nombreuses critiques, dont des critiques d’instances comme la Competition and Markets Authority (CMA) au Royaume-Uni et le ministère américain de la Justice. En 2024, Google plantait un gros clou dans le cercueil de son initiative en annonçant que les cookies tiers allaient finalement rester en place, mais que Chrome serait modifié pour permettre « un choix éclairé » sur leur comportement. Mais en avril dernier, Google a confirmé que tout continuerait de fonctionner comme aujourd’hui.
Dans son communiqué, Anthony Chavez précise cependant que certains aspects de la Privacy Sandbox vont continuer à infuser au sein de l’éditeur. Google assure par exemple que les commentaires des entreprises qui se sont appuyées sur l’API de rapport d’attribution l’aideront à « éclairer » son travail sur une norme interopérable au sein du W3C.
La région Virginie du Nord rencontre actuellement de gros problèmes chez Amazon Web Services. Sur le site dédié, on peut lire effectivement :
« Nous pouvons confirmer des taux d’erreur significatifs pour les demandes adressées au point de terminaison DynamoDB dans la région US-EAST-1. Ce problème affecte également d’autres services AWS dans la région US-EAST-1. Pendant ce temps, les clients peuvent ne pas être en mesure de créer ou de mettre à jour des demandes d’assistance. Les ingénieurs ont été immédiatement mobilisés et travaillent activement à atténuer le problème et à en comprendre pleinement la cause profonde »
Comme on s’en doute, cette panne chez AWS entraine de multiples défaillances, tant les entreprises et autres organisations recourent massivement aux services cloud d’Amazon. C’est le cas par exemple chez Signal, dont le service est inaccessible pour de nombreux utilisateurs. Meredith Whittaker a confirmé le problème sur Bluesky et sur Mastodon.
Un problème est également signalé chez Cloudflare, sans que l’on sache pour le moment si les deux situations sont liées. Sur son site, l’entreprise indique que le problème a été identifié et qu’un correctif est en préparation, là où Amazon précise dans son bulletin que ses équipes cherchent la cause profonde.
Dans un communiqué daté du 17 octobre, Europol avertit du démantèlement d’une infrastructure comprenant 1 200 appareils de type SIM-box, qui géraient un total de 40 000 cartes SIM. Ce réseau pouvait être utilisé pour des activités criminelles comme le phishing et le smishing (contraction de SMS et phishing).
L’opération, baptisée SIMCARTEL, a été menée par les polices autrichienne, estonienne et lettone, soutenues par Europol et Eurojust. Elle a donné lieu à 26 perquisitions et à l’arrestation de 7 personnes, dont 5 lettones. Les 1 200 appareils ont été saisis, de même que les 40 000 cartes SIM qu’ils contenaient et plusieurs centaines de milliers d’autres cartes qui attendaient d’être utilisées.
Les forces de l’ordre ont également saisi cinq serveurs, pris le contrôle de deux domaines (gogetsms.com et apisim.com), gelé 431 000 euros sur des comptes bancaires et 333 000 dollars en cryptomonnaies, et saisi quatre véhicules de luxe.
« Le service en ligne créé par le réseau criminel offrait des numéros de téléphone enregistrés à des personnes de plus de 80 pays pour les utiliser dans des activités criminelles. Il a permis aux auteurs de créer de faux comptes sur les réseaux sociaux et les plateformes de communication, qui ont ensuite été utilisés pour des cybercrimes tout en masquant leur véritable identité et leur emplacement », explique Europol.
Parmi les activités criminelles citées, on trouve la fraude, l’extorsion, le passage de clandestins et la distribution de matériel pédopornographique. Europol donne plusieurs exemples de fraudes : faux comptes sur le marché de la seconde main, escroqueries fille-fils (votre enfant vous annonce avoir changé de numéro de téléphone et prétexte des problèmes urgents pour se faire envoyer de l’argent), des fraudes à l’investissement, de fausses boutiques, de faux sites bancaires, etc.
La structure est décrite comme sophistiquée avec un haut niveau d’organisation. Toujours selon Europol, elle est responsable de 1 700 cas de fraude en Autriche et 1 500 en Lettonie. Dans la seule Autriche, le montant des pertes financières s’élève à 4,5 millions d’euros. Europol indique cependant que l’ampleur exacte du réseau criminel reste à déterminer.
Le premier satellite en orbite remonte à 1957 avec Spoutnik (1965 pour le premier Français, Asterix). Le nombre d’objets artificiels placés en orbite augmentait doucement au fil des ans, mais SpaceX est venu bouleverser cet équilibre. L’entreprise américaine dépasse désormais les 10 000 satellites en orbite… une part importante de l’ensemble des satellites lancés par les humains.
Cet été, nous faisions le point sur le nombre de lancements de satellites Starlink par SpaceX. Ils servent pour rappel de relais de communication afin de proposer un accès à Internet à des clients équipés d’une petite parabole maison, ou directement à des smartphones.
Entre 2019, année du premier lancement, et 2021, le rythme a augmenté doucement, mais surement. En 2021, un peu moins de 1 000 satellites étaient placés en orbite via 19 lancements. La course s’est accélérée par la suite avec plus de 1 700 satellites en 2022, puis près de 2 000 en 2023, mais avec quasiment deux fois plus de lancements.
Nous avons regroupé dans le tableau ci-dessous le nombre de lancements par an, avec le nombre de satellites envoyés sur l’année :
Il reste 83% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le gestionnaire d’archives bien connu 7-Zip est touché par deux failles importantes, mais non critiques. Estampillées CVE-2025-11001 et CVE-2025-11002, elles sont de type « path traversal » et résident dans la manière dont l’application gère les liens symboliques de type Unix sur Windows lors de l’extraction d’un fichier Zip.
Les failles ne peuvent être exploitées que sous Windows et résident dans le module ArchiveExtractCallback.cpp. 7-Zip ne gère pas les liens symboliques de manière assez rigoureuse : si un lien pointe vers un chemin d’accès absolu (par exemple c:\users), le logiciel le considère comme un lien relatif. Les mécanismes de sécurité associés peuvent alors être ignorés, le lien symbolique pouvant dès lors se résoudre hors du répertoire d’extraction. Les failles sont donc exploitables avec des archives spécifiquement conçues et des prototypes d’exploitation existent déjà.
Découvertes par Ryota Shiga de GMO Flatt Security, elles ont été révélées par la Zero Day Initiative le 7 octobre. Elles ont toutes deux un score CVSS de 7 sur 10 et sont donc considérées comme importantes. Principale limite à l’exploitation automatisée, la nécessité de disposer de droits élevés, un mode développeur ou un contexte de service élevé, comme l’explique Cybersecurity News.
Les deux vulnérabilités sont exploitables dans toutes les versions de 7-Zip allant de la 21.02 à la 24.09. Seule solution, mettre à jour le logiciel pour la version 25.00 au moins, la gestion des liens y étant plus stricte. Cette version est sortie en juillet, mais 7-Zip ne possède aucun mécanisme de mise à jour automatique. À moins d’utiliser des outils tels que UniGetUI, il faut donc se rendre sur le site du gestionnaire d’archives pour y récupérer la dernière version, la 25.01 sortie le 3 aout.
Ce week-end, le Centre hospitalier intercommunal de Haute-Comté à Pontarlier a été victime d’une cyberattaque de type cryptolocker, « ayant conduit au chiffrement d’une partie de ses données informatiques », explique l’hôpital dans un communiqué obtenu par Ici Besançon.
Rapidement, les services informatiques ont été coupés et l’hôpital a prévenu l’Agence du Numérique en Santé (ANS), l’Agence Régionale de Santé Bourgogne-Franche-Comté, ainsi que l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI). Il a aussi déposé plainte.
Selon l’Est Républicain, les services de l’hôpital ont détecté des anomalies à 1h45 du matin dans la nuit du samedi 18 au dimanche 19 octobre, puis ils ont trouvé un message expliquant que les données de l’hôpital étaient chiffrées avec une demande de rançon.
Lors d’une conférence de presse dimanche soir et à laquelle a assisté l’Est Républicain, le directeur du centre hospitalier, Thierry Gamond Rius, a affirmé : « on peut considérer que la situation est sous contrôle. Difficile, mais sous contrôle et surtout transparente pour les patients ».
« On revient au fonctionnement papier pour les prescriptions des patients, pour les commandes, la gestion, etc. Ce dimanche matin, nous avons fait le tour des services, afin de voir si tout était bien mis en œuvre », a-t-il quand même ajouté. Mais aucun patient ne sera transféré ailleurs et le directeur prévoit de garder la même activité opératoire.
« Les serveurs sont compromis, il faut repartir sur une infrastructure vierge », explique-t-il encore, estimant en avoir pour plusieurs semaines.
Un numéro vert pour les patients du centre hospitalier a été mis en place : 0 805 090 125.
IA et Médecine font bon ménage, mais pas complètement, ni toujours. En tous les cas, l’IA et la santé, qu’elle soit mentale ou physique, préoccupent les foules. On n’a sans doute pas envisagé encore tous les cas de figure …
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En plus de pousser au doomscrolling, Soraest massivement utilisée pour créer des deepfakes. De Robin Williams à Martin Luther King en passant par Whitney Houston, l’application a permis à des utilisateurs de créer des vidéos détournant l’image de personnalités historiques, notamment à des fins sexistes et racistes.
C’est dans un message sur le réseau social X qu’OpenAI a annoncé ce matin qu’elle avait « suspendu la génération d’images représentant le Dr King [Martin Luther King] afin de renforcer les mesures de protection des personnages historiques ». L’entreprise affirme le faire après avoir « abordé la question de la représentation de l’image du Dr Martin Luther King Jr. dans les générations Sora » avec les descendants de la figure noire du mouvement des droits civiques.
Sora 2, l’application de doomscrolling de vidéos générées par IA d’OpenAI est sortie récemment aux États-Unis mais pas encore en Europe.
Plusieurs descendants se sont exprimés contre l’utilisation dégradante d’images de personnalités historiques
Bernice King avait publié sur Instagram la semaine dernière un post demandant aux gens d’arrêter de lui envoyer des vidéos générées par IA utilisant l’image de son père. Elle y fait référence à la même demande faite par Zelda Williams, la fille de Robin Williams. Celle-ci implorait : « Arrêtez de croire que je veux voir ça ou que je vais comprendre, ce n’est pas le cas et ça ne changera pas ». Et elle ajoutait : « Si vous essayez juste de me troller, j’ai vu bien pire, je vais restreindre l’accès et passer à autre chose. Mais s’il vous plaît, si vous avez un minimum de décence, arrêtez de lui faire ça, à lui, à moi, à tout le monde même, point final. C’est stupide, c’est une perte de temps et d’énergie, et croyez-moi, ce n’est PAS ce qu’il voudrait ».
Mais le Washington Post raconte que le problème n’est pas seulement le fait que des personnes connues soient visibles dans des vidéos générées par IA photoréalistes, mais aussi que l’outil est utilisé contre ces personnes de façon dégradante, sexiste, ou raciste. Ainsi, une vidéo montrait par exemple Whitney Houston ivre, comme si elle était filmée par une caméra corporelle de police. Une autre montrait Martin Luther King faisant des cris de singe pendant son célèbre discours « I have a dream ».
D’autres vidéos montrent des deepfakes de Malcolm X, une autre figure noire du mouvement des droits civiques aux États-Unis, faisant des blagues salaces, se battant avec Martin Luther King ou déféquant sur lui-même. « Il est profondément irrespectueux et blessant de voir l’image de mon père utilisée de manière aussi cavalière et insensible alors qu’il a consacré sa vie à la vérité », déplore sa fille, Ilyasah Shabazz, auprès du Washington Post, qui rappelle qu’elle a assisté à l’assassinat de son père en 1965 alors qu’elle n’avait que deux ans. Et elle pose la question : pourquoi les développeurs n’agissent pas « avec la même moralité, la même conscience et le même soin […] qu’ils le souhaiteraient pour leur propre famille ».
OpenAI fait un pas en arrière
Comme nous l’expliquions fin septembre, l’application dispose d’une fonctionnalité censée limiter les deepfakes. Une personne qui a vérifié son identité peut utiliser son image dans des vidéos et d’autres peuvent faire le faire à condition qu’elle donne son consentement. La journaliste Taylor Lorenz a déjà témoigné qu’une personne qui la harcèle avait créé des deepfakes d’elle, mais qu’elle avait pu les faire supprimer en utilisant ce système. Par contre, au lancement de l’application, OpenAI a décidé de ne pas mettre en place de restriction sur les « personnages historiques ».
Ne réagissant qu’après les divers témoignages de descendants célèbres et en ne citant que le cas de Martin Luther King, OpenAI affirme dans son tweet de ce matin : « Bien qu’il existe un intérêt certain pour la liberté d’expression dans la représentation de personnages historiques, OpenAI estime que les personnalités publiques et leurs familles devraient avoir le contrôle final sur l’utilisation de leur image. Les représentants autorisés ou les ayants droit peuvent demander que leur image ne soit pas utilisée dans les caméos [nom utilisé par OpenAI pour sa fonctionnalité de deepfake] de Sora ». En bref, l’entreprise choisit de proposer une option d’opt-out pour les représentants des personnalités historiques qui ne voudraient pas que leur image soit utilisée dans Sora.
Pour éviter que les vidéos générées par IA soient repartagées en dehors de son réseau pour désinformer, OpenAI a mis en place un watermark qui se déplace au cours de la lecture. Mais, comme l’a remarqué 404 Media, de nombreux systèmes de suppression de ces filigranes ont rapidement pullulé sur le web, rendant rapidement cette protection contre la désinformation peu efficace.
La viralité et l’injure font le succès
Tout ça a permis d’avoir un certain succès. Mais, comme le souligne notre consœur Katie Notopoulos de Business Insider, la plupart des utilisateurs semblent être des garçons adolescents, contre « très, très peu de femmes ». « De manière générale, si une plateforme sociale est un endroit effrayant pour les femmes… mon ami, tu as un problème », commente-t-elle.
Pendant ce temps-là, comme nous l’évoquions aussi, Meta a sorti Vibes, un équivalent de Sora mais sans cette possibilité de deepfake. Celui-ci semble avoir beaucoup moins de succès. Pour notre confrère de Wired, Reece Rogers, ses premières expériences sur l’application de Meta étaient « ennuyeuses et sans intérêt ». Pour lui, le flux de Sora, « avec sa prolifération de deepfakes souriants, était beaucoup plus électrique… et inquiétant ».
On n’en a en tout cas pas fini avec les vidéos générées par IA plus photoréalistes les unes que les autres, puisque Google vient d’annoncer ce jeudi 15 octobre la sortie de Veo 3.1. L’entreprise promet aux utilisateurs plus de contrôle dans son outil d’édition de vidéos générées par IA Flow : « Nous sommes toujours à l’écoute de vos commentaires, et nous avons compris que vous souhaitez avoir davantage de contrôle artistique dans Flow, avec une prise en charge audio améliorée dans toutes les fonctionnalités », affirme l’entreprise. Elle promet, entre autres, une génération de vidéos plus rapidement proche des demandes des utilisateurs et une « qualité audiovisuelle améliorée lors de la conversion d’images en vidéos ».
Sans surprise, l’Arcep valide la prolongation de l’itinérance des clients Free Mobile sur le réseau d’Orange en 2G et 3G. Le plus intéressant est cette fois encore dans les doléances exprimées par Bouygues Telecom (nous les avons analysées) dénonçant plusieurs « effets anti-concurrentiels ».
En juin de cette année, Free Mobile et Orange annonçaient pour la quatrième fois une modification de leur contrat d’itinérance en 2G et 3G. Il avait été signé en 2011, puis modifié en 2016, 2020 et 2022. Avec le nouvel avenant de 2025, l’itinérance doit désormais se terminer en 2028, en même temps que la 2G et la 3G.
Itinérance Free Mobile chez Orange : ça continue encore et encore
Les conditions restent plus ou moins les mêmes : débits de 384 kb/s maximum, plafonnement du trafic data 2G/3G à 1 % du trafic total de Free Mobile en propre, et incitation tarifaire pour réduire le nombre de clients Free Mobile utilisant le réseau 2G/3G d’Orange.
La loi permet pour rappel à l’Arcep de demander des modifications de contrat de partage de réseaux mobiles si elle estime cela nécessaire. Une consultation était lancée dans la foulée de l’annonce du prolongement. Sans grande surprise, et « après examen approfondi, l’Autorité conclut qu’il n’apparait pas nécessaire de demander à Free Mobile et Orange de modifier leur contrat ».
Pour le régulateur, cet accord ne fait pas obstacle à « l’exercice d’une concurrence effective et loyale entre les opérateurs au bénéfice des utilisateurs et au développement de l’investissement, de l’innovation et de la compétitivité dans le secteur des communications électroniques ».
Bouygues Telecom dénonce un « avantage concurrentiel » pour Free Mobile
Il reste 74% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Les autorités états-uniennes et britanniques ont saisi 127 271 bitcoins, ainsi qu’un immeuble de bureaux dans la City, un manoir et 17 appartements à Londres. Ces avoirs appartiennent à un milliardaire cambodgien de 37 ans d’origine chinoise qui, proche du parti au pouvoir, aurait en réalité fait fortune grâce à des escroqueries sentimentales liées à des investissements dans des cryptomonnaies, reposant sur la traite d’esclaves et connues sous le nom de « pig butchering » (« arnaque à l’abattage du cochon » en français).
Le ministère états-unien de la Justice vient d’annoncer « la plus grande action en confiscation jamais engagée », correspondant à « environ 127 271 bitcoins » actuellement sous la garde des États-Unis, d’une valeur actuelle de 15 milliards de dollars. La saisie a été effectuée dans le cadre de la mise en accusation d’un richissime Cambodgien d’origine chinoise de 37 ans, actuellement en fuite.
Chen Zhi, fondateur et président du Prince Holding Group, un conglomérat international, est accusé de complot en vue de commettre des fraudes électroniques et de blanchiment d’argent, dans le cadre de ce qui relèverait de « l’une des plus grandes opérations de fraude à l’investissement de l’histoire », d’après Joseph Nocella Jr., procureur fédéral du district de New York.
Les sommes confisquées auraient été extorquées par des centaines de « victimes de traite » détenues « contre leur gré » dans des complexes abritant de vastes dortoirs entourés de hauts murs et de barbelés, qualifiés de « camps de travaux forcés ».
D’après le Trésor états-unien, ces complexes « reposant sur la traite d’êtres humains et l’esclavage moderne » visaient à industrialiser le fait de les forcer à effectuer, « souvent sous la menace de violences », des escroqueries liées à des investissements dans des cryptomonnaies, connues sous le nom de « pig butchering » (« arnaque à l’abattage du cochon » en français).
L’une des plus grandes organisations criminelles transnationales d’Asie
« En tant que président, la vision et le leadership de Chen Zhi ont transformé Prince Group en un groupe commercial de premier plan au Cambodge qui adhère aux normes internationales, investit dans l’avenir du royaume et s’engage à adopter des pratiques commerciales durables guidées par les principes ESG », explique le site du groupe Prince.
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Anthropic a procédé à plusieurs annonces autour de ses modèles Claude. D’abord, l’arrivée d’une version 4.5 de Haiku, son modèle plus léger. Ensuite, le lancement d’une intégration dans Microsoft 365. Enfin, la possibilité d’ajouter des Skills pour renforcer la précision des modèles dans des tâches spécifiques.
Le 15 octobre, Anthropic a présenté la dernière version de son modèle le plus petit, Haiku. Ces modèles sont souvent attendus, car ils permettent en général une baisse significative de l’énergie nécessaire pour l’inférence, au prix d’une baisse plus ou moins contenue de la précision.
Dans le cas de Haiku 4.5, presque un an après la précédente mouture du modèle (3.5), Anthropic revendique des résultats similaires à son grand frère Sonnet 4, mais pour « un tiers du coût et une rapidité multipliée par deux ». On peut aussi espérer une baisse de consommation électrique lors de l’inférence.
Petit pimousse
Sans surprise, l’entreprise met en avant le développement logiciel, avec un score de 73,3 % sur SWE-bench Verified. Un score inférieur à Sonnet 4.5 (77,2 %) et GPT-5 Codex (74,5 %), mais supérieur à Sonnet 4 (72,7 %), à la version classique de GPT-5 (72,8 %) et Gemini 2.5 Pro (67,2 %).
Dans son tableau de scores, Anthropic montre surtout que son Haiku 4.5 est meilleur que Sonnet 4 dans pratiquement tous les domaines. Sonnet 4.5 garde bien sûr la couronne, mais Haiku présente un gros avantage sur le prix : 1 dollar le million de jetons en entrée et 5 dollars par million de jetons en sortie.
Selon Anthropic, Haiku 4.5 est le modèle idéal pour les versions gratuites d’essai d’applications ou services. Sa taille réduite permet l’exécution de plusieurs agents Haiku en parallèle ou dans des scénarios présentant une puissance limitée ou une sensibilité à la latence.
« Historiquement, les modèles ont sacrifié la vitesse et le cout pour la qualité. Claude Haiku 4.5 brouille les lignes sur ce compromis : il s’agit d’un modèle de frontière rapide qui maintient l’efficacité des couts et signale la direction que prend cette classe de modèles », a déclaré Jeff Wang, CEO de Windsurf. Chez GitHub, le chef de produit Matthew Isabel évoque lui aussi « une qualité comparable à celle de Sonnet 4, mais à une vitesse plus rapide ».
Intégration à Microsoft 365
Anthropic fournit désormais son propre connecteur pour Microsoft 365, via MCP. Pour l’instant, ce connecteur permet de mettre en contact les services suivants avec Claude :
SharePoint et OneDrive : recherche et analyse de documents
Outlook : accès aux fils de discussions, analyse de modèles de communication et extraction d’informations depuis les correspondances
Teams : recherche et analyse dans les conversations et résumés de réunion, suivi des projets et mise en lumière de décisions
Le connecteur peut également être utilisé pour créer une réserve de toutes les informations librement accessibles en interne pour obtenir un catalogue de ressources. Anthropic donne l’exemple d’une personne qui poserait alors une question sur la position de son entreprise sur le travail à distance et obtiendrait une réponse basée sur les documents issus des ressources humaines.
Le nouveau connecteur n’est disponible que pour les personnes ayant un abonnement Claude Team ou Enterprise. Pour ce dernier, les administrateurs doivent avoir activé le connecteur dans l’ensemble de l’organisation avant que les utilisateurs individuels puissent s’en servir.
Claude peut utiliser des Skills
Pour les personnes n’ayant que faire d’une intégration à Microsoft 365, Anthropic vient d’annoncer une nouveauté à fort potentiel : les Agents Skills. De manière générale, il s’agit de renforcer Claude sur des tâches spécialisées à l’aide de fichiers spécifiques.
Anthropic indique dans son billet de blog que l’on peut désigner à Claude un dossier contenant diverses ressources, comme des scripts, des fichiers contenant des instructions, des modèles ou encore un exemple de ce que l’on peut obtenir. On peut demander à l’IA de s’en servir pour accomplir des tâches spécifiques plus rapidement ou en orientant les résultats de manière précise.
Selon l’entreprise, les Skills permettraient à Claude d’être beaucoup plus efficace sur des missions particulières, comme la création de tableaux Excel avec des formules, la préparation de présentations, ou encore un respect plus strict des directives de l’organisation sur sa marque.
Anthropic évoque également un système de « composition », qui permet à Claude de gérer plusieurs sources de Skills pour des flux de travail plus complexes. Les Skills sont aussi « portables », car une fois créées, elles peuvent être partagées avec d’autres personnes ou structures, sans modification.
Au sein des entreprises, la fonction doit avoir été activée par les administrateurs. Côté utilisateurs, il faut en outre se rendre dans les paramètres de Claude pour activer les Skills. Par défaut, Claude n’en propose qu’une, qui pose des questions sur le flux de travail de l’utilisateur, génère une structure de dossiers, regroupe les ressources pointées et formatera un fichier SKILL.md en conséquence.
Les Skills pourront également être intégrées dans des plugins et donc récupérables depuis la place de marché d’Anthropic. Elles sont en outre disponibles pour les agents, via le SDK Claude Agent, toujours dans l’idée de personnaliser leur fonctionnement.
Un partenariat avec Salesforce
Anthropic et Salesforce viennent de signer un important partenariat autour de Claude, qui marque une victoire pour Anthropic. Salesforce va en effet positionner Claude comme modèle de référence dans sa plateforme Agentforce (via Amazon Bedrock), « permettant aux clients de Salesforce dans les secteurs des services financiers, de la santé, de la cybersécurité et des sciences de la vie d’utiliser une IA de confiance tout en assurant la sécurité des données sensibles », claironne Anthropic.
S’agissant de secteurs réglementés, l’utilisation de Claude se fait dans une infrastructure spécifique. L’exécution du LLM se fait au sein du « périmètre de confiance » de Salesforce. Tout le trafic lié est en fait contenu dans le cloud virtuel privé de Salesforce.
Les deux sociétés renforcent également l’utilisation de leurs outils respectifs. Salesforce va ainsi déployer Claude Code pour l’ensemble de ses développeurs, tandis qu’Anthropic va renforcer son utilisation de Slack. Pour les clients, les intégrations bidirectionnelles Claude et Slack viennent d’être mises à disposition.
Elles vont aussi collaborer sur des solutions IA spécifiques à l’industrie, à commencer par le secteur financier avec l’intégration de Claude for Financial Services dans Agentforce Financial Services. « Par exemple, un conseiller financier utilisant Agentforce peut demander à son agent IA, propulsé par Claude, de résumer les portefeuilles des clients, de signaler les nouvelles exigences de l’industrie affectant les régimes de retraite et d’automatiser le suivi du consentement et la sensibilisation des clients », indique Anthropic en exemple.
La Fédération internationale de l’industrie phonographique (IFPI) marque un point dans sa croisade contre les sites dédiés au téléchargement des œuvres diffusées via des plateformes de streaming comme YouTube, Deezer et consorts. L’organisation, qui représente pour mémoire les intérêts des grandes majors de la musique, a en effet annoncé mardi 14 octobre avoir obtenu la fermeture d’un réseau de douze sites dédiés au stream ripping.
D’après l’IFPI, les douze sites représenteraient un trafic de l’ordre de 620 millions de visites sur les douze derniers mois. Dans le lot figure notamment Y2mate.com, connu pour permettre le téléchargement de vidéos YouTube aux formats mp4 (vidéo) ou mp3 (audio uniquement).
Les douze sites concernés affichent désormais le logo de l’IFPI ainsi qu’un message de sensibilisation. « Les sites qui convertissent des flux sous licence en téléchargements gratuits sont illégaux. Leur utilisation ou leur exploitation peut entraîner de graves conséquences, y compris une condamnation pénale », indique l’IFPI.
L’IFPI a pris le contrôle de Y2mate.com et y affiche un message de prévention
L’organisation rappelle qu’elle a déjà tenté à plusieurs reprises d’obtenir le blocage de ces sites, avec des actions intentées dans treize pays. La mise hors ligne des sites et la saisie des noms de domaine montrent que l’action s’est cette fois concentrée sur les exploitants de ces services.
L’IFPI ne donne pour l’instant aucun détail sur la façon dont ces sites ont été mis hors ligne, ni sur les poursuites qui pourraient être engagées à l’encontre de leurs administrateurs. Elle révèle en revanche que la plupart d’entre eux étaient opérés depuis le Vietnam.
« L’opérateur de Y2mate et les 11 autres sites ont accepté de fermer définitivement et de cesser toute atteinte aux droits des membres de l’IFPI. La plupart des domaines sont désormais détenus par l’IFPI, notamment Y2mate.com, Yt1 s.com, Utomp3.com, Tomp3.cc et Y2mate.gg », affirme l’organisation. De nombreux noms de domaine jouant de la proximité avec les sites fermés restent cependant accessibles en ligne, ouvrant aisément la voie à des services miroir. D’après nos constatations, le nom « Y2mate » est en effet déposé sur 140 extensions de nom de domaine différentes.
En septembre, on apprenait que Google avait revu sa manière de distribuer les correctifs pour les failles de sécurité sur Android. Ce changement a un impact important sur LineageOS, une ROM personnalisée pour les smartphones. L’équipe de développement explique le problème et assure qu’elle s’adapte.
Le 16 septembre, nous expliquions que Google avait – assez silencieusement – modifié sa manière de distribuer ses bulletins de sécurité mensuels. Les fameux ASB (Android Security Bulletins) étaient depuis des années distribués une fois par mois, avec à leur bord des informations sur les failles de sécurité corrigées. Il appartenait ensuite à chaque vendeur (OEM) d’appliquer ces changements. Quand le travail est fait, les utilisateurs reçoivent ainsi une mise à jour de sécurité par mois, les paramètres d’Android donnant le mois et l’année de la plus récente.
Avec le changement, ils sont toujours publiés mensuellement, mais leur contenu évolue de manière drastique. Seules sont renseignées les failles présentant un haut risque, notamment les vulnérabilités critiques qui présentent un fort risque d’être exploitées ou qui le sont déjà. Tout le reste est rassemblé dans un bulletin publié tous les trois mois.
Ce calendrier est désormais synchronisé avec les QPR (Quarterly Platform Releases), ces mises à jour fournies par Google pour améliorer et enrichir Android. Ce qui n’est pas sans causer des problèmes pour les ROM personnalisées, comme l’a expliqué LineageOS dans une publication du 11 octobre.
Un fonctionnement plus opaque
L’équipe de développement commence par une bonne nouvelle : pour une fois, elle est en avance. Elle indique que bon nombre des améliorations d’Android 16 sont en fait périphériques et ne touchent pas profondément le cœur du système. Le gros travail d’adaptation fait avant a payé et LineageOS 23.0 a donc été publié.
Pour prévenir les réactions sur cette numérotation, l’équipe prend les devants : pourquoi 23.0 et pas 23.1, puisque la QPR1 d’Android est sortie ?
C’est justement là qu’est le problème. L’équipe réexplique le fonctionnement des bulletins de sécurité et de leur changement de rythme, et note l’alignement des gros bulletins trimestriels avec les QPR. Or, la QPR1 d’Android 16 a beau avoir été distribuée (diffusée immédiatement aux Pixel et envoyée aux constructeurs pour intégration), son contenu n’a pas été reversé à AOSP (Android Open Source Project), la branche open source sur laquelle le système de Google est basé et dans laquelle puisent les ROM personnalisées.
L’équipe pointe ainsi un bulletin de juillet vide, pour la toute première fois. Le bulletin d’aout ne contenait qu’un seul correctif, tandis que celui de septembre « a omis des correctifs pour plusieurs vulnérabilités, avec des correctifs partagés en privé avec des partenaires sous embargo ». C’était effectivement ce qu’annonçait Android Authority le mois dernier. L’équipe précise d’ailleurs que c’est la raison pour laquelle LineageOS 22.2 affichait un niveau de sécurité d’aout 2025 jusque tard en septembre.
LineageOS « s’adapte »
L’équipe affirme que l’adaptation est nécessaire et qu’elle n’a pas le choix.
Dans un premier temps, elle a pris la décision de lancer LineageOS 23.0, correspondant donc à la version initiale d’Android 16, ce qu’elle nomme « QPR0 ». Pour le reste, le développement de la ROM devra suivre le nouveau rythme de publication des bulletins de sécurité. Pas le choix, il faudra prendre son mal en patience et subir un décalage entre la publication des correctifs et leur arrivée effective dans AOSP.
Ce décalage sera également fonctionnel. Dans la QPR1 par exemple, Google a déployé son langage graphique Material 3 Expressive. Comme l’indique l’équipe dans son annonce, il faudra donc patienter pour le voir dans LineageOS. Il ne s’agit que d’un exemple, mais ce décalage se répercutera à l’ensemble des nouveautés dans les QPR et – sans doute plus grave – dans les bulletins de sécurité. Car comme nous l’indiquions dans notre précédente actualité, plus l’attente est grande entre la découverte d’une faille et sa correction, plus les risques d’exploitation sont grands.
L’équipe se veut quand même rassurante : le travail va continuer. LineageOS 23.0 comporte une longue série de mises à jour de ses composants, ainsi que plusieurs évolutions importantes dans les applications, répercutées sur les versions plus anciennes du système. Aperture, dédiée à la prise de photos, a ainsi été intégralement réécrite. La maintenance en sera beaucoup plus simple selon l’équipe, et plusieurs fonctions ont été ajoutées, dont le support du JPEG Ultra HDR, du RAW et de la capture RAW+JPEG.
Le lecteur musical Twelve gagne plusieurs nouveautés lui aussi, dont un bouton pour lancer directement des musiques aléatoires, l’ajout d’informations supplémentaires sur l’écran de lecture, le support du MIDI (oui oui) ou encore la possibilité de relancer l’analyse de la base, pour détecter des titres ajoutés récemment.
Quand on parle de l’entraînement et de l’utilisation de l’intelligence artificielle, on l’associe à de grosses cartes graphiques. Pourquoi les GPU sont-ils à ce point plébiscités et pas les CPU ? Les deux pourtant font des calculs !
Pour ce deuxième numéro de #Nextquick, on va répondre à une question : pourquoi les processeurs graphiques (GPU, pour Graphic Processing Units) sont incontournables dans le monde de l’IA ? La réponse courte tient en quelques mots : l’intelligence artificielle exploite énormément les calculs matriciels et vectoriels, domaine dans lequel les GPU excellent. La version longue nécessite plus de détails.
À l’origine, les cartes graphiques sont arrivées avec le développement de la 3D pour calculer toujours plus de pixels afin d’améliorer le rendu dans les jeux vidéo. Pendant 30 ans, les GPU (la puce principale sur la carte graphique) ont vu leur puissance de calcul augmenter de façon continue.
Des cœurs dans le GPU pensés pour l’IA
Un CPU moderne dispose généralement de quelques cœurs, voire de quelques dizaines de cœurs, alors que sur un GPU, ces cœurs se comptent en centaines, voire en milliers. Dans l’architecture Blackwell, la dernière en date de NVIDIA, il y a plus de 20 000 cœurs CUDA et 640 Tensor.
Sans entrer dans tous les détails, les Tensor Cores sont spécialement pensés pour les besoins de l’intelligence artificielle. Ils permettent des calculs en virgule flottante avec une précision réduite (4, 6 ou 8 bits) là où les CUDA s’arrêtent à 16 bits.
La différence est très importante : les nombres FP4 prennent deux fois moins de place en mémoire que les FP8, mais sont aussi moins précis. On passe à un rapport quatre avec les FP16, etc. Deux dossiers à lire sur ce sujet :
Il reste 63% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’Arcep, l’Autorité de régulation des télécoms, vient de mettre à jour plusieurs de ses cartes avec des données actualisées. C’est le cas de l’état de la couverture mobile par département en France avec des chiffres du deuxième trimestre, celle pour la France métropolitaine arrive.
Sur l’IPv6, le régulateur « enrichit et met à jour sa carte interactive de l’IPv6 dans le monde : plus de données, plus de précision, plus de transparence ». L’historique remonte désormais à octobre 2013, la couverture est élargie à 229 pays (au lieu de 100) et les données sont actualisées tous les mois (au lieu de tous les deux mois). Enfin, la méthodologie et la fiabilité du classement IPv6 des 100 pays avec le plus grand nombre d’internautes « ont été revues et renforcées ».
La France est maintenant à la deuxième place, avec un taux de 71,8 % derrière l’Inde à 75,4 %. Toujours selon l’Arcep, l’Hexagone était en tête en juin 2025.
L’Autorité publie également cette semaine les résultats de son enquête 2025 sur la qualité de service à la Réunion, issus de plus de 177 000 mesures pour quatre opérateurs mobiles : Orange, SRR, Zeop Mobile et Telco OI.
Pour la voix, SRR arrive en tête, suivi par Zeop mobile et Orange pour les appels maintenus sans perturbation. Orange est par contre en première position sur la qualité des appels, suivi de Zeop mobile, puis de SRR. « Telco OI se situe en retrait sur ces deux indicateurs ». Sur l’Internet mobile, Zeop est en tête, Orange et SRR deuxièmes ex aequo. « Telco OI se situe derrière les autres opérateurs ».
L’information a été publiée par le généralement très bien informé Mark Gurman pour Bloomberg. Ke Yang, arrivé chez Apple il y a six ans, quitterait l’entreprise pour Meta. Il venait de prendre la direction de l’équipe « Answers, Knowledge and Information, ou AKI, en charge de développer des fonctionnalités pour rendre l’assistant vocal Siri plus proche de ChatGPT en ajoutant la possibilité d’extraire des informations du Web ».
Ce départ est le dernier d’une longue série, comme le rappelle à juste titre TechCrunch : « Ruoming Pang, ancien responsable des modèles d’IA d’Apple, est parti pour Meta plus tôt cette année. Environ une douzaine de membres de l’équipe AIML (AI et Machine Learning) d’Apple ont également quitté l’entreprise. Plusieurs membres ont rejoint les nouveaux Superintelligence Labs de Meta ». Toujours selon Bloomberg, d’autres départs pourraient arriver.
Apple devrait lancer une refonte de Siri en mars, selon notre confrère. Une évolution attendue de pied ferme car l’assistant est clairement en retard sur ses concurrents. « Siri est complètement con », lâchait même la semaine dernière Luc Julia aux Assises de la cybersécurité de Monaco.
Tout le monde sait que c’est moji qui va racheter SFR !
Une offre de rachat pour SFR a officiellement été déposée et immédiatement rejetée par Altice. Qu’importe, le processus est lancé et les tractations vont certainement continuer. Nous allons maintenant voir jouer une partition bien connue de poker menteur. Qui remportera la mise ? À quel prix ? En attendant les réponses, faisons le point sur les forces en présence.
Il y a plus de 11 ans, début 2014, Bouygues Telecom et Numericable faisaient monter les enchères pour racheter SFR, à coup de communiqués réhaussant régulièrement leurs offres respectives. Vivendi avait alors préféré le câblo-opérateur, une opération à un peu plus de 13 milliards d’euros à l’époque. L’Autorité de la concurrence avait été notifiée le 4 juin 2014 et avait donné son feu vert (sous conditions) le 27 octobre de la même année.
La suite, on la connait avec la méthode Drahi pour remettre dans le droit chemin « la fille à papa », comme il appelait alors SFR. Des années plus tard, la dette déjà colossale au moment du rachat (10,7 milliards d’euros en France) a augmenté pour atteindre 24 milliards d’euros au début de l’année. Patrick Drahi avait alors négocié avec ses créanciers un échange de 45 % du capital d’Altice contre une réduction de sa dette à 15,5 milliards d’euros à horizon 2033.
Cet été, le plan de sauvegarde d’Altice était validé par la Justice française – contre l’avis du ministère public et des syndicats –, ouvrant la voie à une vente de SFR. Chez les trois concurrents de SFR – Bouygues Telecom, Free (iliad) et Orange – les préparatifs allaient bon train, avec des déclarations officielles des différents dirigeants. Arthur Dreyfuss (PDG d’Altice France) faisait un appel du pied à peine voilé : « Aucune offre, pas même indicative et sans valeur, n’a été reçue à date ». C’est maintenant chose faite.
On se souviendra aussi qu’en 2015, Altice (alors propriétaire de SFR et de Numericable) avait déposé une offre pour racheter Bouygues Telecom, en partenariat avec Free (iliad). Orange surveillait de près, mais n’était pas officiellement impliqué dans le projet. L’opération ne s’est pas faite et nous sommes restés à quatre opérateurs depuis. Le marché s’est néanmoins contracté puisqu’une bonne partie des opérateurs virtuels (MVNO) ont été rachetés à tour de rôle par les gros opérateurs nationaux.
Comment s’articule l’offre de rachat (ligne par ligne, poke @Marc)
En 2025, nous sommes donc dans un marché avec quatre acteurs, dont un qui bat de l’aile et est en passe de se faire racheter par les trois autres. Mais où en est-on exactement ? Comment se placent les forces en présence ? Qu’en est-il de l’avenir de l’offre de rachat d’Orange, Bouygues Telecom et Free ?
Next vous explique les enjeux et les dessous de cette partie de poker menteur qui a officiellement débuté. On commence par une présentation du « lot » – l’opérateur SFR – avec quelques chiffres pour le situer par rapport aux trois autres.
Il reste 84% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Meta vient d’annoncer qu’elle renonçait à son application Messenger indépendante sur les PC Windows et les Mac. Une fois Messenger abandonné, « vous ne pourrez plus vous connecter à cette application et serez automatiquement redirigé·e vers le site web de Facebook pour les messages », prévient l’éditeur dans une note.
Meta ajoute qu’une notification est en cours d’envoi chez l’ensemble des personnes concernées. Celles-ci disposent de 60 jours pour se préparer au changement, portant la date officielle de l’abandon au 16 décembre. Une fois le délai écoulé, il ne sera plus possible de se connecter au service depuis l’application.
Quelles solutions ? Meta en donne deux : soit passer par Facebook, puisque Messenger y est intégré, soit en passant par le site dédié, Messenger.com. Notez que pour ce dernier, il reste possible selon les navigateurs de le déclarer comme application, pour garder une fenêtre indépendante.
La fiche indique qu’il est possible de garder l’historique de ses conversations, à condition d’avoir activé le stockage sécurisé et défini un code PIN. Sans cette option, les échanges ne se retrouveront pas sur les autres accès, qu’il s’agisse de Facebook, Messenger.com ou des applications mobiles Messenger (qui, elles, restent en place).
L’activation du stockage sécurisé se fait dans les paramètres de l’application, dans la section « Confidentialité et sécurité », puis dans « Discussions chiffrées de bout en bout ». Il faut alors se rendre dans « Stockage des messages » et activer l’option.