L’enquête relative à la façon dont Microsoft met Bing à disposition d’éditeurs de moteurs de recherche tiers ne va manifestement pas assez vite au goût de Qwant : d’après Reuters, la société française a formellement demandé à l’Autorité de la concurrence qu’elle prononce des mesures provisoires à l’encontre de l’éditeur américain, en attendant que l’affaire soit arbitrée sur le fond.
Cette requête intervient dans le cadre d’une enquête préalable diligentée par le régulateur en février dernier. L’Autorité de la concurrence cherche notamment à déterminer si Microsoft ne dégrade pas intentionnellement la qualité des résultats de recherche transmis à ses clients tiers, au profit de son propre moteur de recherche. Et c’est au terme de cette enquête préalable qu’elle devrait décider s’il y a lieu, ou non, d’ouvrir une procédure formelle.
Interrogée par nos soins, l’entreprise française indique ne pas vouloir commenter. Microsoft a de son côté répondu à Reuters, en affirmant que la plainte était infondée, et que l’éditeur coopérait pleinement avec le régulateur.
Rappelons que si Google est le leader incontesté de la recherche en France, Microsoft occupe avec Bing une posture de numéro un sur le marché, plus spécifique, de la fourniture d’index à des moteurs de recherche tiers.
Bien que Qwant avance, avec Ecosia, sur son projet d’index de recherche européen, le moteur français dépend encore aujourd’hui largement de Bing et des outils publicitaires de Microsoft pour son fonctionnement.
Une de plus ! Reddit a déposé plainte, mercredi 4 juin, à l’encontre d’Anthropic. Le premier accuse le second d’avoir exploité ses contenus, sans accord préalable, afin d’entraîner ses modèles de langage. La procédure (PDF), déposée auprès d’un tribunal californien, vise à obtenir réparation de ce que Reddit considère comme un triple préjudice.
« Non seulement [Reddit et ses utilisateurs, ndlr] ne tirent aucun bénéfice de la technologie qu’ils ont contribué à créer (y compris, en ce qui concerne Reddit, les coûts importants de développement, d’hébergement et de maintenance de la plateforme), mais ils perdent également les protections de confidentialité qui s’appliquent lorsque Reddit concède des licences de contenu à des tiers et surveille ensuite leur conformité via son API de conformité », avance la plainte. Enfin, Reddit ne tirerait aucun avantage des accords commerciaux passés entre Anthropic et Amazon.
Le plaignant accuse par ailleurs Anthropic de ne pas respecter ses engagements en matière de non indexation des contenus protégés, par leur éditeur, des robots dédiés aux modèles IA. Le réseau social affirme ainsi avoir enregistré plus de 100 000 tentatives de connexion émanant des robots dédiés à Claude, en dépit de ses mesures techniques (CAPTCHA ou exclusion renseignée au niveau du fichier robots.txt).
La plainte a été déposée le 4 juin devant un tribunal de Californie
Une affaire du même ordre a déjà opposé le New York Times à OpenAI, au sujet de l’entraînement des grands modèles de langage (LLM) utilisés pour concevoir ChatGPT et consorts. À l’époque, OpenAI se défendait en invoquant le principe de fair use. Les deux sociétés ont fini par passer un accord.
Reddit, de son côté, défend publiquement l’idée d’un accès payant à ses contenus, via API, pour l’entraînement des LLM depuis 2023. L’entreprise dirigée par Steve Huffman a d’ailleurs déjà signé un accord avec Google (60 millions de dollars début 2024), puis avec OpenAI (en mai 2024, pour un montant non précisé). Dans sa plainte, Reddit affirme qu’Anthropic aurait refusé d’engager des négociations dans le but de parvenir à un accord similaire.
La startup britannique fondée en 2012 a annoncé entamer une procédure d’insolvabilité. Elle était pourtant soutenue financièrement par Microsoft. Mais Builder.ai, qui prétendait proposer une solution pour créer des applications presque no code avait été accusée de sous-traiter à des humains, installés en Inde. Il lui est maintenant reproché des manipulations financières.
L’entreprise l’a annoncé il y a deux semaines sur LinkedIn, « Engineer.ai Corporation, connue sous le nom de Builder.ai, va entamer une procédure d’insolvabilité et nommer un administrateur pour gérer les affaires de la société ». Dans ce message, la direction affirme qu’elle « n’a pas été en mesure de se remettre des défis historiques et des décisions passées qui ont mis à rude épreuve sa situation financière ».
Des promesses en avance sur la mode du « no code »
Mais dès cette annonce, le Financial Times expliquait que les ennuis de Builder.ai arrivaient après une enquête interne montrant de potentielles manipulations dans les chiffres de vente de l’entreprise.
L’entreprise affirmait, déjà bien avant les vagues de l’IA générative, du « no code » et du « vibe code », proposer un outil nommé Natacha intégrant de l’intelligence artificielle et permettant de créer une application ou un site web « aussi facilement que commander une pizza », selon son CEO de l’époque Sachin Duggal.
Avec cette promesse, Builder.ai a levé plus de 500 millions d’euros auprès de financeurs comme le fonds souverain du Qatar mais aussi de Microsoft. Et elle a, à un moment donné, été évaluée à environ 1,5 milliard de dollars.
Dès 2019, des soupçons de sous-traitance à des humains en Inde
Pourtant, dès 2019, des salariés et ex-salariés expliquaient au Wall Street Journal que l’entreprise exagérait ses capacités en matière d’IA pour attirer les clients et les investisseurs. L’entreprise était connue sous son nom officiel d’Engineer.ai.
Le journal étasunien avait pu consulter des documents qui indiquaient que « l’entreprise s’appu[yait] sur des ingénieurs humains en Inde et ailleurs pour effectuer la majeure partie de ce travail, et que ses prétentions en matière d’IA [étaient] exagérées, même à la lumière de la mentalité « fake-it-till-you-make-it », courante parmi les start-ups du secteur technologique ».
Après un changement de nom commercial, l’entreprise a quand même réussi à continuer à convaincre les investisseurs. En octobre dernier, l’entreprise avait encore emprunté 50 millions de dollars auprès d’un consortium d’entreprises mené par l’Israélienne Viola Credit. Elle avait annoncé cet emprunt en avril dernier au Financial Times tout en admettant avoir eu des problèmes financiers.
Des comptes suspects pour clore le cercueil
Mais, un mois après, le journal financier apprenait que l’entreprise avait revu ses revenus à la baisse : « une estimation antérieure de 220 millions de dollars pour les revenus de 2024 a été révisée à environ 55 millions de dollars, tandis qu’un chiffre de ventes totales de 180 millions de dollars pour 2023 a été révisé à environ 45 millions de dollars, ont ajouté les personnes interrogées ». Or, c’est bien sur ces anciennes estimations que l’emprunt avait été accordé. Le groupe de prêteurs aurait donc retiré 37 de ses 50 millions de dollars, selon Les Echos.
Selon Bloomberg, Builder.ai aurait créé un montage avec la startup de média sociaux indienne VerSe Innovation pendant des années pour gonfler ses ventes. « Les deux entreprises se seraient facturées régulièrement des montants à peu près identiques entre 2021 et 2024 », explique le média étasunien qui a pu consulter des documents internes.
Le co-fondateur de l’entreprise indienne réfute totalement ces accusations, affirmant à nos confrères qu’elles étaient « absolument sans fondement et fausses ». Du côté de Builder.ai, la direction n’a pas voulu commenter.
Depuis l’annonce de la faillite, les accusations d’une fausse IA refont surface. Le Times of India qualifie Builder.ai de « startup ayant fait passer 700 ingénieurs situés en Inde pour une IA ».
Point de Contact, #StopFisha et Féministes contre le cyberharcèlement lancent une enquête nationale pour cartographier les cyberviolences sexistes et sexuelles.
Si la question initiale du questionnaire évoque tous types de victimes de violences numériques — les exemples donnés comprennent les menaces, l’escroquerie, le piratage, etc. —, le reste de l’enquête est plus directement axé sur les enjeux de diffusions non consenties de contenus sexuels et intimes.
L’enquête vise aussi bien à recueillir les témoignages de victimes, de leur entourage que de témoins de ces violences.
Parmi les buts que les trois associations exposent dans leur communiqué : établir un panorama des victimes comme des auteurs et autrices de ce type de violence, comprendre les circonstances et contexte dans lesquelles elles sont produites, sensibiliser le public et les potentiels témoins, et faire émerger des recommandations concrètes pour mieux lutter contre le phénomène.
Au fil des questions, les associations profitent de leur formulaire pour rappeler les définitions de diverses violences numériques et la manière dont elles sont encadrées par la loi.
Depuis quelques heures, trois sites pornographiques parmi les plus importants – Pornhub, Redtube et Youporn – affichent désormais le même message : leur accès est suspendu en France. Leur éditeur, Aylo, a pris cette décision pour protester contre la vérification d’âge obligatoire sur les sites pour adulte.
C’est donc fait. La loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique, dite SREN, a permis à l’Arcom de déclarer la guerre aux sites pornographiques ne disposant d’aucun mécanisme pour contrôler l’âge des internautes. Comme le rappelait encore hier l’Autorité, laisser du contenu pornographique accessible aux mineurs est une infraction pénale (article 227 - 24 du Code pénal). Or, toujours selon l’Arcom, plus d’un tiers des adolescents de 12 à 17 ans visite au moins une fois par mois Pornhub.
La situation couvait depuis des années
L’autorité est devenue l’institution clé pour appliquer cette réglementation. À ce titre, elle peut intervenir directement auprès des plateformes et émettre des mises en demeure pour les sites ne respectant pas cette obligation. Au cours des derniers mois, celle-ci est devenue plus prégnante. Le 6 mars dernier, un arrêté ministériel a ainsi désigné 17 sites européens comme étant en infraction, dont ceux d’Aylo.
Le sujet de la vérification est revenu régulièrement sur la table ces dernières années. En 2022, une étude avait conclu que la vérification de l’âge à grande échelle était complexe. Pourtant, l’Arcom estime aujourd’hui que des solutions existent et qu’elles sont simples à mettre en place. La plupart des sites aurait aujourd’hui un tel mécanisme.
Mais Aylo, éditeur de Pornhub, Redtube et Youporn, est depuis le départ vent debout contre cette mesure. Le groupe peste et fustige contre cette obligation, arguant de sérieux problèmes de vie privée à résoudre, puisque les prestataires se retrouveraient avec de nombreuses informations identifiantes sur les internautes fréquentant ces sites pour adultes. Pourtant, dans sa délibération du 26 septembre 2024 (pdf), la CNIL se félicitait que toutes ses préconisations aient été prises en compte dans l’élaboration du référentiel pour les tiers de confiance, acteurs dont la mission est de collecter la preuve de l’âge et de transmettre une simple confirmation au site visité. La CNIL validait notamment le principe de « double anonymat ».
Aylo suspend de lui-même ses sites
Depuis le 11 avril, tout s’est emballé. La date a marqué la fin d’une période de grâce durant laquelle les sites devaient se mettre en conformité. Depuis, tous les sites pour adultes ont l’obligation de mettre en place ce système de double anonymat, comme l’a par exemple fait OnlyFans. Pourtant, début mai, la Cour d’appel de Paris remettait en question l’application extraterritoriale du droit français à des sites installés ailleurs en Europe, en l’occurrence xHamster et Tukif.
Aylo, éditeur installé à Montréal, n’a pas voulu attendre la date butoir du 6 juin. Depuis mercredi 4 juin, peu avant 15 heures, ses principaux sites Pornhub, Redtube et Youporn sont inaccessibles en France. Les trois sites affichent le même message. « Votre gouvernement propose de vérifier votre âge à chaque fois que vous visitez notre site, c’est fou, non ? Cela ne protège pas les mineurs — mais au contraire, cela met en danger la vie privée de tout le monde et expose les enfants à des risques », fustige Aylo.
L’éditeur met en garde contre le « risque de sécurité inacceptable » que ferait courir l’application du droit français, en voulant concentrer des informations sensibles entre les mains de quelques acteurs. « Votre gouvernement ne vous dira pas la vérité à ce sujet, mais nous le ferons », proclame Aylo.
Une solution « inefficace, aléatoire et dangereuse »
Le message, porté depuis dans un communiqué de presse, met surtout en avant deux arguments. D’une part, l’éditeur pointe la vérification de l’âge au niveau de l’appareil comme solution simple et ultime. Il suffirait d’imposer à Microsoft, Apple et Google que cette fonction soit présente au sein de leurs systèmes d’exploitation pour que les sites puissent récupérer un sésame. « Le gouvernement français refuse de prendre cette mesure simple et se concentre plutôt sur des actions réglementaires futiles et entièrement symboliques qui sont inapplicables, ne protègent pas les enfants et exposent vos données privées », ajoute Aylo.
D’autre part, « les gens ne cesseront pas de chercher du porno ». Pour l’éditeur, ils se dirigeront simplement vers des « centaines de milliers de plateformes peu sûres », qui ne se conforment pas davantage à la loi et n’ont aucune politique de confiance et de sécurité pour les informations collectées. Selon Aylo, « toutes les données indiquent que ces lois n’ont fait que détourner le trafic vers des sites web dangereux ».
La méthode française est donc jugée « inefficace, aléatoire et dangereuse ». On ajoutera que les blocages étant basés sur les DNS, leur contournement est aisé. Rappelons qu’aux États-Unis, des chiffres montraient en janvier que les États imposant des restrictions sur le porno avaient vu une explosion des téléchargements de VPN.
L’Arcom, de son côté, indique simplement avoir pris « acte de la décision du groupe Aylo ». L’éditeur aurait ainsi « fait le choix de se soustraire à l’impératif que constitue la protection des mineurs en suspendant l’accès à ses contenus en France y compris pour un public majeur, alors qu’il existe de nombreuses solutions techniques sur le marché permettant de vérifier l’âge des utilisateurs tout en assurant la protection de leurs données personnelles ».
Rappelons enfin que la Commission européenne a déclenché sa propre procédure contre plusieurs sites pornographiques, dont Pornhub. Elle leur reproche une absence de conformité avec le DSA dans le cadre de la lutte contre l’accès aux mineurs des contenus pornographique. En outre, l’Europe table sur une solution harmonisée de vérification de l’âge, qui a été confiée à l’Espagne.
Windsurf, éditeur d’un environnement de développement intégré copieusement dopé à l’IA, est dans la panade : Anthropic lui a coupé l’accès à ses modèles Claude. Windsurf avertit actuellement sa clientèle d’une cassure dans leur utilisation. Si Anthropic ne s’est pas encore exprimée sur le sujet, certains éléments pointent vers une mesure de riposte.
Windsurf est un IDE populaire. L’ancien Codeium s’est largement recentré sur le développement assisté par l’IA générative, plus particulièrement les agents. Ce virage a permis à l’environnement de se faire un nouveau nom, face à des ténors comme Visual Studio Code et JetBrains. Sur ce créneau, il est un concurrent direct d’un autre IDE populaire en ce moment, Cursor (édité par Anysphere).
Le fonctionnement de Windsurf dépend étroitement des modèles choisis pour l’inférence, autrement dit la phase de « réflexion ». Dans le domaine du développement, les modèles d’Anthropic sont particulièrement appréciés et Windsurf dispose d’accès aux API correspondantes pour transférer les requêtes.
Mais cette nuit, coup de tonnerre. Dans un tweet publié vers 1 h du matin, le CEO de Windsurf, Varun Mohan, prévient d’une catastrophe : « Avec moins de cinq jours de préavis, Anthropic a décidé de couper la quasi-totalité de sa capacité de première partie pour tous les modèles Claude 3.x ».
Deux mois intenses
Pour comprendre la situation actuelle, il faut se plonger dans le contexte bouillonnant des derniers mois. Mi-avril, CNBC indiquait ainsi qu’OpenAI s’intéressait vivement aux entreprises éditant ce type d’IDE. Selon nos confrères, l’entreprise de Sam Altman aurait approché une vingtaine de sociétés, dont Anysphere et son Cursor. La startup aurait décliné, portée par une envolée du chiffre d’affaires et une volonté farouche de rester indépendante. Selon Bloomberg, Anysphere chercherait à faire relever sa valorisation à 10 milliards de dollars.
En revanche, les discussions avec Windsurf auraient été plus productives. À la même période, Bloomberg rapportait ainsi que les échanges avec OpenAI avaient conduit à une offre de 3 milliards de dollars. Bien qu’aucune des deux entreprises n’ait confirmé depuis, la rumeur est tenace et Windsurf pourrait donc intégrer l’un des plus gros acteurs de l’IA générative, dont Anthropic est bien sûr concurrente.
Depuis, la situation s’est accélérée. En mai, Anthropic a tenu sa première conférence dédiée aux développeurs. Baptisée « Code with Claude », elle a été le théâtre de deux grandes annonces. D’une part, la présentation de la nouvelle famille Claude 4, dont le nouveau Sonnet et la nouvelle grande star de l’entreprise, Opus. D’autre part, la disponibilité en version finale de Claude Code, la propre application maison d’Anthropic pour l’aide active au développement.
Enfin, toujours à la mi-mai, Windsurf a annoncé sa propre famille de modèles. Nommée SWE-1, elle comprenait surtout la version principale, directement comparée à Claude 3.5 Sonnet, aux performances similaires mais moins chère.
Claude 4 : le coup de semonce
Windsurf pouvait se douter que quelque chose clochait. Comme elle l’indique elle-même dans le communiqué publié cette nuit, l’annonce des modèles Claude 4 s’était accompagnée d’un silence glacial d’Anthropic. Aucune clé n’a été attribuée à Windsurf, qui a alors choisi de contourner ce blocage, au prix d’un accès plus onéreux pour les utilisateurs.
Cette nuit, c’est la totalité des accès aux API d’Anthropic qui a été supprimée. Dans son tweet, Varun Mohan indique que le délai fixé par Anthropic est très court : cinq jours. Le CEO indique que face « à la brièveté du préavis », Windsurf a augmenté en urgence la capacité pour les autres fournisseurs, mais qu’il faut s’attendre rapidement à des problèmes de disponibilité pour tous les modèles Claude 3.X.
En outre, et comme indiqué par le communiqué, Windsurf met en place un tarif promotionnel (- 25 %) pour Gemini 2.5 Pro de Google, lui aussi très à l’aise en développement. Parallèlement, l’accès aux modèles Claude 3.X est supprimé pour les comptes gratuits. Enfin, l’accès à Claude Sonnet 4 reste possible quand la clé est apportée par le client.
Une décision stratégique ?
« Nous avons clairement indiqué à l’équipe d’Anthropic que notre priorité était de conserver les modèles Anthropic comme modèles recommandés, et nous avons toujours été prêts à payer pour la capacité. Nous continuerons à travailler pour trouver de la capacité auprès d’autres fournisseurs parce que nous ne nous soucions que du produit et de nos utilisateurs », indique le communiqué de Windsurf. L’entreprise dit craindre également que le comportement d’Anthropic « porte préjudice à de nombreux acteurs du secteur ».
L’entreprise est donc prête à payer, mais Anthropic fait pour l’instant la sourde oreille. À l’heure actuelle, cette dernière ne semble s’être exprimée qu’auprès de TechCrunch, de manière minimale.
« Nous donnons la priorité à des partenariats durables qui nous permettent de servir efficacement la communauté des développeurs. Les développeurs peuvent également accéder à Claude via notre intégration API directe, notre écosystème de partenaires et d’autres outils de développement », a ainsi déclaré un porte-parole à nos confrères.
La décision d’Anthropic semble stratégique. Il pourrait s’agir d’une mesure de représailles après le faisceau d’annonces laissés par Windsurf au cours des deux derniers mois. Anthropic pourrait avoir été échaudé par le lancement des modèles SWE-1, directement comparés aux siens, et les puissantes rumeurs du rachat par OpenAI. De plus, avec le lancement de Claude Code, les deux éditeurs sont devenus des concurrents.
Des chercheurs ont découvert que les applications de Meta et Yandex, souvent déjà installées, traquaient les activités des utilisateurs d’Android sur n’importe quel navigateur. Ce système leur permettait de désanonymiser les données récoltées via leurs traqueurs web (Meta Pixel et Yandex Metrica).
Meta et Yandex ont contourné les protections de sécurité et de respect de la vie privée d’Android pour désanonymiser les informations récoltées via leur système de tracking sur le web, ont découvert le chercheur Narseo Vallina-Rodriguez et ses collègues. Ceux-ci ont publié le détail de leurs observations directement sur un site GitHub.
S’ils ont observé ce mécanisme sur Android, ils expliquent n’avoir rien trouvé sur iOS. Mais ils ajoutent : « cela dit, un partage de données similaire entre les navigateurs iOS et les applications natives est techniquement possible ».
Les deux entreprises ont mis en place depuis longtemps des systèmes qui permettent de récolter des informations sur les visiteurs de sites web : Yandex Metrica et Meta Pixel. L’entreprise russe présente son outil aux responsables de sites comme un moyen de récupérer « toutes les informations que vous avez toujours voulu connaître sur votre site web ». De son côté, l’entreprise étasunienne les pousse à ajouter « un morceau de code à votre site web, qui vous permet de mesurer, d’optimiser et de créer des audiences pour vos campagnes publicitaires ». Mais ces quelques lignes de JavaScript ajoutées sur un bon nombre de sites web permettaient aussi à ces entreprises de récupérer des données sur les utilisateurs de leurs services sur Android.
Envoi d’informations via le serveur local
En effet, les chercheurs ont découvert que les applications de Meta (Facebook, Instagram) et celles de Yandex (dont l’appli de navigation et le navigateur) recevaient « les métadonnées, les cookies et les commandes des navigateurs » via Yandex Metrica et Meta Pixel.
Ces traqueurs récupèrent ces informations au gré de l’utilisation de n’importe quel navigateur installé sur le smartphone. Mais ils se connectaient également en silence avec ces applications via une connexion interne au téléphone (socket localhost) utilisant des ports UDP et TCP locaux au smartphone.
Les chercheurs observent qu’Android permet à toute application installée disposant d’une autorisation d’accès à internet d’ouvrir un socket qui écoute sur l’adresse locale (127.0.0.1, localhost) de l’appareil.
« Cela permet au JavaScript intégré dans les pages web de communiquer avec les applications Android natives et de partager les identifiants et les habitudes de navigation, en établissant un pont entre les identifiants web éphémères et les identifiants d’applications mobiles à long terme à l’aide d’API web standard », expliquent-ils.
« Puisque les applications natives accèdent par programmation aux identifiants des appareils tels que l’Android Advertising ID (AAID) ou gèrent l’identité des utilisateurs comme dans le cas des applications Meta, cette méthode permet effectivement à ces organisations de relier les sessions de navigation mobile et les cookies web aux identités des utilisateurs, et donc de désanonymiser les utilisateurs qui visitent des sites intégrant leurs scripts », ajoutent les chercheurs.
Un système mis en place depuis 2017 par Yandex et depuis quelques mois par Meta
Selon eux, Yandex avait mis en place ce système depuis 2017. Du côté de Meta, cette désanonymisation des données de son traqueur date « seulement » de septembre 2024.
Ils constatent que cette méthode met en échec « l’isolation inter-processus d’Android et ses protections de suivi basées sur le partitionnement, le sandboxing ou l’effacement de l’état côté client ».
Pris les doigts dans le pot de confiture, Meta et Yandex mettent sur pause
Interrogée par ArsTechnica, Google explique que ces comportements violent les conditions de service de Google Play et les attentes des utilisateurs d’Android en matière de protection de la vie privée. « Nous avons déjà mis en œuvre des changements pour atténuer ces techniques invasives, nous avons ouvert notre propre enquête et nous sommes directement en contact avec les parties », affirme un de ses représentants.
Meta n’a pas répondu aux questions de notre confrère, mais a assuré être en discussion avec Google « pour remédier à une éventuelle erreur de communication concernant l’application de leurs politiques ». L’entreprise ajoute avoir décidé de suspendre « cette fonctionnalité pendant que [elle travaille] avec Google pour résoudre le problème ».
Dans une mise à jour sur leur site, les chercheurs confirment que « le script Meta/Facebook Pixel n’envoie plus de paquets ou de requêtes à localhost. Le code responsable de l’envoi du cookie _fbp a été presque entièrement supprimé ».
Yandex affirme aussi à ArsTechnica avoir arrêté et être en contact avec Google. « Yandex respecte strictement les normes de protection des données et ne désanonymise pas les données des utilisateurs », jure l’entreprise. Elle ajoute que « la fonctionnalité en question ne collecte aucune information sensible et a pour seul but d’améliorer la personnalisation dans nos applications ».
Brave protégé, Microsoft ne répond pas, les autres patchent
Les chercheurs ont travaillé avec les équipes de plusieurs navigateurs (Chrome, Mozilla, DuckDuckGo, et Brave). Du côté de Brave, « les communications vers localhost requièrent le consentement de l’utilisateur depuis 2022 et une liste de blocage est en place », ce qui permet au navigateur de ne pas être affecté. DuckDuckGo utilise aussi une liste de blocage qu’il a dû mettre à jour pour parer le système mis en place par Yandex.
Firefox n’est touché que par la méthode de Yandex. Les chercheurs expliquent que la résolution est en cours, sans plus de détails. La version 137 de Chrome embarque des contre-mesures contre les méthodes de Meta et de Yandex qui semblent fonctionner, mais les chercheurs proposent une autre solution à plus long terme. Enfin, bien que le navigateur Edge de Microsoft soit touché par les deux méthodes, l’équipe de Narseo Vallina-Rodriguez n’a pas d’information sur d’éventuels patchs.
Concernant des implications légales sur la violation du consentement des utilisateurs, il semble que « ces pratiques ont pu être mises en œuvre sur des sites web sans formulaires de consentement explicites et appropriés pour les cookies ». « Si un site charge les scripts Facebook ou Yandex avant que l’utilisateur n’ait donné son accord pour les cookies appropriés, ce comportement se déclenchera quand même », estiment les chercheurs, tout en précisant que ceci ne se base que sur des résultats préliminaires.
En février, Adobe s’est essayé pour la troisième fois à une déclinaison mobile de Photoshop, d’abord sur iPhone. Contrairement aux deux tentatives précédentes, il ne s’agissait pas cette fois d’une variante tactile aux fonctions largement amputées, mais d’une application comme on pouvait l’attendre. Les fonctions étaient nombreuses – sans atteindre bien sûr leurs équivalentes pour ordinateurs – et on retrouvait toutes les capacités principales.
Une version pour Android est désormais disponible. Il s’agit pour l’instant d’une bêta, mais ce statut de préversion s’accompagne d’un avantage certain : tant que durent les tests, l’application est complètement gratuite. La version finale nécessitera un abonnement, comme sur iPhone.
Cette version Android ne contient pas toutes les fonctions, mais beaucoup sont déjà disponibles. On retrouve bien sûr les calques et masques. Tous les outils dopés à l’IA sont présents pour faciliter la sélection, la modification, le remplacement ou la suppression des éléments. On note aussi le pinceau de correction des taches, le remplissage génératif, les sélections précises via Sélection d’objet et Baguette magique, les modes de fusion, les clones ou encore les recadrages (mais uniquement en fonction du ratio pour l’instant).
On ne sait pas combien de temps durera la bêta, ni si des mises à jour seront proposées pour ajouter des fonctions avant la version finale. En revanche, on sait ce que l’application réclame : un appareil avec Android 11 au moins et un minimum de 6 Go de mémoire, même si Adobe précise que 8 Go sont recommandés. L’application elle-même a besoin de 600 Mo d’espace libre.
Enfin, cette version mobile de Photoshop est connectée et réclame un compte pour fonctionner.
Le ministère de l’Intérieur vient de présenter sa stratégie nationale pour lutter contre la cybercriminalité, « structurée en 4 piliers, déclinés en 12 axes stratégiques, eux-mêmes détaillés en 84 actions structurantes ». Au menu : coopérations, partage d’informations, retours d’expériences, travail sur les compétences ou l’attractivité de la filière… le tout sans objectif chiffré, ni budget à ce stade.
« Depuis mon arrivée Place Beauvau, je me suis fixé une seule mission : rétablir l’ordre », écrit Bruno Retailleau en introduction de la stratégie nationale pour lutter contre la cybercriminalité pour les trois années à venir, que le ministère de l’Intérieur vient de rendre publique :
« Pour cela, j’ai assumé d’ouvrir de nombreux chantiers. Contre l’immigration non maitrisée, contre la criminalité organisée et le narcotrafic, contre la délinquance du quotidien. Aussi différents soient-ils, ces fléaux ont un point commun : ils se prolongent tous dans l’espace numérique. De la pédopornographie aux trafics de drogues et d’armes en passant par les arnaques multiples et diverses, le cyberespace est devenu le nouveau terrain de chasse des délinquants et des criminels. C’est donc là que, nous aussi, nous devons aller, pour ouvrir un nouveau front dans la bataille contre l’insécurité que nous livrons. »
« Cette bataille, nous nous donnons les moyens de l’emporter », poursuit-il, mais sans pour autant annoncer quelque chiffre que ce soit. Tout juste apprend-on que « dans les mois et années à venir, nous continuerons à investir les opportunités qu’ouvrent les nouvelles technologies ».
Une absence de chiffres d’autant plus intrigante que le premier rapport annuel sur la cybercriminalité, publié fin juillet 2024 et émanant lui aussi du nouveau commandement du ministère de l’Intérieur dans le cyberespace (COMCYBER-MI), en comportait beaucoup.
Le bilan des atteintes et infractions liées aux cyber présente des chiffres concrets
Combien de policiers et gendarmes le ministère compte-t-il former et recruter, quels nouveaux moyens budgétaires seront alloués afin d’attirer des profils spécialisés et particulièrement recherchés (tant dans le privé qu’au sein des services de renseignement), ainsi que pour financer l’acquisition ou le développement de nouveaux outils et logiciels ?
À ce stade, le rapport du ministère de l’Intérieur ne répond pas à ces questions. La mise en œuvre est en effet renvoyée aux différents services, « notamment la direction générale de la Gendarmerie nationale, la direction générale de la Police nationale et la préfecture de Police de Paris », chargés de suivre cette stratégie élaborée « pour les trois années à venir ». Au programme : une feuille de route « structurée en 4 piliers, déclinés en 12 axes stratégiques, eux-mêmes détaillés en 84 actions structurantes ».
Hasard du calendrier, la mise en ligne de cette stratégie intervient alors que le ministère de la défense britannique vient, de son côté, de profiter de la publication de sa Strategic Defence Review 2025 pour annoncer qu’il allait investir plus d’un milliard d’euros dans son nouveau système de localisation et d’élimination des cibles ennemies sur le champ de bataille. Mais également que les salaires de départ s’élèveraient désormais à environ 47 000 euros, avec la possibilité de gagner jusqu’à près de 30 000 euros supplémentaires en fonction des compétences des experts cyber.
La cybercriminalité est aussi devenue une arme d’emploi entre États
Il reste 64% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Si toutes les grandes entreprises américaines de la tech avaient un programme carbone censé atteindre la neutralité vers 2030, presque aucune aujourd’hui ne communique sur ce thème. La faute à l’intelligence artificielle générative, qui a fait s’envoler la consommation.
Oracle, Amazon, Microsoft puis Meta ont tous annoncé des investissements dans le nucléaire. Les géants n’ont rien dit sur la neutralité carbone, l’explosion de l’IA ayant chamboulé les projets dans ce domaine. On peut imaginer néanmoins que l’énergie nucléaire est un bon moyen d’obtenir une grande quantité d’électricité sans faire exploser le compteur des gaz à effet de serre.
Et voilà que Meta investit de nouveau dans le nucléaire. Dans un communiqué publié hier soir, la société Constellation Energy a annoncé un partenariat de 20 ans sur la centrale du Clinton Clean Energy Center, située à Clinton dans l’Illinois. L’accord porte sur les 1 121 MW de la centrale, bien que ce chiffre doive augmenter de 30 MW grâce à une modernisation des installations, « préserver 1 100 emplois locaux bien rémunérés, générer 13,5 millions de dollars de recettes fiscales annuelles et ajouter 1 million de dollars de dons à des organisations caritatives locales sur une période de cinq ans », explique Constellation.
Comme l’indique également l’entreprise, la centrale devait initialement fermer en 2017 « après des années de pertes financières ». Ce n’est que grâce à l’arrivée du Future Energy Jobs Act que la centrale a perduré, perfusée à l’argent public jusqu’en 2027. L’accord signé avec Meta permet d’étendre l’exploitation de la centrale jusqu’en 2047. Constellation envisage également la construction d’un autre réacteur sur le site.
OpenAI a lancé en avril sa fonction Memory pour ChatGPT. Réservée aux personnes détentrices d’un abonnement payant, elle permet de retenir des informations entre plusieurs sessions d’utilisation. Par exemple, si l’on évoque dans ChatGPT une allergie alimentaire, le service s’en souviendra et n’évoquera pas cet aliment dans des idées de recettes. Du moins en théorie.
Depuis hier soir, cette fonction est disponible pour tous, a annoncé Sam Altman. Sous une certaine forme en tout cas, car la capacité à retenir des informations sera moindre que pour les comptes payants. Memory garde cependant son potentiel de transformer la manière d’interagir avec ChatGPT, en rendant l’expérience plus personnelle.
Ce point ne plaira pas à tout le monde. En Europe et dans plusieurs autres pays comme le Royaume-Uni et le Lichtenstein, la fonction n’est d’ailleurs pas activée par défaut. Il faudra se rendre dans Paramètres > Personnalisation > Mémoire > Référence à l’historique de chat pour l’activer. Dans le reste du monde, dont les États-Unis, elle est activée par défaut mais peut être coupée dans les paramètres.
Pour les personnes qui ne connaitraient pas le fonctionnement de cette mémoire, il faut la distinguer du fonctionnement habituel de ChatGPT. On peut demander au service en effet de retenir spécifiquement une information. Avec Memory, c’est ChatGPT lui-même qui retient ce qui lui parait important.
Dans les paramètres, on peut d’ailleurs voir une jauge indiquant le remplissage de cette mémoire. Il n’y a pas de contrôle direct sur les informations stockées par ChatGPT, OpenAI ne fournissant pas de liste, qui aurait pu servir à supprimer sélectivement les données. On peut interroger ChatGPT sur ce qu’il « sait » et demander à supprimer des informations spécifiques.
NSO Group a déposé une demande de procès pour contester sa condamnation à 167 millions de dollars de dommages et intérêts.
En décembre, à l’issue de 5 ans de procédure judiciaire, la société israélienne avait été condamnée par un tribunal états-unien pour avoir exploité un bug de l’application de messagerie WhatsApp et infecté 1 400 smartphones de journalistes, de militants des droits humains et de dissidents entre 2018 et 2020.
En mai, elle était condamnée par un jury populaire à accorder 167 millions de dollars de dommages et intérêts à Meta et à dévoiler les coulisses de son logiciel Pegasus.
Ce 3 juin, l’entreprise a déposé une demande (.pdf) de « remittitur », une procédure qui permet de réclamer la réduction du montant d’une peine.
L’entreprise qualifie les dommages et intérêts qui lui sont demandés de « scandaleux », « ouvertement illégaux » et « inconstitutionnellement excessifs ».
Ses avocats estiment que le jury présentait une « hostilité générale à l’égard [des] activités commerciales » de NSO, et que sa décision reflétait le « désir inapproprié » de mettre l’entreprise en faillite.
Auprès de TechCrunch, une porte-parole de WhatsApp déclare que la filiale de Meta continuera de s’opposer à NSO Group face à la justice.
Non contente d’être, derrière Google, une des plus grosses régies publicitaires sur internet avec Meta Ads, l’entreprise de Mark Zuckerberg ambitionne de s’attaquer à un autre maillon de la chaine publicitaire : la création. Meta projette de proposer des outils, utilisant l’IA générative, qui permettent aux marques de créer leurs publicités du début à la fin.
Meta devrait proposer, d’ici la fin de l’année, des outils permettant aux entreprises de créer des publicités et de cibler les personnes auxquelles elles s’adressent, grâce à ses outils d’intelligence artificielle.
Si Meta Ads, la plateforme publicitaire de Meta, commence déjà à proposer de l’A/B testing en générant des variantes de publicités existantes, l’entreprise pense pouvoir proposer aux marques la possibilité de monter des concepts publicitaires de A à Z, expliquent plusieurs sources du Wall Street Journal.
Mark Zuckerberg l’évoquait déjà le mois dernier dans le podcast de Ben Thompson Stratechery. Pour lui, l’une des opportunités qu’apporte l’IA est d ‘ « optimiser le secteur de la publicité ». Le CEO de Meta affirmait que son entreprise maitrisait désormais complètement le profilage des potentiels clients.
L’objectif de Mark Zuckerberg : maitriser la chaine publicitaire
« Mais il reste toujours la partie créative », avait-il ajouté. « C’est-à-dire que les entreprises viennent nous voir et ont une idée de leur message, de leur vidéo ou de leur image, et c’est assez difficile à produire, mais je pense que nous en sommes assez proches », en référence à ses outils d’IA générative.
Dans ce podcast, Mark Zuckerberg exprimait clairement sa volonté de maitriser toute la chaine publicitaire : « Nous allons arriver à un point où vous êtes une entreprise, vous venez nous voir, vous nous dites votre objectif, vous vous connectez à votre compte bancaire, vous n’avez besoin d’aucune création, vous n’avez besoin d’aucun ciblage démographique, vous n’avez besoin d’aucune mesure, vous avez juste besoin de lire les résultats que nous produisons ». Et d’ajouter : « Je pense que cela va être énorme, je pense qu’il s’agit d’une redéfinition de la catégorie de la publicité ».
Ciblage et adaptation de la publicité à la cible
Selon le Wall Street Journal, le projet de Mark Zuckerberg est bien en route. Les outils boostés à l’IA que Meta développe doivent permettre à une marque d’obtenir une pub finalisée comprenant image, vidéo et texte. Tout ça en ne donnant au système qu’une image du produit et son objectif budgétaire. L’outil de Meta déciderait quelles personnes viser, en proposant bien sûr de cibler des utilisateurs de ses réseaux sociaux Facebook et Instagram.
L’entreprise prévoit même de pouvoir modifier les rendus des publicités en fonction des données qu’elle possède sur les utilisateurs cibles. « Une personne qui voit une publicité pour une voiture dans un endroit enneigé, par exemple, peut voir la voiture en train de gravir une montagne, alors qu’une personne qui voit une publicité pour la même voiture dans une zone urbaine la verra rouler dans une rue », explique le Wall Street Journal.
Quelles entreprises visées ?
Il est pour l’instant difficile de juger de l’efficacité de ces outils tant qu’ils ne sont pas disponibles. Meta, comme toutes les autres entreprises d’IA générative, n’a pas résolu le problème des « hallucinations » des modèles. Et, si un utilisateur lambda peut passer outre lorsqu’il fait de petites vidéos personnelles pour les réseaux sociaux, ce peut être plus gênant pour la publicité d’une entreprise.
« La sécurité des marques est encore une question importante, c’est pourquoi les laisser faire et optimiser la création est un concept effrayant », affirmait le CEO d’une agence de publicité, interrogé par The Verge suite aux déclarations de Mark Zuckerberg.
Le Wall Street Journal, de son côté, évoque plutôt « une aubaine pour les petites et moyennes entreprises, qui représentent la plupart des annonceurs sur les plateformes de Meta et n’ont souvent pas de gros budgets pour la création de publicités ». Mais les sources du journal précisent que les outils développés par Meta demandent énormément de puissance, voire des modèles spécifiques à chaque marque.
Une autre question reste en suspens : en se donnant la possibilité de maitriser toute la chaine publicitaire, Meta ne risque-t-elle pas d’attirer l’œil des autorités de régulation ?
Les bots des entreprises d’IA qui parcourent le web en permanence augmentent la fréquentation des sites de manière vertigineuse. Si tout type de sites est touché, les bases de données ouvertes et les revues scientifiques le sont particulièrement. Le blocage de ces bots n’est pas simple, mais CloudFlare a esquissé récemment une solution.
Les bots des entreprises d’IA continuent, plus que jamais, à parcourir le web en permanence à la recherche d’information à récolter pour entrainer de nouveaux modèles mais aussi pour répondre en direct aux questions de leurs utilisateurs. En avril, Wikimédia alertait sur le sujet.
D’autres sites, moins connus mais avec des contenus tout aussi prisés, en font les frais : ceux qui hébergent des données et des articles scientifiques. Alors que les données de la recherche sont déjà menacées par l’administration Trump, les sites qui les hébergent doivent supporter un nombre important de connexions venant de ces bots.
Des contenus de haute qualité facilement accessibles
En effet, ces sites de revues sont réputés pour la qualité de leurs contenus qui sont, par définition, à la pointe de la connaissance scientifique. De même, les bases de données scientifiques sont des mines d’or de contenus. Elles rassemblent des informations agrégées par des experts d’un sujet, et souvent un tri et des métadonnées précises. Les chercheurs ont, de plus, récemment fait d’énormes efforts en ce qui concerne l’open access. Plus besoin de passer par un paywall ou même un compte pour accéder aux contenus ou aux données scientifiques. Bref, le rêve pour quelqu’un qui veut entrainer un modèle d’IA.
La revue Nature explique, par exemple, que DiscoverLife reçoit actuellement des millions de visites par jour. Jusqu’à récemment, cette base de données qui contient près de 3 millions de photos d’espèces d’animaux et de végétaux n’avaient aucun problème de trafic. Mais depuis le début de cette année, ça devient de plus en plus compliqué. « En février, environ dix millions de visites quotidiennes de robots sur DiscoverLife ont ralenti le site, interrompant de fait l’accès des humains », expliquaient récemment les responsables du site.
De même, en mars, Ian Mulvany, le CTO du British Medical Journal (BMJ, une des revues les plus connues dans le domaine) écrivait que « le problème est réel » et citait une des personnes de son équipe : « malheureusement, le trafic de robots sur les sites web de nos journaux a maintenant dépassé le trafic des utilisateurs réels. Ces robots agressifs tentent de parcourir des sites web entiers en peu de temps, ce qui surcharge nos serveurs web et a un impact négatif sur l’expérience des utilisateurs légitimes. (…) Plus de 100 millions de requêtes de robots proviennent de centres de données de Hong Kong et de Singapour au cours des trois dernières semaines ».
Auprès de Nature, le responsable de l’hébergeur de revues scientifique Highwire Press, Jes Kainth, témoigne aussi d’ « une augmentation considérable de ce qu’ [ils appellent] le trafic des « mauvais robots » ». Le géant de l’édition scientifique Wiley a aussi jugé bon de prendre position sur « le scraping illégal » mis en place par les développeurs d’IA. Ici, l’éditeur met plutôt en avant les problèmes de Copyright.
Un blocage par IP peu efficace
« Nous bloquons désormais plus de 190 millions d’adresses IP signalées par mois, mais les tentatives d’autres robots pour visiter le site restent une menace existentielle pour la plateforme », expliquaient le 20 mai dernier les responsables de DiscoverLife. Et effectivement, la course folle au blocage des blocs d’IP semble être la solution la plus simple et rapide à mettre en place.
Dans son billet de mars, Ian Mulvany expliquait que l’hébergeur de BMJ utilisait les services de blocage de bots de Cloudflare. Il remarquait cependant un problème : « lorsque le blocage du trafic de robots a été activé, il semblait que Cloudflare adoptait une approche large et bloquait presque tout ce qui ressemble à une communication de machine à machine ». Notamment, étaient bloquées l’utilisation des API mis en place ainsi que les méthodes d’authentification par lots d’IP. Plutôt problématique quand une bonne partie des utilisateurs sont des chercheurs dont l’autorisation d’accès est donnée par ce genre de méthodes et qui ont besoin d’accéder aux données sans forcément passer par le web.
Cloudflare propose une authentification des bots
Cloudflare et d’autres ont, depuis, mis en place des systèmes de labyrinthe pour bloquer les bots d’IA. Nous en parlions en avril. Mais, mi-mai, l’entreprise confirmait dans un billet de blog que « les mécanismes actuels de vérification des robots sont cassés ». Cloudflare pousse pour une autre approche : la signature de message HTTP. Stéphane Bortzmeyer détaille dans un billet de blog le fonctionnement de cette signature.
Cloudflare ajoute travailler « en étroite collaboration avec l’ensemble de l’industrie pour soutenir ces approches fondées sur des normes » et donne l’exemple d’OpenAI qui a commencé à signer ses demandes avec des signatures de message HTTP. L’entreprise creuse aussi d’autres pistes : « le protocole HTTP n’est pas le seul moyen de transmettre des signatures. Par exemple, un mécanisme qui a été utilisé dans le passé pour authentifier le trafic automatisé contre des points finaux sécurisés est mTLS, la présentation « mutuelle » des certificats TLS ».
L’entreprise pense que ces deux voies sont « des mécanismes prometteurs permettant aux propriétaires de robots et aux développeurs d’agents d’intelligence artificielle de s’authentifier de manière infalsifiable ». L’un de ces systèmes devrait, selon Cloudflare, permettre de remplacer les listes interminables de plages d’adresses IP et la vérification par User-Agent qui sont facilement falsifiables. Reste à voir si l’industrie de l’IA générative, qui jusque-là s’accommode bien de pouvoir moissonner le web sans demander d’autorisation, adoptera massivement ce genre de solutions.
Lors de son audition au Sénat, Vincent Strubel (directeur général de l’ANSSI) est longuement revenu sur les « clouds de confiance » Bleu et S3ns (lire notre compte rendu), mais il a aussi soulevé une question importante : notre forte dépendance à des solutions étrangères et notamment américaines. « Il y a un large recours à des solutions Microsoft au sein de l’État. C’est une réalité ».
Lors de son audition, le directeur général de l’ANSSI a longuement abordé le cas de Bleu et S3ns sur la question de la cybersécurité, mais il en a également profité pour revenir sur un autre point : ce genre de projet « pose d’autres questions de dépendance technologique, mais ce n’est pas le champ de SecNumCloud, et la question pourrait se poser vis-à-vis d’autres technologies ». Vincent Strubel cite le cas des licences VMware suite au rachat par Broadcom.
Le patron de l’ANSSI se pose des questions et apporte des réponses. « Est-ce qu’il faut se poser la question de notre dépendance quasi-exclusive à un certain nombre de technologies ? Évidemment que oui, mais c’est un champ qui dépasse largement la cybersécurité ».
L’offre européenne forcément moins bonne ? « Faux » !
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Alors que les attaques par drones se multiplient sur la ville de Kherson, en Ukraine, au moins 45 ont visé directement des civils, selon l’ONG Human Rights Watch. Fin mai, l’ONU estimait que ce mode opératoire systématisé constituait un crime contre l’humanité.
« À Kherson, l’armée russe fait la chasse aux civils. » Dans sa newsletter personnelle, le journaliste Pierre Alonso raconte son récent passage dans cette ville proche de la ligne de front russo-ukrainienne. « J’en suis reparti choqué, je dois bien le dire. »
Depuis juin 2024, selon un rapport publié ce 3 juin par l’organisation non gouvernementale (ONG) Human Rights Watch, les forces russes recourent à des petits drones quadcoptères équipées d’armes explosives pour combattre.
Dans le lot, Human Rights Watch a recensé au moins 45 occurrences d’attaque ciblant des civils. Les vidéos enregistrées par les engins démontrent que leurs opérateurs avaient conscience d’attaquer des cibles (personnes ou objets) civiles, donc que ces opérations étaient délibérées.
Des drones disponibles dans le commerce
Le 29 septembre 2024, Anastasia Pavlenko, 23 ans, se rendait à un rendez-vous dans la ville de Kherson, en Ukraine, lorsqu’elle a vu l’un de ces drones accessibles dans le commerce surgir du toit d’une maison. L’engin l’a suivie sur 300 mètres, alors qu’elle pédalait sur son vélo, avant de lâcher une munition.
Dans l’explosion, la mère de deux enfants a été blessée au cou, aux côtes et à la jambe. Pleine de sang, elle a continué de pédaler jusqu’à trouver du secours.
Dans des boucles Telegram de soldats russes, Human Rights Watch a récupéré deux vidéos du moment, enregistrées par le drone. On y voit la cycliste, puis la bombe qui détone à quelques mètres à sa gauche. Anastasia Pavlenko continue de pédaler, puis la vidéo se coupe.
D’après l’ONG, toutes les attaques contre des civils ont été menées à l’aide de petits drones mesurant moins de 40 centimètres de diagonale. Ils sont généralement manœuvrables depuis un smartphone ou une console portable, sur une portée de 5 à 25 kilomètres.
Beaucoup plus petits que ceux utilisés jusqu’ici sur les champs de bataille, les engins utilisés à Kherson sont majoritairement construits par deux sociétés chinoises, DJI et Autel, et une société russe, Sudoplatov.
Entre le 1er mai et le 16 décembre 2024, au moins 30 civils ont été tués et 483 blessés par l’usage de ce type de dispositifs. Ces drones légers sont généralement équipés par l’armée russe de grenades et de mines antipersonnel.
Human Rights Watch recense aussi des attaques contre des infrastructures de gaz, d’eau et d’électricité, ainsi que sur les employés municipaux cherchant à réparer les dommages. Comme Anastasia Pavlenko, à l’exception des personnes les plus âgées ou les plus en difficultés pour évacuer, les trois quarts de la population ont fui Kherson.
L’ONG souligne que le droit humanitaire international interdit les attaques délibérées contre les personnes et les objets civils. Si des chaînes Telegram ont éclos depuis la mi-2024, où des vidéos des attaques et des cartes des zones prioritaires pour l’armée russe étaient diffusées, l’ONG souligne que ces éléments ne peuvent être considérés comme des alertes suffisantes pour la population civile.
Et ce d’autant moins que, selon les 59 personnes interrogées pour ce rapport, les attaques contre les commerces ont forcé beaucoup de professionnels à fuir les quartier d’Antonivka et Dniprovskyi, les plus visés de la ville de Kherson. Leurs habitants se retrouvent donc forcés à parcourir de plus longues distance dans ces zones dangereuses pour trouver de quoi s’approvisionner en nourriture, produits médicaux, ou simplement pour trouver secours.
Les attaques ont par ailleurs tellement visé les réseaux de bus que ceux-ci ne traversent plus le quartier d’Antonivka depuis octobre.
Difficile protection
Les drones ont pris une réelle importance dans le conflit entre la Russie et l’Ukraine. Fin mai, Mediapart relatait comment des volontaires issus de groupes anarchistes, écoféministes ou punks (a priori pacifistes) participaient à l’effort national de défense en construisant notamment des drones pour l’armée ukrainienne. Le matériel nécessaire avait été commandé en ligne.
Ce 1er juin, l’Ukraine a frappé le territoire russe très en profondeur grâce à une flotte de petits drones. Le pays a revendiqué une attaque réussie sur 41 bombardiers lourds russes, ce qui représenterait le tiers de la flotte de ce type de bombardiers si les chiffres se confirmaient, selon Libération.
Mais la situation de Kherson, occupée pendant huit mois lorsque la Russie a envahi l’Ukraine, est spécifique : l’ONU évoque des attaques au caractère « généralisé et systématique », des « crimes contre l’humanité » commis pour « semer la terreur au sein de la population civile ».
Pour tenter de faire face, la ville s’est dotée de blocs grillagés remplis de sable, et l’administration militaire voudrait déployer des filets sur une centaine de kilomètres de rues. Un projet complexe à mettre en œuvre, sous la menace incessante de nouvelles attaques.
Les sous-sols aussi sont investis, raconte Le Temps. La maternité de Kherson a ainsi transformé 1 000 mètres carré d’abri soviétique en service souterrain doté de bloc opératoire et de couveuse. Quant à la population qui reste dans la ville, elle s’équipe quelquefois de détecteurs l’informant de la présence de drones et de leur distance.
Les gouvernements devraient recourir aux données collectées par les satellites pour vérifier l’exactitude des données fournies par les sociétés privées en matière d’émission de gaz à effet de serre, estime une équipe de chercheuses et chercheurs du King’s College de Londres.
Si les entreprises – y compris celles de l’industrie technologique – ont pris l’habitude ces dernières années de diffuser des données relatives à leurs émissions, les scientifiques constatent que la majorité a diffusé des chiffres plus faibles que dans la réalité. En septembre 2024, the Guardian relevait par exemple que les émissions des data centers étaient probablement 662 % plus élevées que ce qu’affirmaient leurs opérateurs.
Photo de Louis Reed sur Unsplash
L’équipe du King’s College a comparé les informations publiées par 279 sociétés privées et celles effectivement constatées en recourant à Climate Trace, un projet en accès libre qui utilise les données de plus de 300 satellites et de milliers de capteurs pour estimer les émissions de dioxyde de carbone et de méthane de sites individuels.
75 entreprises, en particulier des entités états-uniennes actives dans les domaines du gaz et du pétrole, rapportent des chiffres équivalents au tiers de leurs émissions relevées grâce à Climate Trace – sachant que l’initiative elle-même pourrait ne pas rendre compte de l’intégralité des émissions produites.
Des résultats proches de ceux constatés par une équipe de Stanford, qui relevait des émissions de méthane trois fois supérieures sur les sites pétroliers et gaziers à ceux estimés par le gouvernement des États-Unis.
Le méthane est particulièrement suivi dans la mesure où, sur une période de vingt ans, son effet de réchauffement est 80 fois supérieur à celui du dioxyde de carbone, souligne le Financial Times.
Et si les technologies actuelles permettent de détecter les niveaux de méthane dans l’atmosphère, elles manquent de précision pour le dioxyde de carbone.
C’est la raison pour laquelle l’équipe de scientifiques, menée par Marc Lepere, enjoint les régulateurs à s’inspirer d’initiatives comme Climate Trace, qui utilisent d’autres indicateurs, dont la chaleur émise par une usine, pour estimer les émissions de dioxyde de carbone. En la matière, les données collectées par les satellites seraient à même de fournir des estimations plus précises que celles actuellement proposées par les entreprises elles-mêmes.
Si le gouvernement des États-Unis est en train de réduire toute obligation de diffusion des émissions de gaz à effet de serre dans le secteur privé, la Commission européenne étudie de son côté des manières d’améliorer les processus de reporting environnementaux des entreprises.
Microsoft avait déjà proposé une série d’améliorations pour son système d’exploitation afin de répondre aux exigences du DMA en Europe. Mais là où Apple freine des quatre fers, Microsoft joue la carte de l’élève modèle. L’entreprise vient même d’annoncer une nouvelle série de modifications, notamment pour son navigateur Edge.
En mars 2024, Microsoft avait présenté des changements dans Windows pour se mettre en conformité avec le DMA. Windows ayant été nommé contrôleur d’accès, il fallait en effet respecter les règles permettant une libre concurrence. Ce qui revenait à modifier certains comportements pour se montrer plus souple sur divers points.
Ces mesures comprenaient par exemple la possibilité de désinstaller le navigateur Edge et OneDrive, la capacité d’intégrer d’autres services de recherche au sein du système, l’ouverture à d’autres sources d’actualité pour les widgets, l’absence de connexion automatique aux autres services Microsoft lorsqu’on lie le compte à la session Windows, des demandes de consentement plus claires sur l’utilisation des données ou encore des modifications pour LinkedIn.
Navigateur par défaut : des changements plus simples
Windows 10 et 11 ont fait pester les éditeurs tiers de navigateurs. Le système mis en place pour modifier l’application par défaut est moins évident que dans les versions précédentes du système. Les étapes sont plus nombreuses et le changement doit être fait plusieurs fois selon les types de fichiers souhaités. La manipulation n’est donc pas simple pour les personnes ayant peu de connaissances informatiques.
Dans son billet, Microsoft indique que le bouton « Définir par défaut » associe actuellement http, https, .htm et .html avec le navigateur. Dans une future mise à jour de Windows, les liens ftp et read seront ajoutés, de même que les fichiers .mht, .mhtml, .shtml, .svg, .xht, .xhtml et .xml par défaut.
En outre, le même bouton provoquera l’épinglage du navigateur dans la barre des tâches et dans le menu Démarrer, à moins que l’utilisateur refuse ce comportement par une case à cocher. Enfin, un bouton séparé permettra de déclarer le navigateur par défaut comme visionneuse PDF, si l’application possède cette capacité.
Ces changements sont déjà présents dans la dernière bêta de Windows 11. Ils seront déployés dans les versions finales de Windows 10 et 11 le mois prochain.
Edge se fait plus discret
Autre changement, l’utilisation de Bing dans Windows Search ouvre désormais les liens des résultats dans le navigateur par défaut, et non dans Edge. Cette modification, assez attendue, est en cours de déploiement. Et comme on s’en doute, ce même changement s’applique aux widgets et aux éléments affichés sur l’écran verrouillé. Il s’agissait de l’un des plus gros reproches faits à Microsoft après les premiers changements annoncés pour le DMA.
Autre comportement pénible corrigé : Edge ne demandera plus sans arrêt à redevenir le navigateur par défaut. Ce changement est en fait déjà effectif. Il a été déployé le 29 mai dans la version 137.0.3296.52. Seule l’ouverture directe d’Edge affichera la question, comme pour les autres navigateurs.
Conséquence, les autres applications Microsoft ne demanderont plus qu’Edge soit réinstallé ou à nouveau utilisé comme navigateur par défaut. Selon l’éditeur, la plupart des applications ont déjà été modifiées en ce sens, les dernières devant être mises à jour avant la fin du mois. Seule exception, les applications web (PWA) présentes sur le Microsoft Store et bâties pour utiliser Edge.
Le Microsoft Store peut être supprimé
Enfin, le Microsoft Store pourra lui aussi être désinstallé. Cette modification sera répercutée « dans le courant de l’année », sans plus de précisions pour l’instant.
Rappelons que la quasi-totalité des applications intégrées de Windows 11 peuvent être désinstallées. Même si on aimerait que l’installation du système ait un mode minimal, la suppression des applications est simple. On peut le faire depuis les Paramètres, mais un clic droit sur une application dans le menu Démarrer suffit.
À l’instar de ses homologues et concurrents dans le domaine de la musique ou de la vidéo en ligne, Spotify révise régulièrement ses tarifs à la hausse. Après des augmentations survenues en 2023 et en 2024, le service a une nouvelle fois mis à jour sa politique tarifaire.
Le forfait Personnel, limité à un utilisateur, est désormais facturé 12,14 euros par mois (contre 11,12 euros précédemment, soit + 9,17 %). La formule Étudiants passe quant à elle de 6,06 à 7,07 euros par mois.
Le forfait Duo (deux comptes Premium logés à la même adresse) voit son prix passer de 15,17 à 17,20 euros. Enfin, la formule Famille (jusqu’à 6 comptes Premium ou Spotify Kids) enregistre une hausse significative (+ 16,64 %). Celle-ci amène son tarif au-delà de la barre symbolique des 20 euros, à 21,24 euros par mois.
« Alors que nous continuons à développer notre plateforme, nous mettons à jour nos prix, afin de pouvoir continuer à innover dans des conditions de marché changeantes. Grâce à ces mises à jour, nous apporterons toujours de la valeur aux fans », justifie de façon générique le service.
La nouvelle grille tarifaire de Spotify est entrée en vigueur début juin 2025
S’il n’a pas communiqué spécifiquement sur cette hausse de prix appliquée aux clients français, Spotify a récemment livré quelques chiffres censés illustrer sa contribution à l’économie de la création musicale en Europe.
Le service, qui annonce avoir franchi la barre des 100 millions d’abonnés payants sur le Vieux continent, affirme que les artistes européens référencés sur sa plateforme ont enregistré, par son intermédiaire, quelque 352 milliards d’écoutes de la part d’internautes européens en 2024. Plus de 17 000 de ces artistes européens auraient ainsi généré des revenus supérieurs à 10 000 euros sur l’année, et ils seraient plus de 27 000 à avoir dégagé au moins 5 000 euros grâce à ces écoutes.
« Près de 44 % de toutes les redevances générées dans l’UE proviennent d’artistes européens, soit le pourcentage le plus élevé depuis que nous avons commencé le suivi en 2017. Et, étape majeure pour la diversité linguistique, 57 % des redevances ont été versées à des artistes se produisant dans des langues autres que l’anglais », revendique Spotify, dont la politique de redistribution fait néanmoins l’objet de critiques accentuées par l’essor de l’IA générative.
Vincent Strubel, directeur général de l’ANSSI, était auditionné la semaine dernière par une Commission d’enquête du Sénat sur « les coûts et les modalités effectifs de la commande publique et la mesure de leur effet d’entraînement sur l’économie française ».
C’était surtout l’occasion de parler cybersécurité, qualification SecNumCloud et souveraineté. Voici ce qu’il faut retenir de cette audition d’un peu plus d’une heure, riche en enseignements.
SecNumCloud est « un ensemble cohérent et indissociable »
Il reste 93% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.