Vue lecture

☕️ Revente de données volées : un jeune de 19 ans incarcéré de retour de Thaïlande



ZDNet a appris du parquet de Paris qu’un jeune homme de 19 ans, de retour de vacances en Thaïlande, a été mis en examen et placé en détention provisoire ce jeudi 14 mai.

Il est soupçonné d’être le créateur de « C3N Backup », un portail qui usurpait le nom et le logo du Centre de lutte contre les criminalités numériques (C3N) de la gendarmerie.

capture d’écran du portail « Identité numérique C3N » – archive.org

Le site proposait d’accéder à des informations d’identification à partir de différents critères : identité, téléphone, adresse e-mail ou plaque d’immatriculation.

Le parquet de Paris explique qu’il s’agissait d’un site de « lookup », du nom des services illégaux agrégeant des bases de données illicites à des fins malveillantes. Il permettait en outre d’obtenir des identifiants bancaires, données médicales ou liées à la détention d’armes à feu.

  •  

☕️ Le Royaume-Uni ouvre une enquête sur la position dominante de Microsoft



L’Autorité de la concurrence et des marchés britannique (Competition and Markets Authority, CMA) a déclaré que son enquête viserait à déterminer si le regroupement de Windows, Word, Excel, Teams, Copilot et d’autres produits constituait une pratique anticoncurrentielle tels que les licences cloud, rapporte l’agence Reuters.

L’enquête britannique examinera également comment les concurrents dans le domaine de l’IA ont pu s’intégrer aux logiciels professionnels de Microsoft, a déclaré la CMA. Dans son communiqué, elle indique vouloir recueillir l’avis des entreprises, y compris des start-ups technologiques, des clients et des concurrents, afin de déterminer si leurs choix sont susceptibles d’être limités, « notamment en raison de la vente liée, du manque d’interopérabilité et des paramètres par défaut » :

« Des centaines de milliers d’entreprises et d’organismes du secteur public britanniques utilisent quotidiennement les logiciels professionnels de Microsoft (tels que Windows, Word, Excel, Teams et, de plus en plus, Copilot), avec plus de 15 millions d’utilisateurs professionnels à l’échelle de son écosystème. L’écosystème de Microsoft joue donc un rôle important pour la productivité de l’économie britannique. »

Flock

Un porte-parole de Microsoft a déclaré que l’entreprise américaine était « déterminée à collaborer rapidement et de manière constructive avec la CMA afin de faciliter son examen du marché des logiciels d’entreprise ».

Reuters rappelle que Microsoft fait déjà l’objet d’enquêtes antitrust à l’échelle mondiale, notamment au sein de l’Union européenne et aux États-Unis, portant sur ses logiciels d’entreprise, ses activités de cloud computing et ses partenariats dans le domaine de l’intelligence artificielle.

  •  

Les contenus générés par IA devront être tatoués, sauf s’ils sont vérifiés par un humain

It's not a bug, it's AI feature
Les contenus générés par IA devront être tatoués, sauf s’ils sont vérifiés par un humain

L’article 50 de l’AI Act oblige les fournisseurs et exploitants de contenus (textes, images, sons, vidéos) synthétiques générés par IA à les marquer comme tels, de façon indélébile et « de manière claire et identifiable » au premier coup d’œil, afin de lutter contre la désinformation. Dans une consultation, ouverte jusqu’au 3 juin, la Commission européenne propose cela dit que les contenus générés par IA ayant « fait l’objet d’une vérification humaine ou d’un contrôle éditorial » soient exemptés de cette obligation de transparence.

La Commission européenne vient de lancer une consultation sur son projet de lignes directrices concernant les obligations en matière de transparence du règlement sur l’IA (AI Act), ouverte jusqu’au 3 juin.

Entré en vigueur en août 2024, un certain nombre de ses modalités ne sont pas, en effet, encore appliquées, et restent à négocier, comme nous le rappelons dans notre dossier à ce sujet.

« Nous souhaitons réduire les risques d’usurpation d’identité et de tromperie », résume sur LinkedIn Lucilla Sioli, directrice du bureau IA de la direction générale des réseaux de communication, du contenu et des technologies (DG Connect) de la Commission :

« Le projet de lignes directrices clarifiera la portée des obligations de transparence prévues à l’article 50 de la loi sur l’IA et sera complété par un code de bonnes pratiques. Ce code est rédigé par des experts indépendants et devrait être finalisé début juin. »

L’objectif est de permettre aux personnes physiques de distinguer les contenus (audio et donc aussi musicaux, images, textes et vidéos, y compris en réalité virtuelle ou « augmentée ») générés ou modifiés par IA (y compris agentique) des autres contenus (« par exemple, ceux créés par des humains ») et d’en vérifier l’origine.

Sont également concernés les contenus mixés avec du contenu généré par des humains, les jumeaux numériques, les contenus générés par IA (GenAI) « tels que ceux qui génèrent ou manipulent des images médicales ou qui produisent des évaluations des résultats d’apprentissage aboutissant à des décisions ou des recommandations sous forme de texte », ainsi que les systèmes d’IA agentique interagissant avec des environnements physiques ou virtuels, « pour autant qu’ils génèrent des contenus audio, visuels, vidéo ou textuels synthétiques ».

Les fournisseurs et déployeurs d’IA devront dès lors informer les utilisateurs lorsqu’ils interagissent avec des « systèmes interactifs synthétiques » ou consultent des contenus générés ou manipulés par l’IA, « à moins que cette utilisation ne soit liée à une activité purement personnelle et non professionnelle ».

L’interprétation de cette exception exclut cela dit explicitement les personnes qui agiraient à des fins criminelles, ainsi que les deepfakes et contenus « politiques » générés par IA afin d’ « influencer le débat public sur des questions d’intérêt général » :

« Cette exclusion ne devrait donc pas s’étendre aux activités criminelles, car celles-ci ne peuvent être considérées comme purement personnelles, même si aucun avantage économique n’est recherché ou obtenu. De même, un « deepfake » généré par l’IA ou manipulé, rendu public par une personne et susceptible d’influencer le débat public sur des questions d’intérêt général (par exemple en raison de son contenu politique ou économique), ne devrait pas non plus être considéré comme une activité purement personnelle et non professionnelle. »

Un individu recourant à l’IA pour faire des deepfakes des membres de sa famille pour en faire des cartes de vœux à Noël qu’il envoie à ses proches ne serait dès lors pas concerné. A contrario, les deepfakes générés pour critiquer publiquement des décisions de responsables politiques devront être labellisés comme synthétiques et/ou générés par IA.

Dans les deux cas, le générateur de contenu IA devra de toute façon les avoir tatoués de façon à ce que les détecteurs automatisés de contenus générés par IA puissent les identifier comme tels.

L’AI Act valide in fine l’extension GenAI que Next a développé

Cette obligation de transparence vise, in fine, à lutter contre « les risques de désinformation et de manipulation à grande échelle, de fraude, d’usurpation d’identité et de tromperie des consommateurs », « contribuant ainsi à renforcer l’intégrité et la confiance dans l’écosystème de l’information ».

Les contenus devront ainsi être tatoués au moment de leur création, de façon « indélébile », nous explique Patrick Bas, afin de pouvoir être identifiables comme étant synthétiques, quand bien même leurs métadonnées auraient été altérées. Directeur de recherche et une des deux médailles d’argent du CNRS 2026, ce spécialiste des tatouages numériques invisibles fait partie des quelques chercheurs français membres des deux groupes de travail ayant contribué à la rédaction du document.

Il évoque les deux principales techniques qui devraient coexister : la signature numérique dans les métadonnées (mais qui peuvent être effacées, altérées ou modifiées) et le watermarking/filigrane, qu’il qualifie donc de « tatouage », quand bien même il serait « invisible », parce qu’il ne peut pas être enlevé, même via une capture d’écran ou si le contenu est imprimé puis rescanné.

Les éditeurs et exploitants devront de leur côté informer les utilisateurs lorsqu’ils sont exposés à des deepfakes, ainsi qu’à des publications générées par l’IA « portant sur des questions d’intérêt public », sous réserve de quelques exceptions.

Le considérant 14 du document valide par ailleurs l’extension GenAI que Next a développée afin d’alerter ses utilisateurs lorsqu’ils consultent un des 13 500 sites d’infos dont les articles, d’après nos constatations, sont « en tout ou partie générés par IA » :

« Étant donné que la préservation de la confiance et de l’intégrité de l’écosystème de l’information relève d’une responsabilité partagée, les autres acteurs, agissant dans le cadre de leurs activités professionnelles et diffusant des contenus tout au long de la chaîne de valeur (même s’ils ne sont pas directement concernés par l’article 50 de la loi sur l’IA), sont également encouragés à prendre les mesures appropriées afin que les personnes physiques exposées à ces contenus soient effectivement informées de leur origine artificielle ou manipulée. »

Le message d’alerte que l’extension GenAI de Next affiche sur les sites GenAI

Des contenus tatoués « dans un format lisible par une machine »


Il reste 65% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Le Sovereign Tech Fund allemand investit plus d’un million d’euros dans KDE



Le Sovereign Tech Fund allemand investit près de 1,3 million d’euros dans le développement des logiciels KDE. Cet investissement « servira à renforcer la fiabilité et la sécurité structurelles de l’infrastructure centrale de KDE, notamment Plasma, KDE Linux et les frameworks qui sous-tendent ses services de communication », précise son communiqué :

« KDE mettra à profit l’investissement du Sovereign Tech Fund pour faire passer ses logiciels essentiels à un niveau supérieur, offrant ainsi à chaque individu, entreprise et administration publique la possibilité de retrouver sa vie privée, sa sécurité et le contrôle de sa souveraineté numérique. »

Illustration : Flock

Filiale de SPRIND, l’Agence fédérale pour l’innovation disruptive du ministère fédéral allemand de la Transformation numérique et de la Modernisation de l’administration, la Sovereign Tech Agency avait déjà investi 1M€ en 2023 pour moderniser la plateforme, améliorer les outils et l’accessibilité, et prendre en charge des fonctionnalités d’intérêt public de GNOME.

Depuis 2022, le Sovereign Tech Fund a investi plus de 37M€ dans 108 technologies. La liste de ses investissements en cours montre qu’elle a aussi investi dans Samba, FFmpeg, FreeBSD, OpenStreetMap, Arch Linux, systemd, PHP, Drupal, Reproducible Builds, ActivityPub, Let’s Encrypt, Mastodon, ainsi que dans les fondations Rust, OpenSSL, Python et Trifecta. Elle avait aussi préalablement investi dans systemd, Wireguard, OpenPGP, curl, coreutils, Fortran, GStreamer, ou encore Log4j.

  •  

LinkedIn et Cisco annoncent, eux aussi, le licenciement de 5 % de leurs employés

Business as usual
LinkedIn et Cisco annoncent, eux aussi, le licenciement de 5 % de leurs employés

Les entreprises de la tech’ états-uniennes ont d’ores et déjà licencié plus de 100 000 employés depuis le début de l’année. Cisco, qui avait déjà licencié 5 % de ses effectifs en 2025 et 7 % en 2024, vient par ailleurs d’annoncer un chiffre d’affaires record, et son action explose en Bourse, comme en l’an 2000.

LinkedIn prévoit de licencier environ 5 % de ses 17 500 employés, d’après deux sources qui, sous couvert d’anonymat, se sont confiées à Reuters.

Ces licenciements ne seraient pas imputables à des remplacements du fait de l’IA, mais s’inscriraient dans le cadre d’une réorientation des effectifs vers les secteurs où son activité est en pleine croissance.

Reuters relève que les documents financiers déposés par Microsoft montrent que le chiffre d’affaires de LinkedIn a augmenté de 12 % au cours du dernier trimestre par rapport à l’année précédente.

Une note interne envoyée à ses employés par le PDG Daniel Shapero et consultée par Business Insider précise que l’entreprise va également « réduire ses investissements » dans des domaines tels que les campagnes marketing, les dépenses liées aux fournisseurs, les événements destinés aux clients et les locaux sous-utilisés.

Cisco avait déjà licencié 5 % de ses effectifs en 2025, et 7 % en 2024

Cisco, de son côté, a coup sur coup annoncé un chiffre d’affaires record de 15,8 milliards de dollars au troisième trimestre fiscal 2026, en croissance de 12 % par rapport à l’an passé, ainsi que le licenciement de 4 000 employés, soit un peu moins de 5 % de ses 86 000 effectifs, relève Ars Technica.

À l’instar des nombreux autres licenciements survenus récemment dans les entreprises technologiques, ces suppressions d’emplois sont attribuées à l’essor de l’IA. Chuck Robbins, le CEO de Cisco, prévoit de transformer ces licenciements en investissements dans « les semi-conducteurs, l’optique, la sécurité et l’utilisation de l’IA par nos employés à tous les niveaux de l’entreprise ».

Dans son rapport financier publié mercredi, Cisco a indiqué avoir réalisé un chiffre d’affaires de 5,3 milliards de dollars dans le domaine des infrastructures d’IA destinées aux hyperscalers depuis le début de l’exercice fiscal.

L’entreprise table désormais sur des commandes atteignant 9 milliards de dollars pour l’exercice fiscal, contre 5 milliards initialement prévus, et sur un chiffre d’affaires de 4 milliards de dollars au lieu des 3 milliards initialement annoncés.

Cette vague de licenciements fait suite au licenciement de 4 245 employés, soit 5 % des effectifs de l’époque, en février 2024, et d’environ 6 000 personnes, soit environ 7 % des effectifs, en août 2024 relève Ars Technica. Cisco avait également justifié ces derniers licenciements par la nécessité de se restructurer autour de l’IA et de la sécurité, comme l’avait rapporté The Register à l’époque.

L’action de Cisco bondit de 15 % suite à l’annonce des licenciements

Le cours en bourse de son action CSCO au Nasdaq, qui était de +- 50 dollars depuis 2018, mais qui avait retrouvé en février son record de 80 dollars datant de la bulle Internet de l’an 2000, et qui venait tout juste de franchir le cap des 100 dollars, a bondi de 15 % suite à ces deux annonces, soit + 80 % en un an, relève CNBC :

« Alors que Cisco est resté à la traîne par rapport à bon nombre de ses concurrents du secteur des centres de données dans la course à l’IA, Wall Street s’est récemment rallié au parcours de l’entreprise, propulsant le titre à un niveau record à la fin de l’année dernière, dépassant enfin son plus haut niveau atteint lors de la bulle Internet. Les actions ont poursuivi leur ascension cette année, enregistrant une hausse de 33 %, surpassant ainsi la progression de 14 % du Nasdaq. »

Évolution du cours de l’action Cisco sur 1 an, 5 ans et depuis son introduction au Nasdaq

Plus de 100 000 licenciements depuis le début de l’année

D’après layoffs.fyi, 137 entreprises de la Tech’ ont d’ores et déjà licencié près de 109 000 employés cette année. Plus de 80 000 l’ont été au premier trimestre, un chiffre que l’on n’avait pas vu depuis 2022. En comparaison, le site avait enregistré 124 000 licenciements en 2025, 152 000 en 2024, 264 000 en 2023 et 165 000 en 2022.

Le nombre de licenciements dans la tech’ a explosé au premier trimestre 2026

Trueup.io, qui dénombre pour sa part 137 000 licenciements dans la tech’ depuis le début de l’année, contre un peu plus de 240 000 en 2023 et 2024, estime qu’à ce rythme il pourrait y en avoir quelques 370 000 d’ici la fin de l’année.

Nombre de licenciements dans la tech’ d’après trueup.io

Yahoo!Tech note cela dit que trueup.io n’en a dénombré que 18 000 en avril, contre près de 50 000 en mars, les plans les plus importants ayant affecté Epic Games (plus de 1000 employés), Oracle (plusieurs milliers), Vimeo (25 % des effectifs), Disney (1000), Marvel (8 %), Snap (16 %), Amazon (600), Microsoft (7 %), Meta (10 %), Coinbase (700), Paypal (20 %) et Cloudflare (1 100).

Le record semble cela dit atteint par Jack Dorsey, qui a annoncé le licenciement de 4 000 employés de Block, soit plus 40 % de ses effectifs, afin de réorganiser son groupe autour d’équipes plus réduites assistées par des outils d’intelligence artificielle.

  •  

Mistral prépare son IA chasseuse de failles, Microsoft déploie déjà son armée d’agents


Mistral prépare son IA chasseuse de failles, Microsoft déploie déjà son armée d’agents

Qui n’a pas son arsenal IA pour la cybersécurité ? Après Anthropic et Mythos, après OpenAI et Daybreak, Microsoft a dévoilé sa solution. Et Mistral, le petit Poucet français, planche également sur un modèle capable de détecter les failles à grande échelle.

Mistral AI travaille au déploiement d’un modèle IA auprès de banques européennes pour détecter les failles de sécurité dans le code de leurs infrastructures informatiques, selon une indiscrétion de Bloomberg. Impossible de dire quand ce modèle sera lancé à l’assaut des vulnérabilités, ni depuis quand ces discussions ont débuté avec les établissements.

« Imagine-t-on les bases de données de l’armée française scannées par Mythos ? »

Mais ce qui est certain, c’est que Mistral n’a pas attendu la présentation de Mythos début avril pour s’atteler à cette problématique de la cybersécurité. La startup travaillait déjà avec ses clients du secteur bancaire pour découvrir des vulnérabilités dans le code de leurs logiciels avant les premiers pas du modèle d’Anthropic, selon nos confrères. Désormais, il s’agit de développer une version « clé en main » pour un déploiement plus large.

« On a un de nos concurrents qui sait très bien faire du marketing de la peur », a témoigné (sans citer le nom d’Anthropic) Arthur Mensch, le directeur général de Mistral, devant la commission d’enquête sur les vulnérabilités numériques à l’Assemblée nationale cette semaine. « On travaille avec nos clients pour les aider sur ces sujets cyber », ajoute-t-il. Pour lui, il s’agit d’un sujet régalien « et un argument supplémentaire pour dire qu’il faut avoir un contrôle sur cette technologie » :

« Vous ne pouvez pas avoir les bases de données et le code de l’armée française scannés par Mythos. Ça crée une dépendance tellement irrémédiable qu’il faut absolument trouver des solutions. »

Il aurait pu ajouter : des solutions souveraines, car c’est bien sûr ce que l’on comprend en creux. Mythos n’est actuellement disponible que dans un format d’aperçu et distribué au compte-gouttes auprès d’organisations et d’entreprises majoritairement américaines. Et l’Europe n’a toujours pas reçu sa carte du club.

Une armée d’agents de cybersécurité chez Microsoft

Après Mythos et l’initiative Daybreak d’OpenAI, et avant celle de Mistral, Microsoft a levé le voile sur son nouveau système de sécurité agentique multi-modèles. L’éditeur ne se contente pas d’un seul modèle : plusieurs sont à l’œuvre et ils sont secondés par une armée de plus de cent agents spécialisés à l’assaut du code.

MDASH, pour « Microsoft Security multi-model agentic scanning harness », a déjà mis la main sur 16 vulnérabilités dans la pile d’authentification et l’infra réseau de Windows, dont 4 failles critiques permettant d’exécuter du code à distance. « L’implication stratégique est claire : la découverte de vulnérabilités par IA est passée du stade de curiosité de laboratoire à celui d’outil de défense déployable à grande échelle en entreprise », explique l’éditeur, qui vante « l’avantage durable » de son système agentique.

Image : Microsoft

Le système repose sur trois éléments : un ensemble de modèles IA complémentaires pilotés par MDASH, dont plusieurs modèles spécialisés qui se confrontent pour repérer les vulnérabilités ; la centaine d’agents dédiés à des tâches spécifiques (détection, vérification, exploitation potentielle d’un bug) ; et enfin une chaîne d’analyse qu’il est possible d’étendre avec des plugins.

Sur le benchmark CyberGym, qui regroupe plus de 1 500 tâches reproduisant des vulnérabilités réelles issues de projets open source, MDASH atteint un taux de réussite de 88,45 %. C’est le meilleur score publié à ce jour, et environ 5 points de plus que Claude Mythos Preview, et 6 de plus que GPT-5.5, ses concurrents les plus proches.

Les résultats du benchmark CyberGym

Microsoft souligne que ce résultat a été obtenu avec des modèles IA déjà disponibles publiquement, ce qui laisse entendre que les performances viennent surtout de l’orchestration « agentique » autour des modèles plutôt que des modèles eux-mêmes.

Les agents MDASH sont utilisés par les équipes d’ingénierie sécurité de Microsoft, et testés par un groupe de clients dans le cadre d’un aperçu privé. Il est possible de demander un accès à l’aperçu.

  •  

Netflix n’a jamais autant aimé la publicité


Netflix n’a jamais autant aimé la publicité

Après avoir longtemps juré que la publicité n’aurait jamais sa place sur son service, Netflix vend toujours plus de temps de cerveau disponibles aux annonceurs. La pub va s’incruster encore davantage sur la plateforme.

Qu’il parait loin, le temps où Reed Hastings, l’ancien directeur de général de Netflix, déclarait que jamais sa plateforme ne diffuserait de publicité. C’était en 2015, et s’il a réaffirmé cette position très ferme pendant des années, la réclame a fini par apparaitre sur le service de streaming en 2022. À l’époque, Reed Hastings (qui a quitté son poste de co-CEO début 2023) admettait que sa résistance à la pub avait été une erreur.

Aujourd’hui, Netflix regarde la publicité avec les yeux de Chimène. Le lancement de l’offre avec publicité, proposée à 7,99 euros par mois en France (c’était 5,99 euros au début), a permis à la plateforme de relever fortement les prix des autres formules sans pub, jusqu’à 21,99 euros pour l’abonnement Premium. Une stratégie couronnée de succès : durant une présentation aux annonceurs, l’entreprise a révélé que les publicités diffusées sur ses antennes atteignaient plus de 250 millions de spectateurs actifs mensuels, soit 30 % qu’en plus novembre 2025 (190 millions).

Auparavant, Netflix basait ses mesures sur les profils de compte plutôt que sur le nombre de personnes vivant dans un foyer abonné à son service. Une partie de la hausse provient d’un changement dans la stratégie de décompte. L’entreprise a choisi de se focaliser l’année dernière sur les spectateurs actifs mensuels, autrement dit « les membres ayant regardé au moins une minute de publicité sur Netflix chaque mois, multiplié par le nombre moyen estimé de personnes au sein d’un foyer ».

La pub à plein régime

Plus de 80 % de ces paires d’yeux regardent activement Netflix chaque semaine. Ces abonnés ont permis à Netflix d’empocher 1,5 milliard de dollars en revenus publicitaires en 2025. « Si les deux dernières années ont consisté à prouver que nous étions un acteur durable, cette année doit montrer que nous sommes devenus un acteur redoutable », se réjouit la présidente en charge de la publicité, Amy Reinhard, dans une déclaration reprise par Variety.

Les vidéos verticales dans l’app Netflix.

Visiblement, la soupe est bonne. De nouveaux espaces vont s’ouvrir dans l’application du streameur : d’abord dans les vidéos verticales, un nouveau format récemment lancé qui permet de consulter des extraits des contenus Netflix. Entre deux petits bouts de Bridgerton ou Stranger Things, les abonnés auront donc droit à des spots de pub. Les podcasts, que la plateforme diffuse depuis la fin de l’année dernière, vont aussi être caviardés par de la publicité.

Malgré tout, Netflix doit toujours convaincre les annonceurs et rencontrerait toujours des difficultés à faire valoir son offre. Les marques préfèrent en effet acheter des espaces pendant des événements en direct, alors que la vaste majorité des programmes diffusés par Netflix peuvent être regardés n’importe quand. La plateforme multiplie donc les contenus en direct, mais l’offre n’est pas suffisante pour rivaliser avec les grands groupes audiovisuels comme Disney ou NBCUniversal qui captent une grande partie des budgets pub.

Netflix a également annoncé une expansion à partir de 2027 de son abonnement avec publicité à 15 nouveaux pays, dont la Belgique, la Suisse, l’Autriche, les Pays-Bas, l’Irlande, le Danemark, la Norvège ou encore la Suède.

  •  

Énergie : les datacenters prendront-ils la vague houlomotrice ?

J’vais pas surfer aujourd’hui… j’ai l’impression que l’océan ne me veut pas
Énergie : les datacenters prendront-ils la vague houlomotrice ?

La récente participation de Peter Thiel au tour de table de la startup spécialisée Panthalassa relance l’intérêt autour de l’énergie houlomotrice pour alimenter des datacenters. Si l’idée d’exploiter cette nouvelle énergie renouvelable se révèle particulièrement séduisante sur le papier, sa mise en oeuvre à grande échelle soulève encore de nombreuses questions.

Il fallait bien s’attaquer à l’océan pour essayer d’étancher la soif inextinguible des datacenters en électricité. Panthalassa, une entreprise basée à Portland (Oregon) et constituée en 2016 sous forme d’entreprise à but lucratif, mais à mission (statut dit Public Benefit Corporation), a annoncé le 4 mai dernier avoir réuni 140 millions de dollars pour tester, dès 2026, un « nœud » de calcul informatique « autonome et flottant » dédié à de l’inférence IA.

Panthalassa, qui revendique une équipe d’ingénieurs venus d’horizons très variés, s’enorgueillit du soutien financier d’investisseurs en vue. Cette série B (deuxième levée de fonds après l’amorçage) est en effet emmenée par Peter Thiel (Palantir, entre autres), avec la participation de nombreux fonds en vue dans la Valley. D’après le Financial Times, l’opération valoriserait l’entreprise aux alentours de 1 milliard de dollars.

Un « node » plongé dans l’eau et connecté par satellite

Panthalassa compte déjà deux prototypes à son actif, Ocean-1 et Ocean-2, qui selon ses dires lui ont permis de valider la viabilité technique et financière de son modèle. L’entreprise, qui revendique 120 employés, a imaginé un dispositif baptisé « node » (noeud), qui prend la forme d’un bouchon flotteur d’environ 65 mètres de long et surmonté par une sphère d’environ 50 mètres de diamètre.

Au gré des vagues, l’eau sort de la colonne en suivant un circuit qui lui permet de faire tourner une turbine, laquelle produit de l’électricité. La sphère située au sommet fait office de réservoir tampon, pour garantir que la turbine tourne en continu, quelle que soit la période de la houle. L’air qu’elle contient assure quant à lui la flottaison de l’ensemble.

Jusqu’ici, l’entreprise utilisait ses prototypes comme des barrages flottants, reliés à la terre. Avec son prochain prototype, baptisé Ocean-3, elle ambitionne un fonctionnement autonome : la structure serait équipée de puces dédiées à l’inférence IA, directement alimentées par l’énergie houlomotrice, et refroidies par l’océan. Le tout serait doté d’un système de propulsion autonome (pour compenser la dérive liée aux courants) et d’une connexion satellite pour la transmission des données nécessaires aux calculs.

Une énergie à l’intermittence limitée

Outre son caractère encore inexploité, le principal intérêt de la houle serait son caractère peu intermittent. Garth Sheldon-Coulson, cofondateur, explique sur le site de l’un de ses investisseurs viser une production sensible 90 % du temps, contre 30 ou 40 % pour l’éolien et 25 % pour le photovoltaïque.

La mécanique mise en œuvre serait en outre relativement simple (similaire à une centrale à gaz pour ce qui est des matériaux et des coûts de fabrication). De ce fait, l’entreprise affirme pouvoir envisager un coût de production de l’ordre de 0,02 dollar du kWh, soit 20 dollars du MWh.

Panthalassa revendique de ce fait une énergie plus abordable que l’ensemble des sources de production courante, à commencer par les renouvelables. Le baromètre LCOE (Levelized cost of energy) de Lazard, qui fait partie des indicateurs courants dans le monde de l’investissement, confirme le principe général, puisque l’éolien est affiché à 37 dollars du MWh, contre 38 dollars du MWh pour le photovoltaïque. La comparaison suppose toutefois que Panthalassa tienne sa promesse, sans même parler du stockage nécessaire pour pallier le reliquat d’absence de production.

Extrait de l’édition 2025 du rapport annuel de Lazard sur les coûts de l’énergie – capture d’écran

L’exploitation de tels systèmes autonomes en pleine mer (c’est-à-dire loin des côtes, indispensable pour bénéficier d’une houle quasi constante) soulève par ailleurs ses propres défis, dont la résolution risque de renchérir le coût de chaque unité de production, sans même parler des limites liées à l’exploitation en pleine mer de puces IA (latence, bande passante etc.). Bref, la partie n’est pas gagnée d’avance, ce qui n’empêche pas Panthalassa d’imaginer, déjà, parsemer les mers de ses nodes flottants.

« Pour un milliard de dollars environ, on peut construire une usine capable de produire un gigawatt de nœuds par an, expliquait Garth en juin 2025. La structure est d’une simplicité enfantine, et on peut produire ces unités en masse depuis une seule usine côtière, en fabriquant la même chose à l’infini, ce qui permet de réaliser des économies d’échelle considérables. »

Outre l’inférence, Panthalassa imagine également des débouchés dans la transformation d’énergie, notamment via la production d’hydrogène vert.

D’autres acteurs étudient la houle

Si les projecteurs médiatiques se braquent vers Panthalassa, qui surfe habilement sur la problématique des besoins en énergie associés à l’IA, l’entreprise n’est pas la seule à s’intéresser sérieusement à la houle. Le fonctionnement de son node n’est d’ailleurs pas radicalement différent des stations flottantes développées par la société suédoise CorPower Ocean, dont les financeurs ne viennent pas du monde de la tech, mais précisément de celui de l’énergie. L’entreprise a ainsi annoncé en juillet 2025 avoir sécurisé 118 millions d’euros auprès d’industriels du secteur, dont le français GTT (spécialisé dans le transport naval et le confinement de gaz naturel liquéfié).

Elle aussi s’attend à surfer pleinement sur la vague de l’énergie houlomotrice grâce à ses premiers prototypes déployés au large du Portugal, et de premiers engagements commerciaux passés au Royaume-Uni pour une unité test de 5 MW. Sur son site, l’entreprise estime le potentiel houlomoteur à quelque 1,8 TW d’énergie renouvelable.

Plus modestement, les Bordelais se souviennent peut-être d’avoir observé, il y a quelques années, une petite installation chargée de produire de l’électricité à partir du courant de la Garonne. Élaborée par l’entreprise Seaturns, elle aussi préfigurait des installations houlomotrices de plus forte puissance qui, là aussi, prennent le chemin de l’industrialisation.

Crédit Seaturns

En mars dernier, la société girondine a ainsi annoncé avoir remporté un appel à projets pilote porté par Maurice, qui va lui permettre de déployer un parc de 2 MW de générateurs alimentés par les vagues, en attendant un autre démonstrateur prévu à Bordeaux. Son dispositif adopte un fonctionnement différent, puisqu’il repose sur un cylindre horizontal ayant vocation, au moins pour l’instant, à être raccordé au réseau terrestre.

Au-delà de la simple production d’énergie, plusieurs acteurs de premier plan, aux États-Unis comme en Chine, rêvent d’immerger leurs datacenters, à défaut de les envoyer dans l’espace…

  •  

☕️ Meta promet des discussions « vraiment privées » avec son IA



Meta inaugure les discussions incognito avec son assistant IA. Les conversations resteront privées entre Meta AI et l’interlocuteur humain, et elles seront supprimées sans tarder.

Pour Instagram, discuter avec des humains ne mérite pas de protection renforcée : le chiffrement de bout en bout qui empêchait jusqu’à présent quiconque d’accéder à une conversation dans la messagerie de l’app a en effet été supprimé le 8 mai. La fonction était très peu utilisée, a affirmé l’entreprise (elle était aussi compliquée à utiliser).

En revanche, discuter avec une IA nécessite (probablement) un luxe de précautions diverses et variées. La nouvelle fonction Discussion Incognito de l’assistant Meta AI permet de discuter en toute confidentialité avec l’assistant dans WhatsApp, ainsi que dans son application dédiée. La conversation est traitée dans un « environnement sécurisé » basé sur la technologie maison de traitement privé des requêtes envoyées au bot, lancée l’an dernier.

À l’instar du chiffrement de bout en bout, cette technologie empêche quiconque d’espionner en douce une conversation avec l’assistant, pas même Meta qui publie un livre blanc sur le sujet. À cela s’ajoute la disparition des discussions quand la session est terminée. Par ailleurs, elles ne sont pas enregistrées sur les serveurs.

Image : Meta

Meta précise perfidement que si d’autres apps intègrent des fonctions proches de ce mode incognito, « les questions posées et les réponses envoyées leur restent visibles ». Le chat temporaire de ChatGPT conserve les conversations jusqu’à 30 jours, contre 72 heures chez Gemini. « Il s’agit du premier grand produit d’IA pour lequel aucune trace de vos conversations n’est stockée sur des serveurs », s’enorgueillit Mark Zuckerberg.

Les discussions avec les bots peuvent aller au-delà du trivial ou des requêtes pour le travail. Beaucoup d’utilisateurs posent des questions très personnelles sur la gestion de leurs finances ou la santé (à consommer avec modération, tout de même). Durant la présentation de ChatGPT Health, OpenAI avait ainsi expliqué que la santé était un des usages les plus courants de son bot. On comprend dès lors que personne ne veuille partager ces informations avec un tiers, à plus forte raison s’il s’agit d’une entreprise dont le modèle économique repose quasi exclusivement sur l’attention et le ciblage publicitaire.

  •  

Android : Google, RSF et Amnesty ajoutent une option pour tracer les logiciels espions

Un peu risqué, non ?
Android : Google, RSF et Amnesty ajoutent une option pour tracer les logiciels espions

Google vient d’annoncer plusieurs nouveautés concernant la protection des utilisateurs. En coopération avec les deux ONG Reporters Sans Frontières et Amnesty International, l’entreprise a notamment mis en place un système de logs (optionnel) permettant de tracer les activités suspectes qui pourraient être la marque de l’intrusion de logiciels espions comme Pegasus.

Une nouvelle fonctionnalité mise en place par Google dans Android s’appelle « Intrusion Logging » Celle-ci fait partie du Mode Protection Avancée (en anglais, Android Advanced Protection Mode, AAPM) du système d’exploitation qui vise à renforcer la sécurité des appareils Android pour les « utilisateurs à risque », à savoir les défenseurs des droits humains, les militants, les journalistes et les dissidents qui pourraient être visés par des logiciels espions comme Pegasus ou Predator. Pour l’instant ce mode n’est disponible que sur les Pixel sous Android 16 et supérieur.

Google explique avoir développé Intrusion Logging « en collaboration avec Amnesty International et Reporters sans frontières, entre autres ».

Comme le rappelle Amnesty International, le Mode Protection Avancée met en place des protections supplémentaires contre d’éventuelles attaques. Ces protections peuvent varier selon la version d’Android mais le mode permet par exemple un verrouillage automatique si le smartphone est déconnecté de tout réseau ou si l’appareil détecte des mouvements trop rapides suggérant son vol, ou le redémarrage s’il reste verrouillé pendant trois jours.

Si ce mode est activé, Google Play Protect l’est aussi et toute installation d’application via une source inconnue est bloquée, rendant le passage par Google Play obligatoire.

Le mode inclut aussi le blocage du transfert de données par USB non autorisé précédemment si l’écran est verrouillé. Ainsi, l’extraction de données par des logiciels est rendue encore plus difficile. « Cela sera bientôt disponible sur davantage d’appareils Android », assure Google.

Système de logging très bavard, chiffré et stocké sur Google cloud

Mais l’ajout de l’ « Intrusion Logging » à ce mode permet à l’utilisateur d’activer, s’il le veut, un mode de journalisation de l’activité de son smartphone et de vérifier qu’un logiciel espion n’utilise pas certaines fonctionnalités sans qu’il s’en aperçoive.

Ainsi, par exemple, l’utilisateur peut vérifier si le téléphone a été déverrouillé par quelqu’un d’autre, s’il y a eu des utilisations suspectes de l’Android Debug Bridge (ADB) ou trouver la localisation d’un éventuel spyware.

Intrusion Logging suit aussi certaines informations de connexion et de DNS pour trouver des traces de communication avec une infrastructure qui pourraient être le signe d’une attaque Command and Control (C2), explique Amnesty :

« Ces logs sont particulièrement utiles car de nombreuses attaques sophistiquées 1-click reposent sur des redirections vers des pages leurres, qui entraînent des visites imperceptibles sur des sites web malveillants. Même si l’utilisateur ne remarque pas la redirection, la requête DNS et la tentative de connexion seront tout de même enregistrées et pourront être comparées à des indicateurs de compromission (IOC) connus. »

L’ONG assure que les logs sont chiffrés « à l’aide d’une clé générée par l’utilisateur avant d’être archivés en toute sécurité dans le compte Google de ce dernier. L’utilisateur peut ensuite accéder à ces journaux et les déchiffrer, mais ni Google ni aucun tiers non autorisé ne peut le faire ». Amnesty précise que « Par défaut, les journaux sont collectés une fois par jour et stockés sous forme chiffrée dans le cloud ».

Des limites et des risques

Dans son annonce, Amnesty pointe elle-même certaines limites de ce système. Comme on l’a déjà dit, AAPM n’est pour l’instant disponible que sur les appareils Google Pixel sous Android 16 et supérieur.

Il faut aussi que l’utilisateur ait lié son smartphone à un compte Google. Ajoutons que, les logs étant téléchargés sur le cloud de Google, l’utilisateur doit avoir une confiance importante dans le système de chiffrement mis en place par l’entreprise, car ces logs comportent énormément d’informations sensibles.

Et bien évidemment, le système doit être activé « avant qu’une attaque ne se produise (ou toute situation à haut risque susceptible d’y conduire), les logs ne peuvent pas être récupérés a posteriori ».

Le responsable du Security Lab d’Amnesty, Donncha Ó Cearbhaill, explique aussi à Cyberscoop que, pour l’instant, il est possible que les logs soient supprimés par les attaquants mais il ajoute que des mesures de protection devraient être ajoutées dans les prochaines versions pour l’éviter.

  •  

[Rediff] #Flock : Chic, c’est l’Ascension !

un mini-récit raide de Flock pour Next
[Rediff] #Flock : Chic, c’est l’Ascension !

[ Article initialement publié le 11 mai 2024, mais toujours d’actualité ]
Hola, belle âme perdue qui est venue cliquer ici alors que tout pousse à faire autre chose que lire sur une quelconque dalle vitrée : Bienvenue !

Tu es ici pour t’élever, j’imagine. Tu as frappé à la bonne porte. Flock a philosophé devant les frugales colonnes de l’actualité des jours sans, il a même philosophé tellement fort qu’il est un peu claqué du bulbe. Du coup, il file au sofa jusqu’à la semaine prochaine.

Bon weekend à tous !

Cette chronique est financée grâce au soutien de nos abonnés. Vous pouvez retrouver comme toutes les précédentes publications de Flock dans nos colonnes.


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Avec l’hantavirus, les théories du complot sont de retour

Oops!... I dit it again
Avec l’hantavirus, les théories du complot sont de retour

Depuis l’identification d’un foyer d’hantavirus sur un navire de croisière, les théories du complot se multiplient sur les réseaux. Souvent promues par le même type d’acteurs ayant poussé des thèses farfelues à l’époque du Covid, elles en reprennent aussi de nombreux gimmicks.

Elles avaient donné du fil à retordre en pleine pandémie de Covid-19. Depuis la détection de cas d’hantavirus sur le navire de croisière MV Hondius, les théories du complot sont de retour, souvent poussées par des acteurs déjà adeptes de la désinformation au moment de la pandémie.

À l’heure actuelle, 27 Français « cas contact » ont été placés à l’isolement pour une durée qui s’étendra de 14 à 42 jours. La seule Française effectivement contaminée est hospitalisée à Paris, dans un état critique. S’il n’y a pas lieu de parler d’épidémie à l’heure actuelle, en ligne, les fausses informations se multiplient : le 12 mai, Radio France relevait que huit des dix publications les plus partagées sur Facebook sur l’hantavirus avaient été publiées par des mouvances complotistes ou anti-vaccin.

Un écho du Covid

Les thèses promues, elles, se font l’écho direct de celles déjà véhiculées au moment du Covid-19. Et d’une langue à l’autre, ne serait-ce que du français à l’anglais, ces théories sont aussi les mêmes, démonstration de la circulation rapide de ces éléments de désinformation.

Parmi les propos récurrents, on trouve par exemple l’idée selon laquelle l’hantavirus se serait échappé d’un laboratoire. Celle-ci résonne avec la théorie non démontrée selon laquelle le coronavirus serait issu d’un laboratoire de Wuhan, en Chine (à l’inverse, les scientifiques tendent à s’accorder sur le fait que le virus est plus probablement issu d’animaux vendus sur le marché Huanan, épicentre de la pandémie).

Autres thèses : celle selon laquelle l’épidémie d’hantavirus aurait été « planifiée » par les laboratoires pharmaceutiques. Sur X, des internautes brandissent la collaboration initiée en 2024 entre le laboratoire Moderna et le Centre d’innovation vaccinale de Corée du Sud sur l’hantavirus comme une preuve de cette préparation.

L’explication est en réalité plus simple : l’hantavirus cause chaque année 300 à 400 cas graves et une dizaine de morts en Corée du Sud. Les travaux de Moderna ont donc été lancés pour faire face à un phénomène déjà constaté : l’activité forte de la maladie, notée par l’Organisation mondiale de la Santé, sur ce territoire.

D’autres théories suggèrent que l’hantavirus soit un effet secondaire du vaccin de Pfizer (déjà visé à l’époque du Covid) ; qu’il soit le résultat d’un complot ourdi pour obliger la population à se vacciner ou se confiner ; qu’il ait été lâché dans la nature pour réduire la population globale, etc.

Même du côté des traitements, l’ivermectine est brandie ici et là comme médicament supposé contre l’hantavirus. Déjà largement citée à l’époque du Covid-19, l’ivermectine est en réalité recommandée pour traiter la gale et certains parasites intestinaux.

Dans certains cas, les thèses prennent des accents antisémites : dans la sphère anglophone comme francophone, des internautes affirment en effet qu’en hébreu, le terme « hanta » signifierait « scam » (ce qui n’est a priori pas le cas). De cette invention jusqu’à l’accusation du rôle d’Israël dans la fabrication du virus, il n’y a qu’un pas qu’une partie des internautes franchissent allègrement, notamment sur X.

Aux États-Unis, la perspective des élections de mi-mandat

Les figures qui font circuler ces fausses informations restent, elles aussi, les mêmes. Alex Jones, cofondateur du site Infowars et complotiste d’ampleur, pousse par exemple la thèse d’une « plandémie », c’est-à-dire d’une pandémie planifiée.

Marjorie Taylor Greene, ancienne soutien de Trump et députée, reprend du service pour faire circuler sur ses réseaux de nombreuses fausses informations. Même le républicain Ron DeSantis participe : il a relancé un ancien projet de loi qui, s’il était adopté, permettrait de distribuer de l’ivermectine sans ordonnance dans son État de Floride.

Plusieurs de ces personnalités états-uniennes tentent de tracer un lien entre ces cas d’hantavirus et les élections de mi-mandat, qui se tiendront en novembre prochain. Pour les complotistes – dont beaucoup ont soutenu l’idée que la réélection de Trump avait été « volée » en 2020 –, l’hantavirus est une manière d’interférer avec les élections à venir.

En France, de même, des personnalités déjà identifiées pour leur rôle de diffuseur de désinformation participent activement à la circulation de toutes ces théories qui ne reposent pas sur des faits. Ainsi du supposé « hyperdoctor » Idriss Aberkane, de l’ancien médecin et antivaccin assumé Louis Fouché, par ailleurs fondateur du site Reinfo Covid, ou encore du microbiologiste Didier Raoult, dont l’étude sur l’hydroxychloroquine comme potentiel traitement du Covid a finalement été rétractée. Florian Philippot, Nicolas Dupont-Aignan sont aussi au nombre des politiques qui participent à donner de la visibilité à ces fausses informations.

  •  

☕️ L’UE veut l’ouverture d’Android aux IA rivales : Apple vole au secours de Google



Google reçoit un coup de main d’Apple, pour éviter d’avoir à donner aux IA concurrentes un accès à Android. Fin avril, dans le cadre du règlement sur les marchés numériques (DMA), la Commission européenne envoyait au moteur de recherche ses « conclusions préliminaires » concernant le contrôle de certains fonctions du système d’exploitation par les assistants IA. Seul Gemini est aujourd’hui en mesure d’accéder aux profondeurs d’Android — une pratique qui s’est encore renforcée avec l’annonce de Gemini Intelligence.

Bruxelles a ouvert une consultation publique, qui s’est achevée aujourd’hui, mercredi 13 mai. Et Apple est venue au secours de Google, comme le rapporte Reuters. Les mesures proposées par l’exécutif européen « soulèvent des préoccupations urgentes et sérieuses ». La Commission veut en effet que les IA rivales bénéficient du même niveau d’accès que Gemini, ce qui leur permettrait d’envoyer des courriels, partager des photos ou lancer une action dans une app tierce.

Apple vs EU : le bras de fer
Illustration : Flock

C’est une mauvaise idée selon Apple, car cette ouverture créerait « des risques profonds pour la confidentialité, la sécurité et la sûreté des utilisateurs, ainsi que pour l’intégrité et les performances des appareils ». Ce coup de main n’a rien d’innocent : le constructeur de Cupertino pourrait en effet être obligé de faire de même sur iOS. 

Les risques posés par un accès total aux couches basses d’Android sont « particulièrement aigus dans le contexte de systèmes d’IA en évolution rapide » : leurs capacités, leurs comportements et les vecteurs de menace restent en effet « imprévisibles ». 

Cette intervention d’Apple ne manque pas de sel : une rumeur de Bloomberg indiquait que l’entreprise pourrait autoriser l’utilisation d’un autre modèle que ceux d’Apple Intelligence pour propulser les fonctions IA d’iOS 27… soit ce que demande la Commission. Mais bien sûr, si cela devait arriver, ce serait Apple qui dicterait ses conditions à la concurrence, pas un régulateur.

Le groupe s’interroge plus largement sur l’expertise technique de la Commission, qui voudrait « redesigner » un système d’exploitation. L’autorité européenne « substitue son propre jugement à celui des ingénieurs de Google sur la base de moins de trois mois de travail. C’est d’autant plus dangereux que la seule valeur qui semble guider ces projets de mesures est un accès ouvert et sans restriction. »

En octobre dernier, Apple portait plainte contre l’UE devant la Cour de justice (CJUE) au Luxembourg, sur le dossier du DMA.

  •  

Pour Digital Realty, les data centers français sont en situation de « rattrapage »

Concentration capitalistique maximale
Pour Digital Realty, les data centers français sont en situation de « rattrapage »

Auditionné par la Commission sur les dépendances structurelles dans le secteur numérique, le PDG de Digital Realty Fabrice Coquio a décrit un marché français des centres de données en situation de « rattrapage » sur ses concurrents européens et qualifié le développement de l’industrie d’essentiel à la souveraineté française.

« Je ne fais pas partie de ceux qui demandent des changements, des allègements, des dérogations. » Auditionné dans le cadre de la Commission d’enquête parlementaire « sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France », le PDG de Digital Realty France Fabrice Coquio a notamment évoqué les divers projets de simplification réglementaire, au niveau français et européen, qui pourraient notamment alléger certaines obligations environnementales des opérateurs de centres de données.

Pour l’entrepreneur, qui rappelle avoir cofondé Interxion en 1999 et n’avoir cessé de travailler depuis dans l’industrie, « les régulations européennes vont dans le bon sens » sur les questions environnementales. « Je pense que ces enjeux sont fondamentaux. S’il faut de la simplification, c’est sur les questions administratives » notamment sur l’obtention des permis, qu’il appelle à se focaliser.

En France, le sujet a notamment été débattu en amont du vote de la loi sur la simplification de la vie économique, dont l’article 15 permet de faire de certains projets de centres de données des projets d’intérêt national majeur (PINM), ce qui revient concrètement à réduire leurs obligations. Adopté le 15 avril, le texte a été déféré au Conseil constitutionnel par une soixantaine de députés socialistes et écologistes, notamment au motif que cet article porterait atteinte à la Charte de l’environnement.

Rattrapage français

Pour autant, ces travaux n’ont pas constitué le cœur des échanges. Auprès de la rapporteure Cyrielle Chatelain (Écologiste et Social) et de la présidente de la commission Isabelle Rauch (Horizons et Indépendants), Fabrice Coquio s’est surtout employé à souligner le rôle de son entreprise et de l’industrie des centres de données au sein de l’infrastructure numérique française et mondiale. Et ce, en s’appuyant sur sa double casquette de cocréateur du principal syndicat professionnel, France Datacenter, en 2008, et sur celle de PDG d’une société française rachetée en 2020 par l’américain Digital Realty, « premier opérateur mondial » de centres de données.

Présent dans une trentaine de pays, le groupe basé à Austin compte 320 centres de données, emploie environ 5 000 personnes et affiche un chiffre d’affaires mondial de l’ordre de 6 milliards de dollars, détaille-t-il. En France, les 400 employés de sa filière hexagonale gèrent 17 centres de données, dont 13 en région parisienne et 4 à Marseille.

Ceux-ci lui permettent de générer « un plus de 500 millions d’euros » de chiffres d’affaires, et de payer « près de quatre millions d’euros par an d’impôt sur les sociétés et 7,5 à 8 millions d’euros par an de contribution à la fiscalité locale sur les trois derniers exercices », montant qui devrait grimper « autour des 9 millions d’euros » en 2026.

Fabrice Coquio multiplie les chiffres pour illustrer son « ancrage industriel profond » et la stratégie « de présence durable dans le pays » qu’ont adopté Interxion puis Digital Realty : « En vingt ans, nous avons investi 2,5 milliards d’euros sur le territoire national ». D’ici 2030, comme annoncé lors du sommet Choose France 2025, l’entreprise s’est fixée un « objectif de 5,2 milliards complémentaires », soit le double de ses investissements historiques, sur les « quatre à cinq prochaines années ».

Le secteur français, explique Fabrice Coquio, est en situation de rattrapage. « Nous avons longtemps accusé un retard sur les Pays-bas, l’Allemagne, le Royaume-Uni en termes de puissance installée. » La puissance installée dans le pays vient ainsi « de dépasser celle des Pays-Bas, qui compte un quart de la population et un quart de notre PIB ». Or, en termes de « souveraineté et de résilience », le pays doit compter ses propres centres de données, estime le chef d’entreprise : il s’agit d’infrastructures « stratégiques ».

En termes électriques, il précise par ailleurs que Digital Realty compte un peu plus de 200 mégawatts IT installés à Paris et un peu plus de 50 à Marseille. Du point de vue du raccordement au réseau, cela revient à « 400 à 450 MW raccordés ». À terme, l’entreprise prévoit d’atteindre 420 mégawatts IT en région parisienne, et 100 MW du côté de Marseille.

Industrie hautement capitalistique

L’accélération des investissements de Digital Realty traduit par ailleurs l’effervescence de la période autant que la particularité de la gestion des centres de données : « c’est un métier à haute concentration capitalistique » explique-t-il, en citant l’exemple du projet de centre de données de Dugny. Sur place, 2 milliards d’euros seront investis sur « moins de 10 hectares ».

Si les larges investissements sont nécessaires à la fabrication des bâtiments comme de l’architecture technique nécessaire à l’accueil et au refroidissement des serveurs et autres calculateurs, l’industrie des centres de données ne crée pas énormément d’emplois directs, reconnaît l’entrepreneur. Il cite néanmoins les 1 500 emplois indirects « dédiés par nos sous-traitants à faire tourner nos centres de données 24 heures sur 24 », et surtout, sans les chiffrer, les emplois créés et occupés chez les multiples clients, publics, privés, ONG, nationaux ou internationaux qui recourent aux usines de données de Digital Realty.

D’après Fabrice Coquio, le besoin d’investissements élevés justifie aussi le rapprochement opéré entre Interxion et sa maison-mère en 2020. À l’époque, l’une comme l’autre étaient cotées au New York Stock Exchange. En Europe, en revanche, « même Londres n’avait pas l’écosystème nécessaire pour ce type de financement ». Le rapprochement avec les États-Unis a donc permis d’obtenir de nouveaux flux financiers, mais le dirigeant insiste : « Je suis français, Digital Realty France opère sous des règles françaises, ça s’arrête là ».

Interrogé sur les différents impacts sociaux et environnementaux des centres de données, Fabrice Coquio balaie la question du foncier : à Marseille, « nos clients ont créé le 6e hub mondial de circulation de données en consommant 2,5 hectares » (plus tôt, il soulignait que la France compte deux hubs internationaux parmi les plus importants pour la circulation de données : Marseille, qui donne accès à l’axe Francfort – Londres – Amsterdam – Paris, et la capitale elle-même). Par ailleurs, son modèle d’affaires lui permet de porter son choix sur « des friches », et d’en assumer « les coûts de dépollution ».

Sur l’électricité, il rappelle la situation de surproduction française, tout en admettant que certains cas peuvent créer des « goulots d’étranglement sur des zones de distribution » — ce qui peut expliquer le projet de moratoire évoqué un temps à Marseille, puis abandonné. Si le problème est réel, il est aussi présent partout : « de la Grèce au Portugal », l’entrepreneur déclare rencontrer le même type d’enjeux.

Sur le recours à l’eau, il évoque deux cas spécifiques. En région parisienne, en cas de « surutilisation des aérocondenseurs » pour refroidir les serveurs, « lorsque la météo dépasse les 31 à 32 °C », l’opérateur a l’autorisation de recourir à de la pulvérisation dans l’un de ses centres pour éviter de dépasser un seuil sonore de 71 décibels – une piste qui le conduit en moyenne à consommer 20 000 mètres cubes d’eau par an, « soit l’équivalent de la consommation de 350 français ». À Marseille, Interxion a racheté en 2011 un bâtiment construit sur un système de tours réfrigérées, qui consomme de l’ordre de « 56 000 mètres cubes d’eau par an, soit l’équivalent de 1 000 français ».

Lorsque l’entreprise construit ses propres centres, en revanche, elle ne recourt pas à ce type de technologie, déclare son patron. Un troisième cas, soutenu notamment par l’ADEME, a consisté à créer une station de pompage d’un bras d’eau qui part des mines de Gardanne vers le port. Ce système a permis à la société d’avoir « les bâtiments les plus efficients d’Europe », affirme Fabrice Coquio, « puis l’essentiel du temps, on n’a pas besoin d’électricité pour refroidir ».

  •  

Le patron de Microsoft Israël part suite aux révélations sur la surveillance en Palestine

Il est toujours bon d'avoir un fusible
Le patron de Microsoft Israël part suite aux révélations sur la surveillance en Palestine

Le responsable de la filiale israélienne de Microsoft va quitter son poste après des révélations sorties l’année dernière sur l’accord entre l’unité 8200, agence de surveillance israélienne, et l’entreprise. Celui-ci a permis à Israël de mettre en place une surveillance numérique globale de la Cisjordanie et de Gaza.

Le directeur général de Microsoft Israël depuis 2022, Alon Haimovich, va quitter son poste. Selon le média israélien Globes, la filiale du géant étatsunien a annoncé son départ la semaine dernière.

Cette annonce fait suite au scandale déclenché par la révélation de la publication israélo-palestinienne + 972 Magazine, du magazine hébreu Local Call et du Guardian à propos d’un accord qui a permis le stockage de 11 500 To de données sur un cloud Azure créé en fonction des besoins spécifiques de l’armée israélienne qui voulait « tracer tout le monde, tout le temps ». C’était un vaste projet de surveillance de la population cisjordanienne étendu ensuite à Gaza et qui stockait et scannait leurs messages et appels.

Quelques jours après, des employés de Microsoft ont manifesté au siège américain de l’entreprise et certains, regroupé sous le nom No Azure for Apartheid appelaient leurs collègues « partout dans le monde » à « prendre la parole, quitter le travail, manifester et faire grève ». Deux membres de ce groupe ont ensuite été licenciés par Microsoft qui les accuse de l’effraction de bureaux lors de ces manifestations.

En parallèle, l’entreprise a annoncé avoir lancé un nouvel audit sur le recours de l’armée israélienne à Azure. Quelques semaines après, Microsoft a décidé de suspendre l’accès de ses services Azure à l’unité 8200, l’agence de surveillance israélienne qui utilisait le système pour la surveillance des palestiniens, en indiquant qu’elle avait enfreint ses conditions d’utilisation, qui interdisent l’utilisation de sa technologie pour faciliter la surveillance de masse.

Une pression publique qui a pesé sur le dos de Microsoft

Mais la pression publique sur Microsoft à propos de ce sujet n’est pas retombée complètement suite à cette décision. Selon Globes, la question a été abordée lors de l’assemblée générale annuelle des actionnaires en décembre dernier et des ONG comme Amnesty International et des militants européens ont continué à pointer le fait que des serveurs Azure situés en Europe avaient été utilisés par l’armée israélienne. Le fonds souverain Norvégien qui possède des actions dans Microsoft aurait aussi poussé à la publication d’un rapport sur « les risques liés à l’exercice de ses activités dans des pays où les violations des droits humains suscitent de vives inquiétudes » sans citer nommément Israël.

L’enquête initiale de nos confrères pointait aussi la relation entre le directeur exécutif de Microsoft Satya Nadella et le commandant de l’unité 8200 Yossi Sariel. Mais c’est donc finalement Alon Haimovich, directeur général de Microsoft Israël, qui quitte ses fonctions.

Le transfert des responsabilités de Microsoft Israël sur Microsoft France démenti

Ce départ sera effectif le 31 mai prochain, confirme l’entreprise dans un communiqué de presse qui n’évoque ni les révélations ni l’audit. Au contraire, Microsoft encense le responsable sous la responsabilité duquel « Microsoft Israël est devenu l’un des trois pays affichant la croissance la plus rapide au sein de son groupe de pays de référence au sein de l’entreprise, a franchi plusieurs étapes marquantes et a impulsé une transition vers le leadership en matière d’IA de pointe », soutient le communiqué.

Selon Globes, la direction mondiale de Microsoft aurait décidé de ne pas nommer de remplaçant à Alon Haimovich pour l’instant et la gestion de Microsoft Israël serait reprise par Microsoft France. Contactée par Next, celle-ci dément. De son côté, le communiqué de Microsoft publié sur le site de la région Europe, Moyen-Orient et Afrique affirme seulement que « Microsoft annoncera le successeur d’Alon en temps voulu ».

Des géants états-uniens qui travaillent avec le ministère de la Défense israélien, Microsoft est le seul à ne pas avoir signé de clause spéciale pour passer outre le contrôle d’autres États, contrairement à Google et Amazon, ce qui leur a permis d’obtenir en 2021 le contrat du « projet Nimbus » de refonte de l’infrastructure cloud de cette même armée. Selon des sources de Globes, Alon Haimovich a été nommé au poste de DG de Microsoft Israël pour essayer de conserver les contrats de Microsoft avec Israël comme ceux concernant les licences Office et Windows, malgré cela.

  •  

Plus d’un million de caméras IP et babyphones diffusaient leurs images aux quatre vents

Babyphone de Troie
Plus d’un million de caméras IP et babyphones diffusaient leurs images aux quatre vents

Un Français a découvert début mars que le fournisseur chinois qui équipe des dizaines de modèles de caméras IP et babyphones vendus sur Amazon, Fnac, Cdiscount ou en marque blanche chez les opérateurs mobiles disposait d’un accès direct aux images de centaines de milliers d’appareils, au travers d’une infrastructure ouverte aux quatre vents. Deux mois plus tard, il publie l’ensemble de ses découvertes, qui dressent un tableau particulièrement inquiétant, et laissent supposer une utilisation à grande échelle des alertes émises par les caméras en question.

Quel meilleur cheval de Troie qu’un appareil dédié à la sécurité ? Le Français Sammy Azdoufal, développeur qui se présente comme spécialiste IA, a découvert début mars que plusieurs centaines de références de caméras IP, babyphones et autres accessoires dédiés à la surveillance domestique étaient susceptibles de présenter des failles béantes exposant les images capturées, et donc l’intimité des foyers concernés. En cause ? Une entreprise chinoise baptisée Meari, qui vend ses produits ou ses services principalement en marque blanche à des tiers.

Ces derniers distribuent ensuite les produits finaux concernés soit sous leurs propres couleurs, au travers notamment des places de marché de grands noms tels que Amazon, Fnac, Darty ou Cdiscount, mais aussi chez les opérateurs téléphoniques ou les acteurs de la télésurveillance, en marque blanche, à l’image du brésilien Intelbras.

Au total, le développeur affirme, liste à l’appui, avoir pu établir un lien direct entre Meari et 378 références distinctes de caméras, distribuées dans au moins 15 pays. Surtout, il explique à Next avoir pu directement compter plus de 1,1 million d’appareils vulnérables se connecter, en clair, aux serveurs de Meari, sur une simple période de 24 heures. « Si j’avais laissé tourner mon script une semaine, le volume d’appareils aurait sans doute été bien plus conséquent », estime-t-il.

Deux mois après sa découverte initiale, l’équipementier chinois est censé avoir sécurisé son backend, mais de nombreux comportements problématiques subsistent. « Disons que si j’avais un enfant, je n’achèterais pas une caméra équipée par Meari », résume Sammy Azdoufal.

Le précédent DJI

Si son nom vous dit quelque chose, c’est peut-être parce que l’intéressé n’en est pas à son coup d’essai. Mi-février, le développeur a eu les honneurs de la presse mondiale : il révèle avoir découvert de façon fortuite une faille de sécurité majeure affectant des milliers de robots aspirateurs DJI, alors qu’il bidouillait le sien pour voir s’il était possible de le commander à distance avec une manette de PS5.

Via cette porte dérobée, il devient en mesure de prendre le contrôle d’un robot aspirateur de son choix et donc d’accéder aux images que transmet le robot, simplement à l’aide de son numéro de série. Reproduite et racontée dans le détail par The Verge, sa découverte aboutit sur une conclusion effrayante : la prise de contrôle est possible parce que les robots de la marque communiquent en clair avec les serveurs MQTT de DJI, et que l’accès à ces derniers n’est pas dûment sécurisé.

Le 6 mars dernier, DJI a confirmé un problème de sécurité. Le constructeur a alors annoncé avoir corrigé une vulnérabilité au niveau de son infrastructure et évoqué, sans les nommer, la contribution de deux chercheurs indépendants. Sammy Azdoufal a de son côté indiqué avoir reçu la promesse d’un virement de 30 000 dollars dans le cadre du programme bug bounty de la marque.

Une application Android un peu trop bavarde

Ses travaux relatifs à Meari partent eux aussi d’une découverte fortuite, survenue le 2 mars dernier, avant même le dénouement de l’affaire DJI. « Je parlais de cette histoire d’aspirateur avec une collègue, elle m’explique qu’elle a acheté un babyphone sur Amazon, et se demande si c’est sûr de l’utiliser pour sa fille », nous raconte Sammy Azdoufal, contacté début mars. L’appareil fait partie des références premier prix vendues sur la plateforme.

Il ne dispose pas d’un environnement logiciel à ses couleurs mais fait appel à Cloudedge, une application « hub » dédiée aux objets connectés. En étudiant le code de l’application, le développeur découvre « plein de choses qui ne vont pas », dont des routes en clair vers des brokers MQTT : « J’essaie de me connecter pour voir, et là ça fonctionne ».

Avant d’aller plus loin, un petit point de vocabulaire s’impose peut-être. Dans le monde de l’Internet des objets (IoT), MQTT est un protocole de messagerie en étoile, qui sous-tend les échanges entre un serveur central (le broker MQTT dont il est question ici), et deux acteurs dont les rôles peuvent permuter : l’expéditeur (par exemple la caméra IP) et le destinataire (l’application mobile utilisée par son propriétaire). Quand votre caméra IP détecte un mouvement, elle envoie une alerte au broker MQTT, qui la relaie ensuite vers l’application mobile installée sur votre téléphone.

Dans le cas de l’application CloudEdge, nous avons pu vérifier début mars les affirmations de Sammy Azdoufal sur la base du client Android distribué via Google Play, et tout particulièrement la présence, en clair dans le code, d’une URL pointant vers la console d’administration du backend de Meari.

Le développeur pousse son investigation plus avant. « Après quelques tests, je me rends compte qu’ils ont laissé le mot de passe par défaut ». Une fois passée cette porte béante, « je réalise qu’il n’y a pas de vérification de la propriété par appareil, en m’abonnant à un broker je peux donc voir tout le monde ».

Dit autrement, une fois connecté au serveur, il est en mesure d’en observer l’activité, et par exemple d’y brancher le script grâce auquel il affirme avoir comptabilisé plus d’un million d’appareils connectés et donc vulnérables. Il indique également avoir pu accéder au CMS (l’outil de gestion du site Web) de Meari, utilisé notamment par les clients de l’entreprise pour gérer leurs propres flottes d’appareils ou leurs propres applications en marque blanche.


Il reste 61% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ IA : George Clooney, Meryl Streep et Kristen Stewart soutiennent le « Human Consent Standard »



Plusieurs acteurs et producteurs hollywoodiens se sont réunis pour soutenir un nouveau projet de licence dédié à l’intelligence artificielle, le Human Consent Standard.

Ce dernier est porté par RSL Media, une ONG cofondée en 2025 par l’actrice Cate Blanchett pour travailler sur les manières de donner aux artistes la maîtrise de l’usage de leur image et de leur identité par des systèmes d’IA, et déjà à l’origine du protocole Really Simple Licensing (RSL).

Standard ouvert, ce dernier permet aux éditeurs d’appliquer des règles de licence et de paiement aux robots qui accèdent à leurs sites web.

Une floppé de ©
Illustration : Flock

Le Human Consent Standard vient approfondir ce travail en fournissant aux machines une page robots.txt. Au lieu d’informer les machines sur quelles url elles peuvent scraper et dans quelles conditions, le Human Consent Standard doit leur donner des instructions sur les possibilités de récupérer ou non le « travail, l’identité, les personnages ou la marque concernée, quel que soit l’espace numérique ou ceux-ci apparaissent », explique le cofondateur de RSL Media Eckart Walter à The Verge.

À partir du mois de juin, RSL Media publiera une base de données dans laquelle les utilisateurs pourront vérifier leur identité et paramétrer les permissions qu’ils souhaitent céder aux modèles d’IA en termes de recours à leur image et à leurs travaux.

Le projet est soutenu par de multiples personnalités du cinéma, dont George Clooney, Tom Hanks, Kristen Stewart, Steven Soderbergh ou Meryl Streep.

Il vient s’ajouter à des initiatives plus individuelles, comme celle de l’acteur Matthew McConaughey, qui a breveté des vidéos de son image, ou de Taylor Swift, qui a déposé une image et deux extraits de sa voix.

  •  

Microsoft va doter Windows Update d’une récupération de pilotes « initiée par le cloud »

Errare microsoftum est
Microsoft va doter Windows Update d’une récupération de pilotes « initiée par le cloud »

Microsoft prépare la mise en place d’une fonction intégrée à Windows Update capable de procéder à la récupération d’un pilote matériel si celui-ci n’offre pas le niveau de performances attendu. Cette récupération « initiée par le cloud » pourrait être déployée d’ici le mois de septembre.

S’il est indéniable que le processus des mises à jour de Windows 11 a souffert de quelques problèmes de contrôle qualité ces derniers mois, il faut reconnaître que les dysfonctionnements qui surviennent parfois lors d’une mise à jour ne sont pas toujours à mettre au crédit de Microsoft. Il n’est en effet pas rare que des problèmes de performance ou des plantages soient dus à la mise à jour d’un pilote matériel, dont la nouvelle version crée par exemple un conflit inédit sur la machine hôte.

On arguera légitimement que c’est précisément le rôle du contrôle qualité que d’éviter ces problèmes, mais nul n’étant infaillible, Microsoft vient d’annoncer la mise en place prochaine d’un dispositif automatisé de « récupération » de pilotes (recovery, soit une restauration vers une version fonctionnelle), initiée depuis ses serveurs, en cas de problème identifié pendant la phase de distribution d’une mise à jour.

Un retour à meilleure fortune déclenché à distance

Microsoft rappelle le fonctionnement du circuit de distribution actuel :

« Aujourd’hui, lorsqu’un pilote publié via Windows Update présente des problèmes de qualité après sa distribution, la solution repose soit sur le fournisseur de matériel qui soumet un pilote mis à jour, soit sur l’utilisateur final qui désinstalle manuellement le pilote problématique. Il en résulte un risque que des appareils restent avec un pilote de mauvaise qualité pendant une période prolongée ».

Le nouveau système vise à accélérer la réponse en cas de problème, et surtout à la rendre transparente pour l’utilisateur final.

« Grâce à la récupération de pilotes initiée par le cloud, Microsoft peut désormais déclencher une action de récupération directement depuis le centre de développement matériel et restaurer un pilote problématique à une version fonctionnelle antérieure via le pipeline Windows Update. Cette opération s’effectue par des mises à jour coordonnées de la pile de pilotes PnP [plug and play]et des services de déploiement et de publication des pilotes. »

Blocage préventif

Initiée par Microsoft, la récupération se fait donc soit sur la dernière version fonctionnelle, soit sur la meilleure alternative générique connue. Sur le papier, la réponse est élégante, mais son efficacité réelle va dépendre de la capacité de l’éditeur à détecter suffisamment tôt qu’un pilote dont le déploiement a été approuvé pose finalement des problèmes. C’est d’ailleurs tout l’objet du processus de déploiement progressif des pilotes et de ses différentes étapes de validation.

Microsoft explique par ailleurs introduire une protection supplémentaire au niveau de ce dispositif, avec la création d’une liste de blocage préventif des binaires ayant déjà posé des problèmes de fiabilité. « À l’avenir, si une soumission de signature contient un fichier figurant sur la liste de blocage de publication, elle sera rejetée avant la signature du pilote. Les partenaires recevront un message d’erreur identifiant le fichier problématique afin qu’ils puissent prendre les mesures correctives nécessaires », décrit l’éditeur.

La liste de blocage est censée entrer en vigueur courant mai 2026. La fonction de récupération de pilotes va quant à elle faire l’objet de tests entre mai et août, avant un déploiement programmé pour septembre 2026.

Rappelons que la fiabilité des pilotes sur Windows 11 est un sujet au long cours pour Microsoft. Il a notamment motivé le renforcement des conditions de validation WHCP (Windows Hardware Compatibility Program), un ménage dans les anciens pilotes, ainsi qu’une bascule encouragée (mais pas évidente) vers des pilotes écrits en Rust.

  •  

Tokenmaxxing : quand les salariés d’Amazon brûlent des tokens pour se faire bien voir

La course au token
Tokenmaxxing : quand les salariés d’Amazon brûlent des tokens pour se faire bien voir

Des salariés d’Amazon utilisent un outil maison équivalent à OpenClaw pour brûler des tokens et générer artificiellement de l’activité IA pour éviter de mauvaises évaluations. Ce phénomène du « tokenmaxxing » n’est pas propre à Amazon.

Les entreprises qui investissent lourdement dans l’IA générative poussent leurs employés à utiliser cette technologie au quotidien, ne serait-ce que pour justifier les sommes ahurissantes mises sur la table pour développer des modèles et faire pousser les centres de données. Amazon en fait partie : le géant du commerce en ligne a ainsi annoncé 200 milliards de dépenses d’investissement (capex) pour 2026 : il faut prouver que tout cet argent sert à quelque chose et les salariés sont mis à contribution.

Amazon a lancé il y a quelques semaines un nouvel outil interne, MeshClaw, qui fonctionne sur le même principe qu’OpenClaw. Il permet de déployer des agents IA pour accomplir des tâches au nom de l’utilisateur : MeshClaw peut ainsi trier des courriels, interagir dans la messagerie Slack, déployer du code, surveiller des apps ou encore exécuter des tâches répétitives.

Le Financial Times rapporte que certains salariés d’Amazon font tourner MeshClaw non pas parce qu’ils en ont besoin, mais pour générer artificiellement de l’activité IA et améliorer leurs statistiques.

Si les stats d’utilisation de tokens IA ne sont pas censées servir à l’évaluation des performances des salariés d’Amazon, plusieurs d’entre eux ressentent une pression très forte pour les intégrer dans leur travail. L’entreprise a fixé des objectifs ambitieux : dépasser le seuil des 80 % de développeurs utilisant l’IA chaque semaine. La direction aurait aussi commencé à suivre la consommation de tokens dans des classements internes.

« Les managers regardent ces chiffres », affirme un employé sous le sceau de l’anonymat. « À partir du moment où l’usage est surveillé, ça crée des effets pervers et certaines personnes deviennent très compétitives là-dessus. » À cela s’ajoutent des craintes concernant l’autonomie assez large donnée aux agents MeshClaw, qui a accès à des outils internes sensibles. Ce qui ouvre la porte à des erreurs pouvant provoquer de sérieux incidents.

Le nouveau Graal de la Silicon Valley

Ce phénomène du « tokenmaxing » n’est pas circonscrit à Amazon. De nombreuses entreprises ont des objectifs d’usage de l’IA, ce qui peut déboucher sur des abus. Un tableau de bord interne chez Meta attribuait des statuts (« Token Legend ») aux employés qui consommaient le plus de tokens. Ce classement, développé par un employé sans l’aval du groupe, a été retiré depuis… même s’il existe un tableau de bord officiel qui suit l’usage de l’IA au global (pas uniquement la consommation de tokens).

Une étude réalisée par Jellyfish publiée le mois dernier remettait en cause cette idée très répandue dans la Silicon Valley (et ailleurs) que les gains de productivité sont liés à la consommation de tokens IA. Les auteurs ont analysé les usages de 12 000 développeurs répartis dans 200 entreprises au premier trimestre 2026.

Le premier enseignement, c’est qu’il existe une grande disparité dans la consommation de tokens : un développeur « médian » utilise environ 51 millions de tokens par mois, quand les 10 % des plus gros consommateurs dépassent les 380 millions de tokens mensuels. Une consommation massive qui coûte très cher, environ 52 dollars par mois pour un utilisateur moyen selon les tarifs de l’API Claude, mais près de 700 dollars par mois pour les plus gros utilisateurs.

C’est le rapport coût/productivité qui est le plus intéressant ici. Les développeurs qui consomment énormément de tokens produisent effectivement davantage de code, et même s’il est correct, il nécessite davantage de travail : plus d’allers-retours, plus de supervision humaine, plus de corrections, et au bout du compte plus d’abandon de code. Tout cela fait grimper la facture bien plus vite que la productivité gagnée.

Les auteurs de l’étude estiment que les 20 % des développeurs les plus économes en tokens génèrent en moyenne 11 modifications de code validées et intégrées aux projets (pull request fusionnées) pour 3 dollars de tokens sur un trimestre. Les 20 % des plus gros consommateurs en comptabilisent en moyenne 23, mais la facture est de 1 822 dollars.

Consommer plus de tokens permet effectivement de produire davantage, mais le coût unitaire se révèle bien plus élevé. L’étude dresse une comparaison intéressante : les tokens ressemblent à du carburant de fusée. On peut aller plus vite mais chaque gain supplémentaire nécessite énormément plus de ressources. Dans ces conditions, un usage modéré et raisonnable de l’IA semble bien plus indiqué que de forcer une consommation poussée à l’extrême.

  •  

Google troque le Chromebook pour un Googlebook dopé à Gemini Intelligence


Google troque le Chromebook pour un Googlebook dopé à Gemini Intelligence

Google n’attend pas l’ouverture de son événement I/O la semaine prochaine pour lever le voile sur un gros paquet de nouveautés qui, sans trop de surprise, tournent beaucoup autour de l’intelligence artificielle. Mais il y a tout de même quelque chose de nouveau (et d’inattendu) du côté du matériel.

Pour fêter les 15 ans du Chromebook, Google a décidé de… tuer le Chromebook. À l’occasion de l’Android Show, le moteur de recherche a en effet dévoilé le Googlebook, un nouvel ordinateur portable qui consacre la fusion entre Android et ChromeOS — c’est le fameux système d’exploitation unifié Aluminium OS, sur lequel Google planche depuis des années.

L’entreprise donne très peu de détail sur le matériel en lui-même, si ce n’est que les ordinateurs seront conçus « avec des matériaux haut de gamme et un soin particulier ». Ils porteront tous une barre lumineuse « glowbar » sur le capot, histoire de faire joli. En revanche, Google en dit un peu plus sur le logiciel et l’IA intégrée.

Le Googlebook est un ordinateur taillé pour Gemini, et même pour « Gemini Intelligence ». C’est le nom donné par le moteur de recherche aux fonctions d’IA basées principalement sur les agents. Les smartphones Android y auront droit (on s’en reparle très vite), mais le Googlebook est le premier appareil à avoir été imaginé spécifiquement pour ces fonctionnalités IA.

L’équipe de Google Deepmind a ainsi été mise à contribution pour développer le Magic Pointer : en secouant le curseur à l’écran, on activera un menu contextuel contenant des suggestions IA. En visant une date présente dans un courriel, le curseur magique va proposer de l’ajouter dans l’agenda. Ce même curseur proposera aussi de combiner deux images après leur sélection.

On verra à l’usage s’il s’agit d’un outil vraiment utile ou d’un Clippy dopé à l’IA encore plus pénible que l’original. Le système d’exploitation du Googlebook — qui ne porte pas de nom pour l’instant — proposera de créer des widgets personnalisées en le demandant dans une fenêtre texte.

L’accès à un smartphone Android sur le Googlebook depuis la barre des tâches.

L’OS du Googlebook reposant en partie sur des technologies Android, il communique de manière transparente avec un smartphone Android. Les apps du téléphone s’ouvrent sur le portable quand on n’a pas le temps de le dégainer ; voilà qui n’a rien de franchement original. Microsoft, Samsung et Apple n’ont pas attendu Google pour développer des solutions similaires.

Plusieurs constructeurs sont sur les rangs pour fabriquer des Googlebook : Acer, Asus, Dell, HP et Lenovo. Les premiers modèles devraient être commercialisés cet automne. Aucun prix n’a été avancé, ce qui est probablement plus prudent vu la situation des composants mémoire actuellement.

Gemini Intelligence met de l’IA partout

La grande affaire du jour, c’est surtout Gemini Intelligence, qui fera son apparition sur les smartphones Samsung et les modèles Pixel les plus récents cet été, probablement dans les bagages d’Android 17. Il s’agit d’imposer les agents au quotidien. Google vante ainsi la capacité de Gemini d’effectuer des tâches complexes dans les apps, avec ou sans données contextuelles comme une photo ou une capture d’écran.

 

L’entreprise donne l’exemple d’une liste de courses dans l’app Notes. Un appui prolongé sur la bouton d’allumage du smartphone sur cette liste lancera Gemini qui remplira un panier dans une app de livraison d’épicerie. Autre exemple : en prenant la photo d’une brochure de voyage, l’utilisateur pourra demander à Gemini de créer une excursion similaire dans Expedia. L’assistant fera connaitre où il en est de ses élucubrations via des notifications. Et bien sûr, il vous reviendra de valider une commande (ouf).

Après avoir fourré Gemini dans tous les coins de la version de bureau de Chrome, le tour de Chrome mobile est arrivé. À partir de la fin juin, l’assistant niché en haut à droite de la barre de menu pourra rechercher, résumer et comparer du contenu en ligne. Le navigateur pourra également puiser des informations dans d’autres applications. Ces nouveautés seront proposées sur tous les smartphones sous Android 12 et au-delà, aux États-Unis pour commencer.

Le remplissage automatique des formulaires est une fonction discrète mais qui a certainement contribué à faire progresser l’humanité d’un pas de géant (j’exagère à peine). Gemini pourra piocher dans les informations personnelles de l’utilisateur pour remplir encore plus de ces petits formulaires mal adaptés aux écrans mobiles.

Une nouvelle interface verra le jour spécialement pour Gemini Intelligence, basée sur le langage de design Material 3 Expressive. Elle est pensée pour réduire les distractions et mettre en avant les informations qui comptent.

Quelques nouveautés pour Android aussi

Gemini Intelligence est une chose, et il est très clair que Google est très loin d’en avoir terminé avec ce bouquet de fonctions IA. Mais il y a aussi Android tout court. Plusieurs nouveautés ont été présentées hier, à commencer par Pause Point qui limite l’usage compulsif des apps addictives — il faudra au préalable l’activer dans les réglages.

Pause Point.

Au lancement d’une application, Android pourra imposer une pause de 10 secondes pour inciter l’utilisateur à se demander s’il veut vraiment doomscroller pendant des heures. Durant ce laps de temps, la fonction propose de faire un exercice de respiration, définir une limite de temps ou se tourner vers une activité moins chronophage comme lire un livre (ce qui peut être tout aussi addictif). Désactiver Pause Point nécessitera de redémarrer le smartphone, une contrainte qui poussera certains à la laisser active.

La fonction Quick Share de partage instantané de document s’est récemment enrichie du support d’AirDrop, une technologie jusqu’à présent réservée aux appareils Apple. Disponible sur les appareils Pixel depuis novembre dernier, elle s’est ouvert aux modèles de Samsung. Dans le courant de l’année, elle sera aussi disponible sur des modèles de Vivo, Xiaomi, Oppo, OnePlus et Honor. Et sur les téléphones qui ne sont pas compatibles, Quick Share proposera un code QR pour partager du contenu avec les appareils iOS depuis le nuage.

La migration depuis un iPhone.

Google et Apple continuent leur travail commun pour faciliter la migration entre Android et iPhone, et inversement. Le processus de transfert de données entre smartphones ajoute celui de l’eSIM, ce qui sera bien pratique, et pourra fonctionner sans fil. Ce changement sera disponible sur les Pixel et les Galaxy de Samsung.

  •  
❌