Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Chrome enterre le Manifest V2, les bloqueurs de publicité amputés sur l’autel de la sécurité

Pareil, en moins bien
Logo de Google Chrome

Google évoque l’abandon du Manifest V2, utilisé par les extensions, au profit d’une V3. La bascule, plusieurs fois reportée, est désormais à nos portes. Elle est enclenchée dans les préversions de Chrome. Bien que l’entreprise affirme que de nombreux problèmes ont été réglés, les bloqueurs de publicité restent moins efficaces avec la nouvelle version.

Le Manifest est la structure servant de base aux extensions dans Chrome. Il définit leurs capacités et droits, ainsi que le périmètre de leurs actions. Cette plateforme, quand elle évolue, impacte profondément le fonctionnement des extensions.

Jusqu’à présent, les extensions étaient basées sur la V2. C’est la version la plus connue, celle qui a fait les beaux jours des bloqueurs de publicité tels qu’Adblock Plus. Google la considérait cependant comme percluse de problèmes de sécurité, avec l’évolution des standards dans ce domaine. Une V3 avait été mise en chantier.

Cependant, beaucoup accusent Google de profiter de cette nouvelle version pour s’attaquer aux bloqueurs de publicité. Et le temps est pratiquement écoulé, comme le confirme la société.

Une simple question de sécurité ?

Le plus gros changement entrainé par l’arrivée de Manifest V3 est la suppression de l’API Web Request. Celle-ci permettait jusqu’ici d’examiner ce qui transitait entre un site web et un navigateur, et surtout d’y réagir. Elle était très utilisée par les bloqueurs de publicité. Et pour cause : Web Request autorise la modification à la volée des requêtes vers un domaine.

Pour Google, le problème relève de la sécurité : une telle interface de programmation donne trop de pouvoir aux extensions. Et si certaines – dont les bloqueurs – le font pour des raisons « légitimes », l’API peut être utilisée pour espionner les communications et autres comportements malveillants. En 2018, Trend Micro avait montré comment l’API avait été utilisée créer des botnets destinés au vol de cryptomonnaies.

Pour compenser la disparition de Web Request, Google a proposé une autre API, Declarative Net Request. Le nom de l’API résume d’ailleurs la situation, puisque les extensions doivent déclarer précisément ce qu’elles vont faire.

Avec Declarative Net Request, les extensions ne peuvent plus analyser en temps réel ce qui circule, ni accéder à du code distant. Ces deux importantes modifications améliorent nettement la sécurité des extensions, dont les droits s’en retrouvent d’autant limités. L’internaute y gagne également en contrôle, car il devient possible de moduler plus finement le comportement des extensions.

De multiples reports et ajouts

Le travail sur le Manifest V3 a commencé il y a des années. Google souhaitait l’imposer plus tôt, mais les levées de boucliers ont poussé l’entreprise à enchainer les reports. En juin 2022, nous indiquions par exemple que Google ne laissait plus qu’un an aux développeurs d’extensions pour transiter vers la nouvelle plateforme. Mais ce délai a été étendu.

Dans sa communication datée du 30 mai, Google revient sur ce point. Pour la société, ce fut surtout l’occasion de récolter un nombre croissant de retours. Elle dit avoir suivi de nombreuses demandes et recommandations des développeurs d’extensions. « Nous apprécions la collaboration et les commentaires de la communauté qui nous ont permis – et continuent de nous permettre – d’améliorer constamment la plateforme d’extensions », indique Google.

Google donne plusieurs exemples d’ajouts, comme le support des scripts utilisateurs, la possibilité d’utiliser les API DOM en arrière-plan, ou encore la capacité à prendre en charge jusqu’à 330 000 règles statiques et 30 000 dynamiques. Résultat, Google indique que 85 % des extensions présentes sur le Chrome Web Store sont déjà en MV3.

Des bloqueurs de publicité moins efficaces

Parmi les autres changements, les auteurs d’extensions n’auront plus à faire valider chaque liste statique. Pour les bloqueurs de publicité, c’est un bon point. En revanche, les listes dynamiques restent sujettes à approbation. Or, ce sont les plus intéressantes.

Ce changement est accompagné d’un autre : une liste ne pourra plus être mise à jour directement. Pour récupérer le nouveau jeu de données, il faudra que l’extension elle-même soit mise à jour. Un processus lourd, dénoncé l’année dernière par Krzysztof Modras, l’un des auteurs de l’extension Ghostery. Avec cette modification, envoyer une nouvelle liste chez les utilisateurs revient à refaire passer l’extension par le processus de validation du Chrome Web Store.

Le 3 mai, les développeurs d’Adblock Plus (eyeo) avertissaient des changements à venir dans la version Manifest V3 de l’extension, disponible depuis quelques semaines. Le fonctionnement est modifié, avec des limitations imposées. Par exemple, la nouvelle mouture contient 100 listes préinstallées, l’internaute pouvant en activer jusqu’à 50. Cependant, impossible pour l’instant de s’abonner à des listes tierces.

Sur la gestion des listes cependant, eyeo assure avoir trouvé un moyen de contourner la limitation de Manifest V3. L’extension force son Service Worker à redémarrer, la mise en pause intervenant 30 secondes sans activité dans le navigateur.

Récemment, le développeur Raymond Hill a montré comment l’extension uBlock Origin Lite – version Manifest V3 d’uBlock Origin – était clairement moins efficace dans le blocage publicitaire.

Une disparition rapide, mais par phases

Chrome 127, dont la bêta est imminente, doit marquer le début de la fin pour Manifest V2. Si vous avez de « vieilles » extensions, un bandeau d’information apparaitra dans le panneau de gestion dédié (pour les personnes qui pensent à y aller). Les extensions MV2 actuellement mises en avant ne le seront plus.

« Cette mesure sera suivie progressivement, dans les mois à venir, par la désactivation de ces extensions. Les utilisateurs seront dirigés vers le Chrome Web Store, où il leur sera recommandé des alternatives à Manifest V3 pour leur extension désactivée. Pendant une courte période après la désactivation des extensions, les utilisateurs pourront encore réactiver leurs extensions Manifest V2, mais au fil du temps, cette option disparaîtra également », explique Google sur son blog.

Notez que les extensions MV2 ne seront pas toujours remplacées par leur nouvelle mouture MV3. Dans le cas d’Ublock Origin par exemple, il faudra soit passer par une alternative, soit récupérer la version Lite, qui ne contient pas de filtrage dynamique. Les développeurs ont indiqué cette information dans une FAQ.

☕️ Ariane 6 : vol inaugural le 9 juillet

C’est donc dans un tout petit peu plus d’un mois que la nouvelle fusée européenne prendra son envol : le 9 juillet, sauf report de dernière minute.

C’est peu dire que ce lancement est attendu et que le lanceur n’a pas réellement le droit à l’erreur, au risque de priver pendant encore un bon moment le vieux continent de souveraineté sur l’accès à l’espace.

L’Agence spatiale européenne rappelle qu’Ariane 6 « est le nouveau lanceur lourd européen, qui prend la relève de son prédécesseur, Ariane 5. Modulaire et polyvalent, Ariane 6 dispose d’un étage supérieur réallumable lui permettant de lancer plusieurs missions sur différentes orbites en un seul vol ».

Stéphane Israël, président exécutif d’Arianespace, rappelle qu’Ariane 6 à déjà un carnet de commande bien rempli avec pas moins de 30 missions.

C’est donc presque un an après le dernier vol d’Ariane 5 que la 6e version de la fusée prendra son envol du port spatial de l’Europe, en Guyane française.

☕️ Instagram teste des coupures publicitaires impossibles à contourner

le logo d'instagram

Instagram a confirmé auprès de TechCrunch réaliser des tests de publicités que l’on ne peut pas passer. À la manière d’un nombre croissant de plateformes diverses, il faut donc attendre que le chronomètre soit écoulé pour passer au prochain contenu.

« Nous testons toujours des formats qui peuvent apporter de la valeur aux annonceurs. Au fur et à mesure que nous testons et apprenons, nous fournirons des mises à jour si ce test aboutit à des changements formels du produit », a déclaré un porte-parole à nos confrères. L’entreprise n’a précisé ni le nombre de personnes ni les zones géographiques concernées.

Le changement avait été repéré par plusieurs personnes il y a quelques jours. La seule action possible est d’appuyer sur le petit « i » d’informations. Un panneau s’ouvre alors, expliquant que les « coupures publicitaires sont une nouvelle façon de voir les publicités sur Instagram » et qu’il faut parfois attendre avant de continuer à naviguer.

TechCrunch rapporte, sans surprise, que les réactions sont en grande majorité négatives, avec menaces de fermetures de comptes. Le modèle commercial étant basé sur l’engloutissement des contenus, l’introduction de telles cassures pourrait effectivement remettre en question l’utilisation chez une partie du public.

☕️ Chrome révise sa gestion des cookies pour aller (un peu) plus vite

Dans un billet technique publié lundi soir, Google a annoncé un nouveau mécanisme baptisé Shared Memory Versioning. Il s’agit de traiter différemment les cookies pour mettre fin à des situations de blocage intervenant sur des sites « mal développés ».

Dans une étude menée par l’équipe de Chromium, les développeurs ont constaté en effet que 87 % des accès aux cookies étaient redondants. Il peut même arriver que des cookies soient demandés plusieurs centaines de fois par seconde.

Le nouveau mécanisme fonctionne comme une nouvelle boite à cookies pour réguler les lectures et écritures des cookies. Elle permet de contourner, en quelque sorte, une exigence des spécifications du web voulant que JavaScript récupère toujours les cookies de manière synchrone. Pas un problème en temps normal, mais quand le nombre de requêtes explose, le chainage des demandes augmente le délai de traitement.

Avec le Shared Memory Versioning, chaque valeur de document.cookie est associée à une version. De plus, chaque moteur de rendu met en cache sa dernière lecture de cette valeur, toutes les versions étant hébergées dans une mémoire partagée. Selon Google, les sites peuvent toujours accéder à la dernière version, réduisant de 80 % les messages inter-processus et de 60 % les accès à document.cookie.

Faut-il s’attendre à une hausse révolutionnaire des performances ? Non, car sur les sites les plus lents (et utilisant très mal les cookies), le gain de rapidité est d’environ 5 %. Une petite différence donc, que l’on retrouvera bientôt dans tous les autres navigateurs basés sur Chromium.

Microsoft 365 Education attaqué par deux plaintes de noyb

Pas responsable, pas coupable ?

L’association de Max Schrems a déposé deux plaintes contre Microsoft US auprès de la CNIL autrichienne à propos de la suite 365 Education utilisée dans certaines écoles autrichiennes. noyb accuse l’entreprise d’enfreindre le RGPD en manquant de transparence, en utilisant des cookies de tracking et en traitant des données des élèves sans leur consentement, tout en rejetant la responsabilité des traitements des données sur les écoles.

noyb se penche sur l’utilisation de Microsoft 365 dans le système éducatif. Depuis le début de la pandémie de Covid-19, l’utilisation des services numériques dans l’éducation a explosé et un certain nombre d’écoles européennes ont choisi de prendre des solutions de services dans le cloud comme Microsoft 365 Education.

Mais l’association pointe plusieurs problèmes dans l’utilisation de cet outil. Elle considère que Microsoft viole le RGPD qui protège particulièrement les données des enfants. noyb a porté plainte devant l’autorité de protection des données autrichienne, la Datenschutzbehörde, contre l’entité américaine et non sa filiale européenne située en Irlande. Elle insiste même dans l’une des plaintes en précisant que « la plainte n’est pas dirigée contre Microsoft Ireland Operations Limited ».

Les deux cas se situent en Autriche où le ministère de l’Éducation, de la science et de la recherche a signé avec Microsoft un accord-cadre pour l’utilisation de Microsoft 365 Education dans les écoles. Le département de l’Éducation de la ville Vienne a offert, lui, des licences à toutes ses écoles.

Qui est responsable du traitement des données ?

Dans sa première plainte (pdf en allemand, pdf en anglais en traduction automatique), l’association représente une élève d’une école autrichienne. noyb explique que son père demande depuis fin août 2023 à Microsoft et à l’école plus d’information sur le traitement des données collectées, mais n’a obtenu aucune réponse satisfaisante.

Il a d’abord posé des questions à l’entreprise américaine qui lui a répondu (après plusieurs échanges), « nous vous suggérons de contacter l’organisation ou l’école concernée, qui est le responsable du traitement des données dans ce cas ».

De l’autre côté, le directeur de l’école, qui est aussi le responsable du traitement des données, affirme que l’établissement n’utilise dans Microsoft 365 Education que l’email comme donnée personnelle.

Pourtant, les streams de l’élève (vidéos enregistrées via le service « Microsoft Stream » inclus dans Microsoft 365 Education) ont bien été enregistrés lorsqu’elle a utilisé la suite de Microsoft. Des données autres que l’adresse email sont donc bien enregistrées pendant l’utilisation de Microsoft 365 Education.

L’association constate que les informations sur la gestion des données ne sont pas accessibles facilement. « Même l’information sur quelles déclarations et documents exacts sont pertinents concernant l’utilisation de Microsoft 365 Education par la plaignante n’est pas clair », explique-t-elle dans sa plainte.

« Dans le cadre du système actuel que Microsoft impose aux écoles, votre école devrait auditer Microsoft ou lui donner des instructions sur la manière de traiter les données des élèves. Tout le monde sait que de tels arrangements contractuels sont déconnectés de la réalité. Ce n’est rien d’autre qu’une tentative de déplacer la responsabilité des données des enfants aussi loin que possible de Microsoft », a déclaré l’avocate de noyb, Maartje de Graaf.

Des cookies de tracking sans consentement de l’élève

Dans la deuxième plainte (pdf en allemand, pdf en anglais), dans laquelle noyb représente aussi une élève autrichienne (sans pour autant qu’on sache si c’est la même, anonymisation oblige), l’association reproche à Microsoft l’utilisation de cookies de tracking dans Microsoft 365 Education.

noyb explique avoir trouvé des cookies suite à l’utilisation de la suite par la plaignante alors qu’elle n’y a pas consenti. Dans sa plainte, l’association affirme que la documentation envoyée par Microsoft elle-même à ce propos explique que ces cookies sont utilisés pour du « tracking », analysent le comportement des utilisateurs, collectent des données de navigation et sont utilisées à des fins publicitaires.

Selon Felix Mikolasch, un autre avocat de noyb, « notre analyse des flux de données est très inquiétante. Microsoft 365 Education semble traquer les utilisateurs quel que soit leur âge. Cette pratique est susceptible d’affecter des centaines de milliers d’élèves et d’étudiants dans l’UE et l’EEE. Les autorités devraient enfin agir et faire respecter les droits des mineurs ».

Contactée par Next, Microsoft n’a pas encore répondu à nos questions. À nos confrères de TechCrunch, l’entreprise a répondu que « M365 Education respecte le RGPD et les autres lois applicables en matière de protection de la vie privée et nous protégeons scrupuleusement la vie privée de nos jeunes utilisateurs. Nous sommes heureux de répondre à toutes les questions que les agences de protection des données pourraient avoir à propos de l’annonce d’aujourd’hui ».

☕️ Réseau Radio du Futur : ACMOSS et ANFR collaborent

Hier, l’ANFR et l’ACMOSS (Agence des communications mobiles opérationnelles de sécurité et de secours) ont signé « une convention de partenariat relative à l’exploitation de données techniques collectées par l’application mobile OpenBarres ».

Via cette dernière, l’ACMOSS va pouvoir accéder aux données anonymisées des smartphones connectés au Réseau Radio du Futur (RRF). Cela comprend les coordonnées géographiques des points de mesures, les niveaux de réception des champs mesurés, l’opérateur du réseau, etc.

But de l’opération : « optimiser sa connaissance des réseaux de téléphonie mobile déployés dans les départements français pour le bénéfice des différents services de sécurité et de secours […] L’analyse de ces informations participera à un renforcement du service haut débit du RFF avec la carte SIM ACMOSS qui va couvrir les quatre réseaux mobiles ouverts au public ».

Le Réseau Radio du Futur (RRF) est un « réseau très haut-débit [4G puis 5G, ndlr] souverain des services de sécurité et de secours », rappelait le ministère de l’Intérieur en 2022. Il permet en effet à l’ensemble des acteurs de la sécurité et du secours « de communiquer instantanément les uns avec les autres en bénéficiant de nouvelles fonctionnalités : appels vidéo, partage de position en direct, envoi d’électrocardiogrammes, etc ».

Il s’agit de moderniser les équipements « radio conçus au début des années 1990, propres à chaque force, et qui ne permettent pas la transmission d’importantes quantités de données ou d’images en temps réel depuis le terrain ».

Cette année, le RRF devient « l’épine dorsale des communications opérationnelles des services de sécurité, de secours et des acteurs de la gestion de crise », selon le ministère.

☕️ X autorise officiellement le contenu pornographique « consensuel »

X (ex-Twitter) a changé ses conditions pour accepter officiellement le contenu pornographique « produit et diffusé de façon consensuelle ». Seules restrictions : « qu’il soit correctement étiqueté et pas mis en évidence », sur les photos de profil ou les bannières.

Sont désormais clairement acceptés les contenus présentant de la « nudité partielle ou complète », et des « actes sexuels explicites ou implicites », y compris sous la forme de contenu généré par IA, de dessinés ou d’animés (type hentai).

La plateforme indique que les utilisateurs de moins de 18 ans ou qui n’indiquent pas de date de naissance dans leur profil ne pourront pas voir les contenus en question. 


De fait, l’évolution de politique a lieu dans un contexte de pression grandissante des régulateurs en matière d’obligation de protection des mineurs.

☕️ [Màj] Publicités de désinformation politique : TikTok plaide « l’erreur humaine »

Le mot TikTok tapé sur une machine à écrire

Mise à jour du 5 juin : ajout de la réaction de TikTok (article initialement publié le 4 juin).

En amont des élections législatives européennes, l’ONG Global Witness a soumis plusieurs réseaux sociaux à un test : soumettre 16 publicités contenant de la désinformation politique pour observer la réaction de YouTube, TikTok et X.

Toutes les publications étaient pensées pour le public irlandais, et contenaient des éléments évoquant une fermeture des bureaux de vote provoquée par une épidémie de maladie infectieuse, de fausses informations sur la manière de voter ou des incitations à la violence.

Résultat des courses, X a bloqué toutes les publicités et suspendu le compte qui les publiait pour « violation de ses conditions d’utilisation », YouTube a bloqué 14 publications, et TikTok les a toutes acceptées.

L’ONG a bloqué la publication de ces éléments avant qu’ils n’atteignent réellement le grand public.

En parallèle, la BBC a réalisé ses propres expérimentations et constaté que la plateforme de vidéos présentait une nette propension à la diffusion de contenus politiques faux, générés par intelligence artificielle et/ou incitant à la violence.

Auprès de Next, TikTok plaide l’ « erreur humaine ». « TikTok n’autorise pas la publicité politique, et nos systèmes ont correctement identifié et soumis ce contenu politique à un examen humain. »

Selon l’entreprise, les publicités ont été approuvées par erreur, et de « nouveaux processus » ont été mis en place pour « éviter que cela ne se reproduise à l’avenir ».

Même le Raspberry Pi 5 succombe à l’IA…

Magie, le PCIe 2.0 devient du PCIe 3.0

Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

13 TOPS pour le Raspberry Pi 5

C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

Une intégration logicielle déjà prête

Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

« Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

Plusieurs vidéos de présentation ont été mises en ligne :

☕️ Google : des milliers de problèmes concernant des données personnelles entre 2013 et 2018

404 Media a eu accès à une base de données interne à Google répertoriant des problèmes sur des données personnelles entre 2013 et 2018.

Cette base de données fait la liste de tous les incidents que Google a rencontrés sur le traitement de données personnelles.

Le média explique lui-même qu’ « individuellement, les incidents, dont la plupart n’ont pas été rendus publics auparavant, peuvent n’avoir affecté qu’un nombre relativement restreint de personnes, ou ont été résolus rapidement ». Mais il ajoute que, « prise dans son ensemble, la base de données interne montre comment l’une des entreprises les plus puissantes et les plus importantes au monde gère, et souvent mal, une quantité stupéfiante de données personnelles et sensibles sur la vie des gens ».

Et, en effet, 404 Media relève que cette base de données contient des milliers de problèmes reportés en interne par des employés de Google.

La liste va de l’enregistrement de plaques d’immatriculation de voitures par Street View à celui d’un millier de voix d’enfants par un service vocal de Google, en passant par l’accès rendu public pendant un an à un million d’emails d’utilisateurs de Socratic, startup achetée par Google, dans le code source du site lui-même.

404 Media explique que certains incidents sont marqués comme réparés dans la base de données. Dans une sous-liste de 30 éléments envoyée par le média à Google, tous étaient résolus selon l’entreprise.

L’entreprise a aussi répondu au média que « chez Google, les employés peuvent rapidement signaler des problèmes potentiels liés aux produits pour qu’ils soient examinés par les équipes concernées. Lorsqu’un employé soumet un signalement, il suggère le niveau de priorité à l’examinateur. Les rapports obtenus par 404 datent d’il y a plus de six ans et sont des exemples de ces signalements – chacun d’entre eux a été examiné et résolu à l’époque. Dans certains cas, les signalements d’employés se sont avérés ne pas être des problèmes du tout ou étaient des problèmes venant de services tiers ».

☕️ Mozilla lance son fonds Builders, l’IA locale ouvre le bal

Logo de la fondation Mozilla

La fondation a présenté hier son accélérateur Mozilla Builders, destiné à « donner aux ingénieurs indépendants en IA et en apprentissage automatique les ressources et le soutien dont ils ont besoin pour prospérer ».

Le premier thème de ce programme est l’IA locale, donc pouvant fonctionner directement sur les appareils des utilisateurs, sans passer par des serveurs. Mozilla évoque les multiples avantages : confidentialité, contrôle, rentabilité ou encore fiabilité. Le potentiel de puissance n’est pas comparable, mais Mozilla n’aborde pas ce point.

Les programmes sélectionnés pourront recevoir un financement jusqu’à 100 000 dollars. En outre, les participants « s’engageront dans un programme structuré de 12 semaines axé sur les phases de conception, de construction et de test de leurs projets, suivi d’une phase d’accompagnement par les anciens étudiants ».

Ce programme aura également des sessions de formations, des ateliers guidés et des travaux pratiques. Les différents canaux de communication de Mozilla pourront être mis à contribution pour présenter les projets. Les participants pourront aussi participer à des évènements et organiser une journée de démonstration.

☕️ Nouvelle vague de licenciements chez Microsoft, HoloLens et Azure touchés

Microsoft a annoncé hier de nouveaux licenciements. 1 000 personnes vont devoir quitter l’entreprise. Selon CNBC, la division Mixed Reality est touchée. Selon Business Insider, des départs sont également à signaler dans Azure for Operators and Mission Engineering.

« Plus tôt dans la journée, nous avons annoncé une restructuration de l’organisation Microsoft Mixed Reality. Nous restons pleinement engagés dans le programme IVAS du ministère de la Défense et continuerons à fournir une technologie de pointe pour soutenir nos soldats », a confirmé Microsoft à The Verge.

Cette restructuration n’est pas une surprise. La plateforme Mixed Reality avait été créée aux débuts de Windows 10, mais n’a jamais rencontré le succès escompté. L’entreprise avait annoncé son abandon en décembre dernier.

Le HoloLens 2 continuera cependant d’être vendu et de recevoir du support technique. Le système Windows Holographic a d’ailleurs reçu sa mise à jour 24H1 il y a quelques semaines. Pour rappel, le casque HoloLens 2 est toujours testé par le ministère américain de la Défense pour une utilisation sur le terrain.

☕️ Microsoft va investir 3 milliards d’euros dans le cloud et l’IA en Suède

Dans le cadre de cet investissement, la société va déployer pas moins de 20 000 GPU dans trois datacenters où elle est déjà présente : Sandviken, Gävle et Staffanstorp, comme le rapporte Reuters. Des puces NVIDIA sont évidemment au programme, mais également d’AMD et des modèles maison, ajoutent nos confrères.

Ils rappellent que Microsoft a récemment annoncé des investissements au Royaume-Uni, en Allemagne, en Espagne et en France. Dans l’Hexagone, il est question de 4 milliards d’euros d’investissement « au service de l’intelligence artificielle ».

« L’entreprise prévoit de former 250 000 Suédois dans l’IA » dans tous les secteurs (privés, écoles…). Elle prévoit aussi d’investir « dans les énergies renouvelables et a acheté près de 1 000 MW d’énergie renouvelable en Suède ».

« Vous verrez d’autres annonces, probablement plus à l’automne », a ajouté le président de Microsoft, Brad Smith.

☕️ Stockage, IA : le Français Kalray et l’Israélien Pliops veulent fusionner

Via un communiqué commun, les deux entreprises annoncent « être entrées en négociation exclusive en vue d’un rapprochement […] par voie d’apport des actions de Pliops à Kalray ».

Le partage donnerait aux actionnaires de Kalray 65 % du capital du nouvel ensemble et 35 % pour ceux de Pliops. Le contrat prévoit « une possibilité de monter à 40 % pour Pliops, contre 60 % pour Kalray, en cas de réalisation d’objectifs stratégiques prédéfinis ».

Pliops se définit comme une société « spécialisée dans le développement de technologies avancées et de solutions d’accélération pour les serveurs de stockage et l’IA dans les data centers ». Chez Kalray, il est question de « technologies matérielles et logicielles dédiées à la gestion et au traitement intensif des données du Cloud au Edge ».

But de l’opération : « devenir le leader mondial des solutions d’accélération de données pour le stockage et les GPU d’IA », selon Eric Baissus, président du directoire de Kalray. Ido Bukspan, CEO de Pliops, parle aussi de devenir « un leader mondial » et ajoute que cette fusion permettrait d’accélérer la mise sur le marché de sa solution, « avec un nouveau paradigme de stockage pour les solutions d’accélération de données d’IA ».

Cette fusion apporterait de nouvelles opportunités commerciales, avec une présence renforcée en Europe et en Chine, mais aussi aux États-Unis avec l’intégration des « hyperscalers » pour renforcer « la portée et l’influence du groupe ».

Rien n’est encore fait pour autant, il faut attendre les approbations des autorités compétentes, la consultation du comité social et économique de Kalray et l’approbation des assemblées générales des actionnaires des deux entreprises.

Les discussions sont dans une phase « avancée avec une période d’exclusivité conclue jusqu’à mi-juillet 2024 ».

Kalray a pour rappel récemment lancé sa carte Turbocard4 avec quatre DPU (Data Processing Unit) maison Coolidge 2. Elle est « conçue pour assurer aux clients la possibilité de fusionner des technologies de traitement classiques et de traitement basés sur l’IA, un enjeu majeur pour bâtir les applications IA les plus exigeantes ». La société mettait en avant son côté « made in France ».

Ticketmaster : une fuite de données de 560 millions d’utilisateurs

Hacked out

La semaine dernière, le groupe de pirates ShinyHunters a revendiqué la récupération de données de 560 millions d’utilisateurs de Ticketmaster. Vendredi, le leader mondial de la vente de billets a confirmé auprès des autorités américaines avoir été victime d’une « activité non autorisée ».

Mardi 28 mai, le média Hackread a repéré l’annonce du piratage des données de Ticketmaster par le groupe ShinyHunters. Celui-ci revendiquait avoir récupéré les données de 560 millions d’utilisateurs de la plateforme de vente de billets (1, 3 Téraoctet de données) et proposait de les revendre pour 500 000 dollars.

Dans cette base de données volée se trouveraient, selon ShinyHunters, des données privées comme les noms, prénoms, adresses, emails, numéro de téléphone, les billets et le détail des concerts et autres événements des utilisateurs de Ticketmaster. Mais elle contiendrait aussi des informations partielles sur la carte de paiement utilisée dont les quatre derniers chiffres du numéro de la carte et la date d’expiration.

Confirmation à la SEC

Vendredi 31 mai, Live Nation, l’entreprise propriétaire de Ticketmaster, a signalé une fuite de données à la Securities and Exchange Commission (SEC), confirmant ainsi au moins partiellement la revendication de ShinyHunters, explique le Time.

L’entreprise y explique avoir identifié une « activité non autorisée dans un environnement de base de données tiers dans le cloud contenant des données de l’entreprise ». Elle affirme avoir lancé à ce moment-là une enquête avec des spécialistes de la sécurité.

Mais Live Nation ne va pas jusqu’à confirmer l’authenticité des données mises en ventes par ShinyHunters : « le 27 mai 2024, un acteur criminel a mis en vente sur le dark web ce qu’il prétendait être des données d’utilisateurs de l’entreprise. Nous nous efforçons de réduire les risques pour nos utilisateurs et pour l’entreprise, et nous avons informé les forces de l’ordre et coopérons avec elles », déclare-t-elle aux autorités américaines.

Live Nation ose même expliquer à la SEC qu’ « à la date du présent document, l’incident n’a pas eu, et nous ne pensons pas qu’il soit raisonnablement susceptible d’avoir, un impact significatif sur l’ensemble de nos activités, notre situation financière ou nos résultats d’exploitation. Nous continuons à évaluer les risques et nos efforts de remédiation sont en cours ».

Si la fuite est d’ampleur aussi importante que ce que revendique ShinyHunters, elle pourrait tout de même avoir des conséquences significatives pour Ticketmaster et Live Nation.

Ticketmaster en position de monopole

D’autant qu’elle arrive alors que le ministère de la Justice américain vient de les attaquer en justice mardi 23 mai dernier, les accusant d’avoir créé un monopole sur la vente de tickets en ligne.

« Du fait de leur comportement, les fans de musique aux États-Unis sont privés de l’innovation en matière de billetterie et contraints d’utiliser une technologie dépassée tout en payant leurs billets plus cher que les fans d’autres pays », explique le communiqué du ministère :

« Dans le même temps, Live Nation-Ticketmaster exerce son pouvoir sur les artistes, les salles et les promoteurs indépendants d’une manière qui nuit à la concurrence. Live Nation-Ticketmaster impose également des barrières à la concurrence qui limitent l’entrée et l’expansion de ses rivaux. »

La plainte du ministère affirme qu’aux États-Unis, « en 2022, Ticketmaster représentait au moins 70 % de la valeur faciale totale associée à tous les billets vendus dans les grandes arènes et amphithéâtres. Aucun autre concurrent n’a vendu plus de 14 % des billets ».

Enquête en cours en Australie

Concernant le piratage de Ticketmaster, une enquête a déjà été lancée en Australie dès le mercredi 29 mai, expliquait le site Cyberdaily. Elle rejoint les nombreuses enquêtes internationales sur le groupe ShinyHunters.

En août 2022, trois français avaient été accusés par le FBI de faire partie de ce groupe. L’un d’eux, Sébastien Raoult, extradé aux États-Unis depuis le Maroc, a été condamné en janvier dernier à trois ans de prison et à rembourser cinq millions de dollars (4,5 millions d’euros) aux sociétés victimes.

Européennes : les dons des Big Tech favorisent les candidats libéraux

Follow the money
Drapeaux de l’Union européenne

En amont des élections législatives européennes, les géants numériques financent les partis libéraux.

Les élections européennes commenceront le 6 juin aux Pays-Bas et se poursuivront jusqu’au 9 juin, mais les géants de la tech sont déjà sur les rangs pour se trouver des soutiens.

Selon les données de l’Autorité pour les partis politiques européens et les fondations politiques européennes, Google, Apple et Microsoft ont tous versé des dons aux principaux think-tanks politiques, voire aux partis politiques européens eux-mêmes. Cumulées, ces dons font de la tech l’industrie qui a le plus contribué en amont des élections parlementaires, relève Politico.

L’alliance des libéraux et démocrates et son think tank, principaux bénéficiaires

Dans le détail, c’est l’Alliance des libéraux et démocrates pour l’Europe (ALDE) et son think tank European Liberal Forum (ELF) qui ont attiré le plus de financement. Microsoft et Qualcomm (via sa branche française) ont respectivement versé 18 000 euros, soit le maximum légal, à l’ALDE. L’ELF a reçu 5 000 euros supplémentaires de Microsoft et 18 000 euros d’Apple et de la branche irlandaise de Google respectivement.

Autre bénéficiaire : le Wilfried Martens Centre du Parti populaire européen (PPE) a reçu 8 000 euros de la branche belge de Google ainsi que d’Intel et d’Apple.

Lobbying par financement

Si ces dons sont parfaitement légaux, ils restent une manière d’influencer le champ politique européen. Divers travaux, dont l’ouvrage The Misinformation Age de Cailin O’Connor et James Weatherall (Yale University, 2019), ont souligné à répétition la propension des grandes entreprises en général – et des géants du numérique en particulier – à influencer la recherche académique et les décisions politiques par la simple orientation de leurs moyens financiers.

Une autre manière de faire, toujours en s’aidant de fonds, consiste à utiliser des relais locaux. En mars, l’association Corporate Europe Observatory regrettait ainsi publiquement que des start-ups européennes comme Mistral AI ou Aleph Alpha aient, chacune, œuvré pour orienter la rédaction de l’AI Act en faveur des intérêts des géants états-uniens.

En amont des élections parlementaires européennes, Corporate Europe Observatory a d’ailleurs publié un guide à destination des candidats aux européennes pour les aider à identifier et manœuvrer le lobbying des grandes entreprises.

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

Alors que la machine médiatique participe à amplifier le buzz autour de l’intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Mise à jour du 4 juin 2024 : ajout de la mention de Shaping AI

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu’il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d’amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël – Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu’à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Sur un corpus d’articles de presse produits sur dix ans, entre 2011 et 2021, le projet Shaping AI du médialab de SciencesPo relève 19,05 % d’articles « associés à un discours de promesse technologique » et 9,5 % « associés à un discours critique ou de menace lié à ces technologies ». En éliminant les articles catégorisés « neutres », l’équipe de recherche constate une constante de deux tiers d’articles optimistes pour un tiers d’articles critiques. Un nombre croissant d’articles se penchent aussi sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Quant à Tagaday , sur les plus de 162 000 articles ou sujets audiovisuels analysés, elle rapporte une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s’agit pas de tout jeter. Les technologies déployées par le champ de l’intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s’agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

☕️ Investissements dans l’IA : l’Union européenne à la traîne, faute de suivi

Malgré d’importants travaux pour faciliter le développement de l’intelligence artificielle, l’Union européenne reste à la traîne sur la scène mondiale avec des investissements inférieurs à ceux des États-Unis et de la Chine, selon un rapport de la Cour des Comptes européenne.


Quand bien même des mesures ont été prises pour développer un écosystème d’IA au tournant des années 2020, l’entité souligne un manque d’outils de gouvernance et de suivi des objectifs d’investissements comme de leurs résultats.

Elle appelle à des actions mieux ciblées, pour que les dépenses réalisées par l’Union européenne donnent un réel coup d’accélérateur au milieu.

☕️ Hugging Face : la sécurité de certains « espaces » compromise

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

❌