Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Le pacte européen sur l’IA signé par 126 entreprises, mais des absences notables

Kumbayah, Kum ba yah
Le pacte européen sur l’IA signé par 126 entreprises, mais des absences notables

La Commission européenne a annoncé plus d’une centaine d’entreprises signataires pour son pacte sur l’IA. Toutes s’engagent à respecter les grands principes du règlement sur l’IA (AI Act) avant son application. Si certaines vont encore plus loin, on note l’absence de certaines grandes entreprises, dont Apple et Meta.

Le « pacte de l’UE sur l’intelligence artificielle », créé par Thierry Breton, comporte une série d’engagements volontaires pour les entreprises signataires. Le règlement sur l’IA, même s’il est entré en vigueur le 1er août, ne verra ses principales mesures entrer en application que dans deux ans environ. Le calendrier est cependant étalé : « les interdictions prendront effet au bout de six mois, les règles de gouvernance et les obligations relatives aux modèles d’IA à usage général deviendront applicables après 12 mois et les règles relatives aux systèmes d’IA intégrés dans des produits réglementés s’appliqueront après 36 mois », rappelle la Commission. 

Celle-ci a donc proposé, via un pacte, que les entreprises intéressées s’engagent sur ses principes fondateurs sans attendre. Pour montrer l’exemple et favoriser les échanges.

En quoi consiste le pacte ?

Le cœur de l’engagement porte sur trois actions, présentées comme « essentielles » :

  • Une stratégie de gouvernance de l’IA
  • Un inventaire des systèmes d’IA à haut risque
  • La promotion de la sensibilisation du personnel à l’IA

Ces trois mesures phares doivent couvrir le plus important, selon la Commission. La première doit ainsi favoriser à la fois l’adoption de l’IA dans l’entreprise et celle du règlement. La deuxième, cruciale, vise le recensement des systèmes soumis à des obligations spécifiques, décrites dans le règlement. La dernière doit bien sûr permettre un « développement éthique et responsable de l’IA ».

En plus de ces engagements « fondamentaux », la Commission précise que plus de la moitié des entreprises signataires ont pris des engagements supplémentaires. Ceux-ci concernent notamment le contrôle humain, l’atténuation des risques et l’étiquetage transparent de certains contenus générés par IA (les trucages vidéo ultra-réalistes sont cités).

Les objectifs de la Commission

Avec le pacte, la Commission vise plusieurs missions. La préparation à l’AI Act est bien sûr la principale. Dans une ambiance tendue par des entreprises comme Meta (nous y reviendrons), la Commission prend les devants et veut habituer les entreprises aux impératifs du règlement.

Le pacte repose toutefois sur deux piliers. Si la préparation au nouveau cadre juridique en est un, l’autre est centré sur l’échange d’informations. Il « encourage l’échange de bonnes pratiques et fournit des informations pratiques sur le processus de mise en œuvre de la législation ». Par cet échange, la Commission espère une certaine « évangélisation » auprès des autres entreprises. Car tout le monde est loin d’avoir signé.

De nombreux signataires, mais des absents notables

La liste des signataires, consultable sur le site de la Commission, comprend à ce jour 126 entreprises. On y trouve beaucoup de grands noms comme Accenture, Adecco, Adobe, Airbus, Aleph Alpha, Amazon, Atlassian, Autodesk, Booking.com, Cisco, Criteo, Dassault Systèmes, Deutsche Telekom, Docaposte, Godot, Google, HP, IBM, Lenovo, Logitech, Mastercard, Microsoft, OpenAI, Orange, OVHcloud, Palantir, Qualcomm, Sage, Salesforce, Samsung, SAP, Snap ou encore Vodafone.

On remarque rapidement que sur les cinq GAFAM, trois sont présentes dans la liste : Amazon, Google et Microsoft. La présence d’OpenAI est également significative, mais pas étonnante, dans la mesure où l’entreprise, comme d’autres, travaille exclusivement sur l’intelligence artificielle, avec le soutien financier très actif de Microsoft. Deux autres multinationales sont en revanche absentes : Apple et Meta.

Là non plus, il n’y a guère de surprise. Des GAFAM, Apple et Meta se sont montrées les plus bruyantes sur leur désamour de la réglementation européenne. Apple a fustigé le DMA à plusieurs reprises, jusqu’à s’en plaindre au cours d’un étonnant exercice de communication. Elle y affirmait que les iPhone européens seraient moins sécurisés que les autres, à cause de l’ouverture forcée entrainée par la loi sur les marchés numériques.

Plus récemment, Meta s’est fait la championne des entreprises frustrées par le « cadre réglementaire fragmenté » de l’Union européenne. Dans une lettre ouverte, signée par de nombreuses entreprises (dont certaines ont également signé le pacte), elle jouait la carte du pathos et de la peur, face à l’imposante manne financière que représentent les investissements dans l’IA. L’Europe, déjà à la traine, risquait d’être définitivement distancée par les États-Unis, la Chine et l’Inde.

Hors des grandes multinationales américaines, d’autres entreprises brillent par leur absence. Mistral n’a par exemple par signé le pacte, pas plus qu’Anthropic, autre grande spécialiste de l’IA avec ses modèles Claude. TikTok n’est pas là non plus, ni Spotify.

Un succès ?

Difficile de savoir si le pacte va fonctionner comme prévu. Selon Politico, il était déjà en perte de vitesse avant le départ de Thierry Breton, qui a démissionné de son poste de commissaire sous pression d’Ursula von der Leyen, présidente de la Commission européenne. D’autres attendent plus simplement de voir comment la situation va évoluer et pourraient rejoindre le pacte plus tard.

Meta serait de celles-là. « Nous nous félicitons de l’harmonisation des règles de l’UE et nous nous concentrons actuellement sur notre travail de mise en conformité avec la loi sur l’IA, mais nous n’excluons pas de rejoindre le pacte sur l’IA à un stade ultérieur » a affirmé l’entreprise à nos confrères. « Nous ne devons pas non plus perdre de vue l’énorme potentiel de l’IA pour stimuler l’innovation européenne et favoriser la concurrence, faute de quoi l’UE passera à côté de cette opportunité qui ne se présente qu’une fois par génération ». Une piqure de rappel tout droit sortie de sa lettre ouverte.

☕️ Raycast, lanceur bien connu pour macOS, va se doter d’une version Windows

Raycast est un lanceur s’étant fait une jolie réputation sur macOS. Fonctionnant à la manière d’un Spotlight, il consiste en une fenêtre appelée par un raccourci clavier et dans laquelle on écrit ce que l’on souhaite.

L’application prend tout son sens grâce à son système d’extensions. On peut dès lors l’appeler pour tout et n’importe quoi : contrôler une application, générer des mots de passe, tuer un processus, chercher dans les onglets d’un navigateur, piloter Spotify, gérer les extensions de Visual Studio Code, trouver des informations dans Slack, lancer une traduction dans Google Translate…

Raycast dispose d’une offre Pro disponible à 8 dollars par mois et incluant tout ce qui touche à l’IA. On peut ainsi interroger ChatGPT, mais également créer des flux d’automatisation. L’abonnement déverrouille d’autres fonctions, comme la synchronisation entre les machines et les thèmes personnalisés.

Or, l’éditeur vient d’annoncer deux nouvelles significatives. D’une part, une levée de fonds de 30 millions de dollars (série B). D’autre part, l’arrivée de Raycast sur deux nouvelles plateformes : iOS et surtout Windows. Cette dernière devrait avoir les mêmes capacités que sur macOS. La version mobile pour iOS pose davantage question, au point d’ailleurs que l’éditeur cherche des retours sur ce qu’une telle version devrait signifier pour ses utilisateurs.

Dans l’annonce, on peut s’inscrire sur liste d’attente pour chacune de ces versions. Elles sont prévues pour 2025, sans plus de détails pour l’instant.

☕️ Partage de compte : Disney+ applique la recette de Netflix

Disney part en guerre contre le partage des comptes et le manque à gagner qu’il génère. Le géant du loisir n’est pas allé chercher loin sa source d’inspiration : Netflix. Elle a simplement attendu que les plâtres soient essuyés. Et le résultat est à la hauteur, puisque non seulement le nombre d’abonnés n’a pas baissé, mais les finances de Netflix s’en portent mieux.

La chasse au partage va fonctionner de la même manière sur Disney+. Ce dernier considère ainsi qu’il y a le foyer familial, au sein duquel fonctionne l’abonnement, et c’est tout. Les membres d’une même famille doivent utiliser le service dans ce lieu.

Et si un membre vit ailleurs ? Il faut payer un Extra, soit 4,99 euros par mois supplémentaires pour un compte Disney+ Standard avec publicité ou 5,99 euros pour un compte Standard ou Premium. Mais il n’y a de la place que pour un seul membre Extra par compte, et c’est la personne titulaire du compte Disney+ qui règle la facture. L’Extra pourra décider plus tard de détacher son compte pour le basculer dans une formule classique et indépendante, aux tarifs habituels.

Ce changement n’est pas reflété encore sur la page française des tarifs au moment où nous écrivons ces lignes. On peut le voir en revanche sur d’autres pages de pays de l’Europe, comme en Allemagne ou en Espagne. Les États-Unis, le Canada sont également concernés, entre autres.

Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

Audace
Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

Google a annoncé hier qu’elle déposait plainte contre Microsoft. La société accuse sa concurrente d’abuser de sa position dans l’univers du cloud. Microsoft enfermerait ses clients dans des conditions d’utilisation très défavorables au déménagement vers d’autres solutions hébergées, surtout à cause des coûts de migration.

Dans un billet de blog au vitriol, Google dépeint un Microsoft vorace. Windows Server est décrit comme l’élément central de l’architecture cloud de Microsoft, un produit essentiel que l’on pouvait auparavant installer sur n’importe quel type de matériel et dans toute solution cloud.

En 2019, changement de décor : les tarifs imposés aux entreprises voulant faire fonctionner Windows Server dans un cloud concurrent sont démultipliés. Google ajoute que d’autres mesures restrictives ont été ajoutées au cours des dernières années, notamment sur la réception des correctifs de sécurité et des barrières à l’interopérabilité.

Charge contre Azure et ses coûts cachés

Google étaye son propos par plusieurs études du CISPE (Cloud Infrastructure Services Providers in Europe), une association qui intervient souvent dans le domaine de l’IaaS (Infrastructure as a Service).

Dans l’une d’elles, publiée en juin 2023, l’économiste français Frédéric Jenny a écrit : « Le changement de politique BYOL [Bring Your Own Licence, ndlr] de Microsoft en 2019, qui a mis fin à la possibilité pour les utilisateurs de déployer des licences Office 365 sur site sur des infrastructures tierces, pourrait avoir entraîné des coûts de rachat de licences pour la première année équivalents à 560 millions d’euros pour le marché européen. Un surcoût supplémentaire d’un milliard d’euros, lié aux suppléments de licence imposés aux déploiements non-Azure de SQL Server, peut en outre être attribué au changement de politique ».

Google en cite une autre, datée de 2022, dans lequel le CISPE relève une augmentation soudaine des parts de marché de Microsoft dans le cloud après l’interdiction d’utiliser plusieurs clouds.

Il est à noter qu’au contraire d’Amazon, ni Google ni Microsoft ne font partie du CISPE. En revanche, devant la montée croissante des critiques sur ses modèles de licences, Microsoft a signé un accord avec la CISPE en juillet. Il fait suite à une plainte déposée par le CISPE sur cette même question des licences. Amazon Web Services a fustigé l’accord, tout comme Google, qui reprend pourtant les études du CISPE.

« Gaspillage », « argent détourné » et… CrowdStrike

Google, évoque ainsi le « gaspillage des contribuables », « l’argent détourné des investissements dans la croissance » et le « ralentissement des transformations numériques ».

Mais la société de Mountain View va plus loin en pointant le fiasco CrowdStrike comme une preuve supplémentaire : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ».

Un exemple étrange, pour plus d’une raison. D’une part, le plantage intervenant dans les clients Windows, pas sur les serveurs. D’autre part, il ne s’agissait pas d’un bug de Windows, mais d’un produit de CrowdStrike. Enfin, l’évènement n’est pas directement lié au cloud, mais au déploiement d’une mise à jour défectueuse de définition, comme sur n’importe quel antivirus.

Google se pose en champion de la différence, en rappelant notamment qu’elle a éliminé la première les fameux frais de sortie (egress fees). La société assure favoriser « l’octroi de licences équitables et transparentes » à ses clients et avoir été la première « à proposer des solutions de souveraineté numérique aux gouvernements européens ».

Une plainte pour abus de position dominante

Google a donc déposé plainte auprès de la Commission européenne contre Microsoft. Elle accuse sa concurrente d’avoir abusé de sa position dominante à travers des contrats de licence déloyaux. Dans les grandes lignes, Google reprend là où le CISPE a arrêté.

Microsoft, de son côté, se montre presque narquoise. « Microsoft a réglé à l’amiable des problèmes similaires soulevés par des fournisseurs de cloud européens, même si Google espérait qu’ils continueraient à plaider. N’ayant pas réussi à convaincre les entreprises européennes, nous nous attendons à ce que Google ne parvienne pas non plus à convaincre la Commission européenne », a déclaré Microsoft à The Verge.

Rappelons quand même que Microsoft est actuellement scrutée de près par plusieurs autorités pour ses pratiques dans le cloud. C’est particulièrement le cas au Royaume-Uni, où l’autorité de la concurrence se penche sur la gestion des licences chez Microsoft et AWS, particulièrement les frais de sortie.

Que peut espérer Google ? Le déclenchement officiel d’une enquête. Google, plusieurs fois condamnée sur le Vieux continent pour divers abus de position dominante (en 2017 et 2018 notamment), connait désormais bien le marteau européen.

☕️ Winamp Classic devient open source, mais pas trop

Hier, presque en grande pompe, une annonce a retenti : le bien-aimé – mais très âgé – Winamp Classic est devenu open source. Une annonce qui suivait une volonté affichée au printemps dernier.

Dans l’annonce officielle, publiée hier, Winamp claironne : « Le code source du lecteur Winamp est maintenant ouvert ! Développeurs et amateurs de rétro, c’est votre chance de façonner l’avenir du lecteur emblématique. Explorez, modifiez et développez le Classic que vous connaissez et aimez ».

Seulement voilà, la licence adoptée pour le code déposé sur GitHub n’est pas open source. Winamp n’a pas choisi une licence existante comme la GPL, la LGPL, la MIT ou la BSD. L’éditeur a créé la sienne, nommée WCL, pour Winamp Collaborative Licence.

Les personnes intéressées par d’éventuelles contributions peuvent ainsi « visualiser, accéder et étudier le code source ». La modification, elle, n’est autorisée que dans un cadre privé. Il est donc interdit de distribuer des versions modifiées et « seuls les responsables du dépôt officiel sont autorisés à distribuer le logiciel et ses modifications ».

Une précédente version interdisait également les forks, mais cette mention a disparu dans la version 1.0.1 de la licence. Reste que la modification n’est autorisée que pour un usage privé.

Sur X, les réponses à l’annonce sont particulièrement critiques et fustigent la licence. L’éditeur donne l’impression de n’annoncer des sources ouvertes que pour obtenir gratuitement une main d’œuvre, sans respecter l’esprit de l’open source. Devant les réactions hostiles, il n’est pas impossible que Winamp finisse par changer d’avis.

The #Winamp Legacy player source code is now open!

Developers & retro lovers, it’s your chance to shape the iconic player’s future.

Explore, modify, and build on the classic you know and love.

Get the details & access the code here: https://t.co/TX3sOaSbS5 pic.twitter.com/ZvDeKiJ1uO

— Winamp (@winamp) September 24, 2024

Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

Paradis artificiel
Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

Meta tenait hier sa conférence Connect et y a annoncé de nombreuses nouveautés. Nous allons nous concentrer ici sur le matériel, avec notamment un nouveau casque Quest 3S et les lunettes Orion, présentées comme « les plus avancées au monde ».

Réalité mixte : le Meta Quest 3S vient assurer la relève

Si le Quest 3 était vendu à un tarif relativement abordable de 479,00 euros (le prix vient de baisser), la version 3S est là pour enfoncer le clou. Annoncé à 329,99 euros, le nouveau casque est là pour prendre la relève des anciens modèles Quest 2 et Quest Pro, qui seront d’ailleurs tous deux mis au rebut d’ici la fin de l’année.

Ce tarif moins élevé entraine quelques conséquences à la baisse sur les prestations. Son stockage n’est ainsi que de 128 Go. Une version 256 Go est vendue pour 100 dollars supplémentaires. L’écran est lui aussi un peu moins bon. Sa résolution est de 1 832 x 1 920 pixels, soit le même que le Quest 2, face au Quest 3 et ses 2 064 x 2 208 pixels. Le champ de vision est, là encore, le même que sur le Quest 2 : 96° horizontal et 90° vertical, contre 110 et 96 sur le Quest 3.

En revanche, le cœur de l’appareil est le même que dans le Quest 3 : un Snapdragon XR Gen 2, épaulé par 8 Go de mémoire. La puissance est donc identique, ce qui devrait assurer une nette évolution en remplacement d’un ancien modèle. Pour les personnes ayant un Quest 3, le nouveau modèle n’a pas d’intérêt. Le Quest 3 reste donc à son positionnement de meilleur casque proposé par Meta.

La société fournit quelques bonus avec son nouveau casque de réalité mixte, notamment le jeu Batman : Arkham Shadow et trois mois d’abonnement au service Quest+. Ce dernier, commercialisé 8,99 euros par mois ou 69,99 euros par an, permet d’accéder à divers services, dont un catalogue de jeux. Le Meta Quest 3S reste compatible avec l’ensemble des applications déjà disponibles sur les casques de l’entreprise.

Les précommandes pour le Quest 3S sont ouvertes, pour une disponibilité annoncée au 15 octobre.

Une offensive sur les applications

On ne pouvait pas parler simplement du nouveau casque sans évoquer les changements envisagés par Meta pour l’environnement logiciel. Notamment, une refonte complète en préparation pour Horizon OS, le système d’exploitation qui équipe les casques de l’entreprise. L’interface sera entièrement remaniée et Meta assure qu’elle sera bien plus pratique.

Surtout, Meta a insisté sur l’idée que tous les développeurs d’applications Android pouvaient en créer pour Horizon OS. L’entreprise promet que ce sera possible avec tous les langages couramment utilisés et dans tous les IDE. En fait, les applications Android existantes peuvent être envoyées dans la nouvelle boutique de l’éditeur sans avoir à retravailler trop d’éléments. C’est du moins la promesse.

Meta met aussi en avant son nouveau kit de développement Meta Spatial pour accélérer le développement d’applications pensées spécifiquement pour les casques de réalité mixte, dont tout ce qui touche à la 3D et au spatial. Objets 3D flottants, atmosphères diverses et médias immersifs ont été cités en exemples. Les applications 2D classiques auront également du neuf dans le prochain Horizon OS : redimensionnement des fenêtres, mode théâtre, audio spatial, fonctionnement en arrière-plan…

Et pour donner le bon exemple, Meta s’est servi de ces nouveautés pour proposer des versions complètement remaniées de Facebook et Instagram à destination de son Horizon OS. Développées à partir de React Native (entre autres), elles servent de démonstration technique, tant pour les possibilités offertes pour la plateforme que pour illustrer la méthode pour les développeurs. Conférence oblige, Meta a annoncé que d’autres entreprises faisaient de même, notamment Amazon (pour Prime Video et Music), Twitch, etc.

Cette approche plus consensuelle vient des développeurs eux-mêmes, selon Meta. La firme s’est dit consciente de la difficulté qu’il y avait à créer des applications pour sa plateforme, qui venait s’ajouter à celles existantes. Sur scène, Andrew Bosworth, directeur technique de Meta, a même présenté ses excuses. Pour preuve, les applications web gagnent aussi de nouvelles capacités, pour les rapprocher des natives.

Lunettes Orion, le futur de la réalité augmentée selon Meta

Si la réalité virtuelle est toujours un marché pour Meta, la réalité augmentée en est un autre. On l’a déjà vu par son partenariat avec Ray-Ban, sur lequel nous reviendrons ensuite. Dans ce domaine, le futur chez Meta s’appelle cependant Orion.

Il s’agit d’un prototype de lunettes centrées sur la réalité augmentée. Elles sont équipées de petits projecteurs répartis dans les branches, afin de créer un affichage tête haute, à la manière de ce que font les dernières Google Glass.

Pour Meta, les lunettes développées avec Ray-Ban constituaient une introduction. « L’industrie de la réalité virtuelle rêve depuis longtemps de véritables lunettes AR. Un produit qui combine les avantages d’un grand écran holographique et d’une assistance IA personnalisée dans un format confortable et portable tout au long de la journée. Orion relève le défi », assure Meta.

La société est si sûre d’elle qu’elle affirme qu’Orion a le plus grand champ de vision (environ 70°) dans le plus petit format de lunettes AR. Toutes les utilisations sont envisageables, comme des fenêtres multiples, les divertissements sur grand écran, ou encore des hologrammes de personnes en taille réelle. Le tout largement alimenté par Meta AI et pour un poids inférieur à 100 grammes.

Un concept loin de la commercialisation

Il y a pour l’instant peu d’informations concrètes sur les lunettes Orion. Elles contiennent dix puces et sept caméras, un système de suivi oculaire, et sont constituées d’un alliage de magnésium. Elles ne sont pas totalement autonomes, car un boitier l’accompagne. Il contient deux processeurs et est chargé d’effectuer une partie des calculs, transmettent ensuite les résultats sans fil. Les lunettes se chargent du suivi des yeux et des mains, ou encore de tout ce qui touche à l’affichage, mais la logique applicative est calculée par le boitier. Pas un mot en revanche sur l’autonomie de ces appareils.

On sait cependant que le produit ne sera pas disponible pour le grand public. Seulement pour les développeurs, à l’instar des récentes Spectacles 5 lancées par Snap et pour un tarif encore inconnu. Le produit présenté reste encore proche d’un concept et The Verge évoquait, il y a deux ans déjà, une production coûtant la bagatelle de 10 000 dollars l’unité.

Mais au crédit de Meta, l’entreprise ne parle de ses lunettes que comme « une fenêtre sur l’avenir » et « un regard sur les possibilités très réelles à notre portée aujourd’hui ».

Un bracelet basé sur l’électromyographie

Et si ce n’était pas suffisant, Meta développe aussi une « interface neuronale » pour ses lunettes Orion, insérée dans un bracelet. Ces travaux avaient été présentés dès 2021. Meta expliquait alors que le bracelet était basé sur des capteurs de type EMG (électromyographie) pour envoyer des instructions aux lunettes. Concrètement, le bracelet permet de donner des ordres en effectuant des mouvements.

Ce serait alors une alternative à des casques plus classiques comme HoloLens chez Microsoft ou le Vision Pro d’Apple, qui utilisent des caméras pour repérer des mains. Mais les capacités réelles du bracelet sont encore largement inconnues, mais les exemples donnent une idée : « Imaginez que vous preniez une photo pendant votre jogging matinal d’un simple effleurement du bout des doigts ou que vous naviguiez dans les menus avec des mouvements à peine perceptibles de vos mains ». Meta précise que son bracelet serait capable de capter les signaux électriques générés par les mouvements musculaires. La firme dit travailler intensément sur ce type de technologie.

Les lunettes Ray-Ban reçoivent des nouveautés

Quant aux lunettes développées avec Ray-Ban, Meta leur apporte diverses nouveautés, certaines significatives, qui doivent arriver d’ici la fin de l’année.

Il s’agit dans les grandes lignes de rapprocher ces lunettes de fonctions dont on a l’habitude avec les smartphones, avec une bonne dose d’IA. Meta AI est d’ailleurs au premier plan, avec la traduction en direct des langues, le traitement vidéo en temps réel, les rappels, la reconnaissance des codes QR, l’intégration avec Amazon Music, iHeartRadio et Audible…

Le traitement vidéo, en particulier, est une étape majeure. Il devient possible pour l’utilisateur de poser des questions sur ce qu’il voit. Jusqu’ici, l’IA ne pouvait répondre que sur la base d’une photo ou d’une description vocale. C’est du moins la promesse faite par Meta, via des démonstrations bien sûr impressionnantes. Les réponses seront-elles aussi utiles et rapides en pratique ?

D’ici la fin de l’année, il sera également possible de commander ces lunettes avec des verres Transition, dont la teinte variera en fonction de la quantité d’UV.

noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

L'enfer en est pavé
noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

L’association noyb, bien connue pour ses différentes plaintes en Europe liées à la vie privée, a désormais Mozilla dans le collimateur. La faute à la « Privacy Preserving Attribution » (PPA), mécanisme devant s’interposer entre les internautes et le suivi publicitaire assuré traditionnellement par les cookies.

La PPA, ou « attribution préservant la vie privée » en français, a été présentée en grande pompe par Mozilla. La fondation travaillait sur le sujet depuis un moment déjà, mais tout est devenu beaucoup plus évident à la sortie de Firefox 128, quand le mécanisme a été activé par défaut. Et dès le début, il a provoqué des remous.

Qu’est-ce que la PPA ?

De quoi s’agit-il ? D’une technique relativement similaire à ce que tentent de mettre en place des entreprises comme Apple et Google via des systèmes de « cohortes » et de données anonymisées (en théorie) et agrégées. Celui d’Apple a provoqué la colère de l’industrie de la publicité, alors que Google peine à convaincre avec sa Privacy Sandbox, que noyb a d’ailleurs attaqué en juin.

Au départ, les intentions de Mozilla sont bonnes. Partant du principe que les cookies tiers autorisent un suivi bien trop précis et intrusif des internautes, la fondation voulait proposer une alternative. Elle consiste, dans les grandes lignes, à poser Firefox comme intermédiaire dans la chaine d’informations allant de l’internaute à la régie publicitaire.

Les sites peuvent ainsi demander à Firefox un rapport d’activité sur le comportement des internautes sur une publicité donnée. Le navigateur crée le rapport, le chiffre, puis l’envoie à un service d’agrégation, via un protocole spécifique et sécurisé (Distributed Aggregation Protocol), que Mozilla cherche d’ailleurs à faire normaliser auprès de l’IETF.

Qui dit agrégation dit collecte et rassemblement. Les rapports générés par Firefox ne sont en effet pas envoyés immédiatement. Le service d’agrégation attend de pouvoir combiner un grand nombre de rapports témoignant d’un comportement similaire par d’autres personnes. Quand la quantité d’informations passe un certain seuil, la régie publicitaire reçoit un lot d’informations statistiques anonymes sur un groupe, et non sur une unique personne.

« Les annonceurs ne reçoivent que des informations globales qui répondent à des questions basiques sur l’efficacité de leur publicité », affirmait Mozilla au début de l’été.

Quel est le problème ?

« Contrairement à son nom rassurant, cette technologie permet à Firefox de suivre le comportement des utilisateurs sur les sites web », indique noyb dans un communiqué de presse.

L’association, fondée par Max Schrems, reproche essentiellement deux points à Mozilla dans sa plainte, déposée en Autriche. D’une part, le déplacement du contrôle dans le suivi des internautes : « En fait, c’est le navigateur qui contrôle le suivi et non plus les sites web individuels ».

D’autre part, si noyb reconnait qu’il s’agit « d’une amélioration par rapport au suivi des cookies, en plus invasif », elle ne pardonne pas l’activation par défaut dans Firefox 128. « L’entreprise n’a jamais demandé à ses utilisateurs s’ils souhaitaient l’activer ».

noyb estime le mouvement « particulièrement inquiétant, car Mozilla a généralement la réputation d’être une alternative respectueuse de la vie privée, alors que la plupart des autres navigateurs sont basés sur Chromium de Google ». Comparant la PPA à la Privacy Sandbox de Google, l’association estime que Mozilla fait de Firefox un outil de suivi des internautes, sans consentement et donc en violation du RGPD.

« Il est dommage qu’une organisation comme Mozilla pense que les utilisateurs sont trop bêtes pour dire oui ou non. Les utilisateurs devraient pouvoir faire un choix et la fonction aurait dû être désactivée par défaut », fustige Felix Mikolasch, l’un des avocats de noyb.

L’association souligne par ailleurs le manque criant de force de frappe de Mozilla dans le domaine des navigateurs. Firefox n’a pas assez de parts de marché pour influer sur le monde de la publicité. En conséquence, la PPA ne peut pas remplacer le système des cookies et devient un moyen parmi d’autres de suivre les internautes, « en dépit de ses bonnes intentions ».

Mozilla reconnait en partie ses torts

Mozilla a réagi auprès de plusieurs médias, dont TechCrunch. Christopher Hilton, son directeur de la communication, n’est pas d’accord avec l’analyse faite par noyb.

Pour Mozilla, le mécanisme « permet aux annonceurs de mesurer l’efficacité globale des publicités sans collecter d’informations permettant d’identifier des individus spécifiques ». En outre, « la PPA s’appuie sur des techniques cryptographiques pour permettre une attribution agrégée qui préserve la vie privée. Ces techniques empêchent toute partie, y compris Mozilla, d’identifier des individus ou leur activité de navigation ».

En revanche, Mozilla reconnait qu’elle aurait pu mieux communiquer sur la PPA, notamment en impliquant « des voix extérieures ». Christopher Hilton affirme également qu’en dépit de l’activation par défaut de la PPA dans Firefox 128, le mécanisme ne l’est pas réellement. « L’itération actuelle de PPA est conçue pour être un test limité au site du Mozilla Developer Network ». Un point sur lequel Mozilla n’avait pas non plus communiqué.

La plainte de noyb, en conséquence, demande deux actions pour l’Union européenne : qu’un consentement explicite soit demandé aux internautes pour activer la PPA et que les données collectées soient supprimées. Mozilla, elle, dit se réjouir de travailler avec noyb pour progresser sur son mécanisme, dans lequel elle croit fermement.

☕️ Gmail déploie sa marque bleue de vérification dans ses applications Android et iOS

En mai de l’année dernière, Google lançait une marque bleue de vérification pour Gmail. Elle était jusqu’ici réservée à la version web. Il aura fallu plus d’un an, mais elle est maintenant déployée dans les applications Android et iOS. La diffusion va se faire sur plusieurs semaines.

Cette marque bleue indique que la source a été vérifiée et est authentique. Elle met donc en avant la confiance. Elle est basée sur la spécification BIMI, pour Brand Indicators for Message Identification. BIMI permet aux entreprises avec une marque déposée de faire valider leur logo pour que celui-ci s’affiche en médaillon dans les clients email dans les courriers émis.

« Actuellement, Gmail sur le web affiche une coche vérifiée pour les expéditeurs qui ont adopté le BIMI avec une marque déposée (VMC). Au cours des prochaines semaines, les utilisateurs verront également ces icônes de coche vérifiée lorsqu’ils utiliseront l’application Gmail sur Android et iOS », indique Gmail. La société précise que cet apport n’est valable que pour les marques déposées.

Et si l’on ne dispose pas de marque déposée, mais que l’on souhaite prouver quand même sa légitimité ? Gmail propose un autre type de certificat, nommée CMC, pour « certificat de marque commune ». Le CMC permet aussi d’utiliser BIMI pour valider le logo, mais il n’y aura pas de coche bleue.

☕️ Sur Azure OpenAI, les images générées par DALL-E ont désormais un filigrane

Microsoft a commencé l’année dernière à insérer des filigranes dans certains contenus. Le processus a démarré avec les voix générées par Azure AI Speech, présenté lors de la conférence Ignite 2023. L’éditeur passe à la vitesse supérieure avec les images générées par DALL-E dans Azure OpenAI.

Le filigrane, disponible en préversion, comporte des informations réparties dans plusieurs champs. Dans « Description », on trouve ainsi la mention « AI Generated Image ». « softwareAgent » contient la valeur « Azure OpenAI DALL-E » pour attester de sa provenance. Quant à « When », il comporte l’horodatage de la création du contenu.

Ces informations sont insérées dans un manifeste faisant partie intégrante de l’image. Ce manifeste est signé cryptographiquement par un certificat remontant jusqu’à Azure OpenAI. Le filigrane est invisible à l’œil et n’est pas altéré par des opérations comme le redimensionnement ou le recadrage.

Impossible bien sûr de ne pas penser à des techniques simples comme la capture d’écran pour récupérer le contenu sans son filigrane. Toutefois, l’objectif est d’abord d’assurer une circulation de confiance entre un nombre croissant d’acteurs.

Microsoft travaille pour rappel au sein de la Coalition for Content Provenance and Authenticity (C2PA) avec des partenaires comme Adobe, Arm, Intel, ou encore la BBC et la plateforme de vérification Truepic.

Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

Après les remontrances, la transparence
Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

Microsoft vient de publier un premier rapport pour présenter les actions prises dans le cadre de sa Secure Future Initiative. La société affirme qu’il s’agit du plus vaste projet de cybersécurité de l’histoire. Elle veut montrer, par l’ampleur de ces mesures, qu’elle a retenu les enseignements du passé, voire qu’elle peut être une source d’inspiration.

La Secure Future Initiative (SFI) a été annoncée en novembre 2023. La société de Redmond avait présenté de grands objectifs, présentant un plan de révision intégrale de sa cybersécurité. Il s’agissait autant de mieux protéger ses propres infrastructures que ses clients, à travers la longue liste de produits qu’elle propose. Tout particulièrement dans le cloud.

Comment l’entreprise en est-elle arrivée à lancer cette initiative ? À la suite d’une série d’incidents de sécurité. Ce fut particulièrement le cas en septembre 2023, quand Microsoft a révélé qu’un groupe de pirates chinois, nommé Storm-0558, avait réussi à s’infiltrer dans des comptes email, dont plusieurs appartenaient à des gouvernements (américain et européens). Des informations avaient été volées.

Après l’annonce de la SFI, plusieurs autres incidents ont eu lieu. En janvier, des groupes de pirates russes ont cette fois réussi à avoir accès à des comptes email de responsables chez Microsoft. Là encore, il y avait eu vol d’informations. Deux mois plus tard, les mêmes groupes ont réussi à s’introduire dans plusieurs dépôts de code de Microsoft sur GitHub.

Conséquence, l’entreprise a annoncé en mai que la sécurité était désormais sa « priorité absolue ». Six piliers avaient été identifiés (nous y reviendrons). Enfin, trois grands principes ont été proclamés : sécurité dès la conception, sécurité par défaut et opérations sécurisées. Dans un premier rapport, Microsoft résume ainsi l’ensemble des actions prises depuis les évènements de l’été 2023.

Une nouvelle organisation

Depuis, Microsoft s’est doté d’un conseil de gouvernance de la cybersécurité. Il est composé de treize RSSI (responsables de la sécurité des systèmes d’information) adjoints, sous la houlette du RSSI de l’entreprise, Igor Tsyganskiy. Chaque RSSI adjoint est en charge de la sécurité dans une division de Microsoft, comme Azure, IA, Microsoft 365, Gaming et ainsi de suite.

« Le Conseil de gouvernance de la cybersécurité collabore avec les responsables de l’ingénierie de la SFI pour définir et hiérarchiser les travaux ainsi que pour définir les orientations futures. Le conseil est responsable de la mise en œuvre des exigences réglementaires, de la conformité permanente et de la détermination de l’architecture de sécurité nécessaire pour atteindre nos objectifs. Le conseil rend compte des risques cyber et de la conformité au RSSI, qui à son tour communique ces informations à l’équipe de direction et au conseil d’administration de Microsoft », indique le rapport.

Microsoft infuse également une plus grande dose de cybersécurité chez l’ensemble des employés, qui n’ont plus le choix. Définie comme priorité absolue, elle compte désormais dans les évaluations de performances. Chaque employé est donc tenu de s’y engager et doit rendre des comptes. Un lien a également été établi entre la sécurité et la rémunération pour la direction.

En juillet dernier, l’entreprise a créé une Security Skilling Academy. Elle a pour mission de concentrer les ressources et former les employés. « L’académie garantit que, quel que soit leur rôle, les employés sont équipés pour donner la priorité à la sécurité dans leur travail quotidien et pour identifier le rôle direct qu’ils jouent dans la sécurisation de Microsoft », ajoute l’entreprise.

Pour surveiller les progrès réalisés dans le cadre de la SFI, la direction examine chaque semaine un rapport. Le conseil d’administration en reçoit un chaque trimestre.

Les actions entreprises sur les « six piliers »

Microsoft vante avec ce rapport son « approche globale de la cybersécurité ». Satya Nadella, CEO de l’éditeur, avait indiqué au printemps que faire de la sécurité une priorité se traduirait notamment par certains renoncements. « Si vous devez choisir entre la sécurité et une nouvelle fonction, choisissez la sécurité », avait ainsi indiqué le dirigeant. La firme avait également identifié six piliers sur lesquels concentrer ses actions.

Sur la protection des identités et des secrets, une partie du travail a consisté à mettre à jour Entra ID (anciennement Azure Active Directory) et Microsoft Account (MSA) sur les clouds publics et gouvernementaux. Leur génération, leur stockage et leur rotation sont désormais gérés automatiquement par Azure Managed Hardware Security Module (HSM, protection matérielle).

Microsoft met aussi en avant une validation plus cohérente des jetons de sécurité (via ses SDK d’identité standards). La recherche et la détection de menaces ont été incluses dans le processus, avec activation de ces fonctions dans plusieurs services critiques. La vérification des utilisateurs par vidéo a été mise en place pour 95 % des utilisateurs internes.

Vient ensuite la protection des « tenants » et l’isolation des systèmes de production. Les tenants (terme anglais) désignent les locataires, qui peuvent être des personnes physiques ou morales, chacune ayant son propre nuage privé au sein d’une infrastructure publique (comme un appartement au sein d’un immeuble). Suite à une révision du cycle de vie des applications impliquées, 730 000 inutilisées ont été supprimées. Microsoft dit avoir également éliminé 5,75 millions de tenants inactifs, avec une nette réduction de la surface d’attaque à la clé. Les créations de tenants pour les tests et expérimentations ont été rationalisées, avec des valeurs sécurisées et une gestion plus stricte de la durée de vie.

Centralisation, inventaire et rationalisation

Sur les réseaux, Microsoft dit avoir enregistré plus de 99 % de ses actifs physiques dans un inventaire central. Il permet notamment le suivi de la propriété et la conformité des microprogrammes (firmwares). Les réseaux virtuels ayant une connectivité dorsale (internet) ont été isolés du réseau d’entreprise et sont soumis à des examens complets réguliers. Certaines de ces actions ont été répercutées dans les produits clients pour aider à sécuriser les déploiements.

Même effort de centralisation sur les pipelines de production pour le cloud commercial, 85 % étant désormais gérés de manière centralisée. Microsoft évoque des « déploiements plus cohérents, plus efficaces et plus fiables ». En outre, la durée de vie des jetons d’accès personnels a été réduite à 7 jours, l’accès à SSH a été coupé pour les dépôts internes d’ingénierie et le nombre de rôles élevés ayant accès à ces systèmes a été nettement réduit. Des contrôles de preuve de présence ont été installés sur les points critiques des flux de code, dans le cadre du développement des logiciels.

Rationalisation également pour tout ce qui touche à la surveillance et la détection des menaces, notamment tout ce qui touche aux journaux d’audits de sécurité. Une garantie, selon Microsoft, pour des données télémétriques pertinentes. « Par exemple, nous avons mis en place une gestion centralisée et une période de conservation de deux ans pour les journaux d’audit de sécurité de l’infrastructure d’identité », ajoute l’entreprise.

Enfin, des efforts ont été faits pour améliorer le temps de réponse et de remédiation, répartis en deux axes. D’une part, des processus actualisés pour réduire le délai d’atténuation quand des failles critiques sont découvertes dans le cloud. D’autre part, une plus grande transparence dans la communication. Les vulnérabilités critiques font maintenant l’objet de bulletins CVE, même quand aucune action client n’est requise. En outre, un « Bureau de gestion de la sécurité des clients » a été créé pour mieux communiquer avec la clientèle, surtout pendant les incidents de sécurité.

Entre actions concrètes et exercice de communication

Le rapport de Microsoft est intéressant à plus d’un titre. Il offre bien sûr une visibilité sur les actions concrètement entreprises par une structure énorme sur la sécurité. Mais il s’agit, à un même degré d’importance, d’un exercice de communication.

Le rapport est assez détaillé pour être un véritable travail de transparence. Il livre également des remarques intéressantes, notamment sur la formation du personnel. Microsoft plonge par exemple dans la perception classique d’une sécurité vue comme antagoniste à la productivité. La formation continue est donc présentée comme la solution, qui ne donne pas des résultats immédiats, mais permet de créer de nouveaux réflexes et donc, à terme, de rattraper la productivité « perdue ».

Microsoft présente en outre ce rapport comme le premier, ajoutant que ce surplus de sécurité n’en est qu’à ses débuts. À la fin du document, on peut d’ailleurs observer un tableau listant les recommandations qui lui avaient été faites par le CSRB (Cyber Safety Review Board), lui-même faisant partie de la CISA (Cybersecurity & Infrastructure Security Agency). Après les incidents de sécurité de l’année dernière, le Board avait en effet émis des critiques virulentes, concluant que seule une « cascade de défaillances » avait pu permettre à l’attaque de Storm-0558 de réussir.

☕️ Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

Une petite dizaine de Mac datant de 2015 et 2016 sont désormais considérés comme « obsolètes » par Apple, comme l’a remarqué MacRumors. Traduction, ils ne peuvent plus faire l’objet d’une réparation en boutique Apple ou agréée.

Ces machines incluent six MacBook et trois iMac :

  • MacBook Retina 12 pouces (début 2016)
  • MacBook Air 13 pouces (début 2015)
  • MacBook Pro 13 pouces avec deux ports Thunderbolt (2016)
  • MacBook Pro 13 pouces avec quatre ports Thunderbolt (2016)
  • MacBook Pro 15 pouces (2016)
  • MacBook Pro Retina 13 pouces (début 2015)
  • iMac 21,5 pouces (fin 2015)
  • iMac Retina 4K 21,5 pouces (fin 2015)
  • iMac Retina 5K 27 pouces (fin 2015)

Parallèlement, trois autres configurations entrent dans la catégorie des machines considérées comme « anciennes » : le MacBook Air Retina 13 pouces de 2018, le MacBook Pro 13 pouces avec deux ports Thunderbolt de 2017 et celui avec quatre ports de 2018.

Quand une machine est considérée comme ancienne, elle peut toujours être réparée, mais à la condition que les pièces soient toujours disponibles. Comme le rappelle notamment MacG, il faut encore que l’opération soit « rentable », car ces réparations peuvent s’avérer très onéreuses selon les pièces demandées.

Aujourd’hui, le plus vieux Mac pris en charge par le dernier macOS, Sequoia, est l’iMac Pro de 2017.

Ubuntu 24.10 fait sa rentrée : noyau 6.11, GNOME 47, Wayland pour tous et APT 3.0

Avec... des colonnes dans APT !
Ubuntu 24.10 fait sa rentrée : noyau 6.11, GNOME 47, Wayland pour tous et APT 3.0

Canonical a publié la bêta de sa nouvelle distribution Ubuntu 24.10 vendredi soir. Cette version vient marquer le 20ᵉ anniversaire du système, avec quelques clins d’œil au passage. Si cette nouvelle mouture comporte surtout une modernisation générale de ses composants, on trouve aussi quelques apports visibles, comme un nouveau centre de sécurité.

Automne oblige, deux des distributions les plus utilisées sont renouvelées coup sur coup. Nous avons vu la première, Fedora, la semaine dernière avec la bêta de la version 41. Très riche en nouveautés, surtout sous le capot, elle arrivera à la fin du mois prochain. La seconde, Ubuntu, a elle aussi une bêta pour sa nouvelle mouture. Celle-ci, estampillée 24.10 et nommée « Oracular Oriole », sera pourtant disponible en version stable plus tôt, dans trois semaines.

Si Fedora est un laboratoire pour les nouvelles technologies, Ubuntu reste aujourd’hui la distribution la plus importante après Debian, sur laquelle elle est basée. Ubuntu sert de fondation à de nombreuses distributions, en particulier ses moutures LTS (Long Term Support), comme dans le cas de Linux Mint. Les versions intermédiaires sont un peu moins importantes, mais restent utilisées par de nombreuses personnes.

Là aussi, un noyau 6.11 et GNOME 47

Une partie des nouveautés d’Ubuntu vient du noyau Linux 6.11 et de GNOME 47, comme dans Fedora. Nous n’allons pas lister de nouveau tous ces apports. Ils sont nombreux et décrits dans notre article sur Fedora 41.

Signalons quand même que le choix de la couleur d’accentuation, qu’Ubuntu avait mis en place en 2022, est remplacé par la fonction native de GNOME 47. La présentation est pratiquement identique, l’équipe de GNOME ayant largement repris ce que Canonical proposait. Cette reprise devrait favoriser la cohérence graphique.

Ubuntu 24.10 adopte également les nouvelles fenêtres de dialogue, là encore pour des questions de cohérence à travers tout le système. On retrouve certaines autres évolutions importantes, comme une amélioration du comportement de l’interface sur les petits écrans, l’accélération matérielle pour l’enregistrement vidéo de l’écran, un meilleur rendu GTK sur le vieux matériel ou encore la persistance des sessions distantes.

Quoi de neuf dans Ubuntu 24.10 ?

Commençons les nouveautés visibles avec le Dock. Plusieurs améliorations ont été faites, notamment la manière dont les applications épinglées signalent leur mise à jour. L’approche retenue jusqu’ici était une disparition pure et simple des icônes et leur réapparition quelques secondes plus tard. Pas nécessairement évident. Canonical change de fusil d’épaule : désormais, l’icône sera simplement grisée et une barre de progression apparaitra en dessous.


Il reste 52% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

Lors de la démonstration officielle d’Apple Intelligence à la WWDC en juin dernier, l’entreprise a présenté l’ensemble de nouveautés en un tout unique. Pourtant, toutes ces fonctions n’arriveront pas en même temps, sans parler de la disponibilité géographique.

Aux États-Unis, on savait déjà qu’il faudrait attendre iOS/iPadOS 18.1 et macOS 15.1 le mois prochain pour avoir les premières briques d’Apple Intelligence. Selon Mark Gurman, connu pour la fiabilité générale de ses informations et cité par iGen, les fonctions vont même être déployées progressivement sur une période allant d’octobre à mars prochain.

Le calendrier prévu serait ainsi :

  • iOS 18.1 en octobre avec la nouvelle interface de Siri, les outils pour le texte, le tri des notifications et des emails, ainsi que la gomme magique ;
  • iOS 18.2 en décembre, avec les Genmoji, Image PlayGround, l’intégration de ChatGPT, la nouvelle interface de Mail et la disponibilité aux autres pays anglo-saxons (ce dernier point a été annoncé par Apple) ;
  • iOS 18.3 en janvier, avec d’autres nouveautés pour Siri et le support de nouvelles langues ;
  • iOS 18.4 en mars, avec le nouveau Siri complet, le contrôle des applications et le support des connaissances personnelles.

Encore une fois, ce calendrier, même s’il s’avérait correct, ne présume en rien de la disponibilité d’Apple Intelligence dans le reste du monde, surtout en Europe. Apple a déjà déclaré que la législation européenne était trop complexe (DMA en tête), ce qui provoquerait un retard sur le Vieux continent. Une rhétorique que l’on a récemment retrouvée dans la lettre ouverte de Meta et Spotify à la Commission européenne.

☕️ Le prix de YouTube Premium s’envole dans certains pays

Mauvaise nouvelle pour les personnes abonnées à YouTube Premium dans certains pays. Google y procède actuellement à un ajustement des tarifs et certaines augmentations sont très significatives.

C’est le cas notamment pour la Belgique, l’Irlande, l’Italie et les Pays-Bas, puisque l’offre classique passe de 11,99 à 13,99 euros, et surtout le forfait familial de 17,99 à 25,99 euros par mois. Évolutions similaires en Suisse, avec un forfait classique à 17,90 CHF (contre 15,90) et une formule familiale à 33,90 CHF (contre 23,90).

Le forfait familial est celui qui reçoit les plus importantes augmentations, avec souvent dans les 50 % supplémentaires. Au Danemark, le forfait passe ainsi de 177 à 259 DKK. En Suède, il passe de 179 à 279 SEK. En République tchèque, le tarif s’envole de 269 à 389 CZK.

Comme on peut le voir sur Reddit, de nombreuses personnes reçoivent actuellement un email les avertissant du changement. Plusieurs déclarent se désabonner en conséquence.

☕️ Qualcomm aurait approché Intel pour un rachat

Qualcomm aurait approché Intel pour un rachat

Selon le Wall Street Journal, Qualcomm aurait approché Intel en vue d’un rachat. Il existerait une grande incertitude autour de l’opération, le Journal précisant qu’aucun détail financier n’a filtré. Ce n’est d’ailleurs pas la première fois qu’une telle opération fait l’objet de rumeurs. Au début du mois, Reuters rapportait ainsi que Qualcomm était intéressée par une partie des activités d’Intel, celles liées à la conception de puces.

Que la rumeur soit fondée ou non, elle est représentative d’une période troublée pour Intel. La société, grande spécialiste des puces x86, peine à maintenir ses marges et ses parts de marché entre un AMD qui s’est largement développé sous la houlette de Lisa Su et un marché Arm en pleine expansion, dopé par l’IA.

Il faut dire que l’année 2024 a été riche en mauvaises nouvelles pour Intel. Plus tôt dans l’année, la firme avait ainsi annoncé un plan d’économies. Il doit notamment aboutir au licenciement de 15 % de son personnel d’ici la fin de l’année.

Plus récemment, la société a annoncé que ses activités de fonderie (Intel Foundry) allaient être transférées à une entité indépendante et que deux projets de construction d’usines étaient suspendus. Intel pourrait également se séparer d’Altera, un spécialiste de puces FPGA qu’elle avait racheté en 2015.

Qualcomm, pendant ce temps, ne connait pas vraiment la crise. Le géant américain, dont les puces alimentent une grande partie des smartphones Android, n’oublie pas l’IA et améliore graduellement ses NPU. Parallèlement, la société propose ses Snapdragon X dans les PC Copilot+, avec des performances globalement convaincantes.

Un tel rachat serait-il envisageable ? Rien d’impossible, même si cette opération serait examinée de très près par les autorités compétentes. Le rachat d’un géant par un autre accoucherait d’un puissant mastodonte, doté d’une force de frappe en x86 comme en Arm, et assez bien positionné en IA.

Parallèlement, Bloomberg rapporte qu’Apollo Global Management, spécialisée dans la gestion d’actifs, aurait aussi approché Intel. Le but serait tout autre : un investissement de 5 milliards de dollars, sous forme d’une prise de participation. L’examen de la proposition n’en serait qu’au stade préliminaire. Ce ne serait pas la première fois qu’Apollo investit dans Intel, puisqu’elle va prendre une participation de 49 % dans une coentreprise qui doit aboutir à une nouvelle usine en Irlande.

IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Il y a la bonne Europe et la mauvaise Europe
IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Dans une lettre ouverte, des dizaines d’entreprises, menées par Meta, ont lancé une charge contre l’Union européenne. Dans ce plaidoyer, elles réclament un cadre juridique clair pour ne pas entraver l’innovation. Meta, à la tête de la colonne, oppose régulation et innovation, dans une ambiance tendue entre l’Europe et les grandes sociétés américaines.

La lettre, publiée hier, réunit un lot d’entreprises, d’institutions diverses et de chercheurs. On y retrouve ainsi Nabla, CampusAI, SAP, Spotify, Criteo, Kornia AI, Essilor Luxottica, Bineric AI, Prada, Pirelli, ou encore les universités de Milan et de Harvard.

Le groupe, mené par Meta et Spotify – régulièrement associées dans le domaine de l’intelligence artificielle – dit craindre que l’Europe rate le coche de l’intelligence artificielle, laisse filer des milliards d’euros d’investissements et accentue son retard technologique.

Une Europe « moins compétitive et moins innovante »

« La réalité est que l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions et qu’elle risque maintenant de prendre encore plus de retard dans l’ère de l’IA en raison de décisions réglementaires incohérentes », déclarent-ils. Pourquoi ? À cause de « l’absence de règles cohérentes ».

En conséquence, l’Europe pourrait selon les signataires « passer à côté de deux pierres angulaires de l’innovation en matière d’IA » : l’évolution des modèles ouverts et les modèles multimodaux. « La différence entre les modèles textuels et les modèles multimodaux est comparable à la différence entre un seul sens et les cinq sens », affirme la lettre ouverte. Un seul exemple est donné : Llama, « modèle ouvert d’avant-garde », développé par Meta.

Or, ces modèles peuvent aussi bien stimuler la recherche scientifique et la productivité qu’ajouter des « centaines de milliards d’euros à l’économie européenne ». Les auteurs en veulent pour preuve les améliorations permises dans la recherche médicale et la préservation des langues. La lettre mentionne des exemples provenant de HuggingFace, qui n’est pas signataire de la lettre ouverte.

Sans ces modèles et les outils qui les accompagnent, « le développement de l’IA se fera ailleurs, privant les Européens des avancées technologiques dont bénéficient les États-Unis, la Chine et l’Inde », prévient la lettre.

Éléments de langage

Toujours selon les signataires, la grande force de l’Union européenne dans le domaine réside dans son marché unique et son « corpus réglementaire commun Mais la prise de décision réglementaire serait, « devenue fragmentée et imprévisible, tandis que les interventions des autorités européennes de protection des données ont créé une énorme incertitude quant aux types de données qui peuvent être utilisées pour former des modèles d’IA ».

Le risque ? Multiple selon la lettre. D’abord, selon des études non citées, l’IA générative pourrait accroitre le PIB mondial de 10 %. Les citoyens européens pourraient « être privés de cette croissance ». Tout ce qui touche à la prochaine génération d’IA en source ouverte, ainsi que les produits et services qui l’en découleront, ne prendraient alors pas en compte « les connaissances, la culture ou les langues européennes ».

L’Union européenne risque également de passer à côté d’autres innovations, « comme l’assistant d’IA Meta, qui est en passe de devenir l’assistant d’IA le plus utilisé au monde d’ici à la fin de l’année ». Une menace à peine voilée. Yann LeCun, qui dirige la recherche en IA chez Meta, l’a également pointé sur X. Parlant de Llama, il a indiqué : « La prochaine version sera multimodale et comprendra les informations visuelles. Cependant, Meta ne diffusera pas cette version dans l’UE en raison de restrictions réglementaires concernant l’utilisation de contenus affichés publiquement par des utilisateurs de l’UE ».

Aussi, les signataires espèrent que les régulateurs européens se reprendront. « Nous avons besoin de décisions harmonisées, cohérentes, rapides et claires dans le cadre des règlements de l’UE sur les données, qui permettent d’utiliser les données européennes dans la formation à l’IA au profit des Européens », ajoutent-ils, projetant un éclairage plus cru sur leurs intentions.

Une opposition franche entre innovation et régulation

La lettre est problématique à plus d’un titre. Elle ambitionne de faire craindre l’immense opportunité ratée d’investissements capables de mettre l’Europe au même niveau que les États-Unis, la Chine ou l’Inde. Elle brosse un portrait mortifère : l’Union européenne est en train de rater sa chance, à cause de régulations trop lourdes. Un bourbier dans lequel se débattraient les entreprises, qui cherchent à innover et à faire bénéficier les citoyens européens de ces nouvelles technologies. Curieusement d’ailleurs, l’AI Act n’est jamais évoqué.

Cette lettre ouverte, qui semble essentiellement avoir été écrite par Meta, n’est pas sans rappeler les communications d’Apple contre le DMA. L’émotion et la crainte plutôt que des données et statistiques précises. Des éléments de langage souvent efficaces, mais qui masquent mal les ambitions d’une grande entreprise américaine face à l’Europe. Apple a par exemple déclaré que le retard de son bouquet de fonctions en IA en Europe était dû à sa législation.

Qu’il s’agisse de Meta, Microsoft, Apple, Amazon ou Google, la course à l’IA est devenu le mètre-étalon du progrès technologique. Même si Apple n’a pris le train qu’avec beaucoup de retard – et s’est retrouvée en partie coincée par le manque de mémoire vive dans ses produits – elle est, comme les autres, lancée dans une vaste course. Or, toutes ces entreprises sont très friandes de données et le réservoir européen leur est en grande partie fermé, notamment à cause du RGPD.

Meta a fait l’expérience de ce règlement, puisqu’elle a été condamnée plusieurs fois pour l’avoir enfreint : 390 millions d’euros en janvier 2023, 1,2 milliard d’euros quatre mois plus tard. L’entreprise de Mark Zuckerberg n’apprécie sans doute pas non plus le DMA, puisque ses formules « payer ou accepter » sont incompatibles aussi bien avec la loi sur les marchés numériques qu’avec le RGPD. Meta a également été forcée de mettre en pause son projet d’entrainer ses IA avec les données de ses utilisateurs européens.

Les compères Meta et Spotify

Il n’est pas surprenant de voir Meta et Spotify main dans la main dans cette lettre ouverte. Les entreprises sont très proches sur les questions d’intelligence artificielle depuis plusieurs années.

L’arrivée de cette lettre ouverte n’est d’ailleurs pas une surprise. Le 23 aout, Spotify et Meta avaient publié un communiqué allant déjà dans ce sens. Tous les éléments de langage étaient déjà en place. Mark Zuckerberg et Daniel Ek (CEO de Spotify) expliquaient ainsi pourquoi, selon eux, l’Europe devait adopter l’IA open source : « elle risque de prendre du retard en raison d’une réglementation incohérente et complexe ».

On retrouvait également la « structure réglementaire fragmentée », « des réglementations qui se chevauchent » et « des conseils incohérents sur la manière de s’y conformer ». Spotify allait jusqu’à évoquer une « aversion au risque » pour caractériser l’attitude européenne.

Un discours cohérent, mais double. Car les deux chefs d’entreprise se sont rejoints dans un autre domaine : leur guerre commune contre Apple. Et quand la firme de Cupertino a commencé à se plaindre du cadre européen et à présenter ses adaptations, Daniel Ek et Mark Zuckerberg ont critiqué son attitude face au DMA et sa « mauvaise foi », notamment les conditions financières proposées. Spotify, très impliquée auprès de la Commission européenne pour tout ce qui touche à Apple, n’hésitait alors pas à qualifier « d’extorsion » les propositions de la pomme.

Aucun problème en Europe ?

Au vu des éléments abordés par Spotify, il n’est pas impossible que le géant suédois du streaming veuille tout simplement utiliser les modèles multimodaux de Meta pour ses propres besoins. Une alliance technologique qui lui permettrait de garder sa première place, les recommandations musicales étant un facteur clé de fidélisation.

Pour autant, si toutes ces communications semblent aller surtout dans le sens de Meta, les problèmes pointés sont-ils illusoires ? Pas tout à fait. D’un côté, le RGPD pose différents problèmes depuis son adoption, car il existe des différences d’interprétation en fonction des pays membres. L’harmonisation n’est pas totale. De l’autre, un DMA encore jeune et une Europe soucieuse de montrer qu’elle a désormais suffisamment d’outils pour imposer ses propres volontés.

Rien n’empêche Meta et Spotify de pointer les carences observées dans le cadre juridique européen, mais les deux entreprises sont plus silencieuses quand il est à leur avantage.

☕️ Google synchronise enfin les clés d’accès (passkeys) sur tous les appareils

La gestion des clés d’accès est un élément crucial de leur succès. Devant à terme remplacer les mots de passe, elles sont considérées comme plus sécurisées et plus simples à utiliser. Mais leur disponibilité est un point essentiel et toutes les questions ne sont pas encore réglées, notamment tout ce qui touche à leur passation d’un éditeur à un autre.

Chez Google, on se décide enfin à les synchroniser sur l’ensemble des appareils à travers Chrome. Le navigateur gère en effet les clés d’accès depuis longtemps, mais on ne pouvait les enregistrer dans le Gestionnaire de mots de passe que sur Android.

L’ajout de clés d’accès peut maintenant se faire depuis Windows, macOS, Linux et Android. ChromeOS est également compatible, mais seulement en bêta pour l’instant. Dès qu’une clé a été entrée, le gestionnaire la synchronise aux autres appareils.

Enfin, Google ajoute un code PIN pour protéger le Gestionnaire de mots de passe dans Chrome, sur toutes les plateformes. Sur Android, l’identification biométrique reste privilégiée.

☕️ Sur Linux, Vivaldi sera aussi distribué en Snap

Jon von Tetzchner, fondateur et CEO de l’entreprise, annonce dans un billet que le navigateur sera dorénavant distribué sous forme de paquet snap, en plus de ceux existant en DEB et RPM.

« Linux a toujours été un écosystème diversifié, avec de nombreuses distributions répondant à différents besoins, préférences et cas d’utilisation. Cependant, cette diversité s’accompagne souvent du défi d’assurer la compatibilité des logiciels et la facilité d’installation entre les différentes distributions. C’est là que Snap intervient », explique von Tetzchner.

Le fondateur, ancien d’Opera, rappelle que les snap s’exécutent en environnement bac à sable, apportant une couche supplémentaire de sécurité. Mais ce qui intéresse Vivaldi, c’est surtout qu’une fois le snap créé, il peut être distribué tel quel à toutes les distributions prenant le format en charge, Ubuntu en tête. Vivaldi a d’ailleurs intégré le dépôt principal Snapcraft.io.

Les utilisateurs ont-ils intérêt à passer par ce nouveau paquet ? Question de choix personnel, car les fonctions sont les mêmes. Le format snap est pratique, mais est contesté.

Des distributions comme Linux Mint, bien que basées sur Ubuntu, n’intègrent pas le support et ne permettent même pas de l’installer facilement. Mozilla, après avoir distribué Firefox en snap pendant des années, a provoqué une vague de soulagement en proposant aussi un paquet DEB.

☕️ DMA : l’Europe veut guider Apple vers une meilleure interopérabilité

Décidément, la Commission européenne a du travail avec Apple. Dans un récent communiqué, elle annonce l’ouverture de deux procédures de spécification, en vue « d’aider Apple à se conformer à ses obligations en matière d’interopérabilité », en vertu du DMA.

L’article 8, paragraphe 2 de la loi sur les marchés numériques permet à la Commission de préciser les mesures qu’un contrôleur d’accès (« gatekeeper ») doit appliquer pour « assurer le respect effectif des obligations substantielles du DMA ». En l’occurrence, la Commission veut aider Apple à mettre en œuvre certains changements liés à l’interopérabilité d’iOS et iPadOS.

La première procédure porte sur la connectivité d’iOS, plus spécifiquement les caractéristiques et fonctionnalités utilisées « pour et par les appareils connectés ». Ces derniers comprennent les montres connectées, les écouteurs et autres casques de réalité virtuelle. La Commission compte donc intervenir pour préciser un certain nombre de points, notamment tout ce qui touche aux notifications, à l’appairage des produits et leur connectivité.

L’autre procédure « porte sur le processus mis en place par Apple pour traiter les demandes d’interopérabilité soumises par les développeurs et les tiers pour iOS et iPadOS ». La Commission veut s’assurer que ce processus est « transparent, rapide et équitable ». Objectif : que les développeurs concernés sachent où ils mettent les pieds.

La Commission se donne six mois pour préparer ses observations et instructions. Au terme de ce délai, elle publiera un rapport préliminaire pour exposer ses conclusions et mesures envisagées, afin que les tiers concernés puissent faire remonter leurs observations.

« Aujourd’hui, c’est la première fois que nous utilisons les procédures de spécification dans le cadre du DMA pour guider Apple vers le respect effectif de ses obligations en matière d’interopérabilité par le biais d’un dialogue constructif », a indiqué Margrethe Vestager, commissaire chargée de la concurrence. « Ce processus apportera de la clarté aux développeurs, aux tiers et à Apple ».

Fedora 41 bêta : une version riche en évolutions techniques et désormais sans X11

Chapeau bas
Fedora 41 bêta : une version riche en évolutions techniques et désormais sans X11

La bêta de Fedora 41 est disponible au téléchargement. Elle comporte d’importants changements sous le capot, en plus du nouveau noyau 6.11 et d’un GNOME 47 qu’elle sera la première à utiliser. Outre une modernisation générale des paquets et la disponibilité de DNF 5, Fedora 41 introduit un nouveau Spin (variante) basé sur Mir et nommé Miracle.

L’arrivée d’une nouvelle Fedora est toujours un « évènement ». Il s’agit du laboratoire à ciel ouvert de Red Hat et la distribution Linux est souvent la première à adopter les technologies sur lesquelles travaille l’éditeur. Longtemps avant tout le monde, dès Fedora 25 (en 2016), le serveur d’affichage Wayland a ainsi été adopté par défaut. L’arrivée d’une nouvelle version est donc toujours à suivre de près, car elle permet d’observer les grandes tendances technologiques dans Linux, du moins pour la plupart des distributions, y compris Ubuntu.

Fedora 41 n’échappe pas à la règle. Après une mouture 40 relativement sage, la nouvelle propose de nombreux changements, la plupart importants et sous le capot. Nous allons surtout nous attarder sur la version Workstation, basée sur GNOME.

Un noyau 6.11 rouillé

Première évolution notable, le noyau 6.11, sorti il y a quelques jours à peine. La plupart des améliorations concernent le support matériel. On y trouve par exemple la prise en charge des puces Bluetooth/WLAN pour les plateformes Qualcomm, un nouveau type de mappage permettant au noyau de supprimer des pages à la volée quand la pression sur la mémoire se fait trop forte, le support du hotplug pour le processeur virtuel sur les systèmes ACPI AArch64, la gestion du CCPC (Collaborative Processor Performance Control) rapide dans le pilote amd-pstate cpufreq, etc.

Le noyau Linux 6.11 introduit également plusieurs nouveautés liées au langage Rust, dont l’inclusion provoque des remous chez les développeurs. Linus Torvalds s’est d’ailleurs récemment exprimé à ce sujet. On y trouve ainsi l’ajout d’une version minimale de la chaine d’outils, le support des pilotes de blocs écrits en Rust, ainsi que des abstractions Rust pour le chargement de microprogrammes.

GNOME 47 et ses multiples changements

Autre grosse évolution apportée par Fedora 41, GNOME 47, dont la version finale est sortie hier. Nommée « Denver », elle présente une longue liste de nouveautés. La personnalisation de la couleur d’accentuation est ainsi enfin gérée dans l’environnement, avec une présentation rappelant largement ce qu’Ubuntu permet depuis longtemps.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌