Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 26 septembre 2024Actualités numériques

Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

26 septembre 2024 à 15:30
Audace
Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

Google a annoncé hier qu’elle déposait plainte contre Microsoft. La société accuse sa concurrente d’abuser de sa position dans l’univers du cloud. Microsoft enfermerait ses clients dans des conditions d’utilisation très défavorables au déménagement vers d’autres solutions hébergées, surtout à cause des coûts de migration.

Dans un billet de blog au vitriol, Google dépeint un Microsoft vorace. Windows Server est décrit comme l’élément central de l’architecture cloud de Microsoft, un produit essentiel que l’on pouvait auparavant installer sur n’importe quel type de matériel et dans toute solution cloud.

En 2019, changement de décor : les tarifs imposés aux entreprises voulant faire fonctionner Windows Server dans un cloud concurrent sont démultipliés. Google ajoute que d’autres mesures restrictives ont été ajoutées au cours des dernières années, notamment sur la réception des correctifs de sécurité et des barrières à l’interopérabilité.

Charge contre Azure et ses coûts cachés

Google étaye son propos par plusieurs études du CISPE (Cloud Infrastructure Services Providers in Europe), une association qui intervient souvent dans le domaine de l’IaaS (Infrastructure as a Service).

Dans l’une d’elles, publiée en juin 2023, l’économiste français Frédéric Jenny a écrit : « Le changement de politique BYOL [Bring Your Own Licence, ndlr] de Microsoft en 2019, qui a mis fin à la possibilité pour les utilisateurs de déployer des licences Office 365 sur site sur des infrastructures tierces, pourrait avoir entraîné des coûts de rachat de licences pour la première année équivalents à 560 millions d’euros pour le marché européen. Un surcoût supplémentaire d’un milliard d’euros, lié aux suppléments de licence imposés aux déploiements non-Azure de SQL Server, peut en outre être attribué au changement de politique ».

Google en cite une autre, datée de 2022, dans lequel le CISPE relève une augmentation soudaine des parts de marché de Microsoft dans le cloud après l’interdiction d’utiliser plusieurs clouds.

Il est à noter qu’au contraire d’Amazon, ni Google ni Microsoft ne font partie du CISPE. En revanche, devant la montée croissante des critiques sur ses modèles de licences, Microsoft a signé un accord avec la CISPE en juillet. Il fait suite à une plainte déposée par le CISPE sur cette même question des licences. Amazon Web Services a fustigé l’accord, tout comme Google, qui reprend pourtant les études du CISPE.

« Gaspillage », « argent détourné » et… CrowdStrike

Google, évoque ainsi le « gaspillage des contribuables », « l’argent détourné des investissements dans la croissance » et le « ralentissement des transformations numériques ».

Mais la société de Mountain View va plus loin en pointant le fiasco CrowdStrike comme une preuve supplémentaire : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ».

Un exemple étrange, pour plus d’une raison. D’une part, le plantage intervenant dans les clients Windows, pas sur les serveurs. D’autre part, il ne s’agissait pas d’un bug de Windows, mais d’un produit de CrowdStrike. Enfin, l’évènement n’est pas directement lié au cloud, mais au déploiement d’une mise à jour défectueuse de définition, comme sur n’importe quel antivirus.

Google se pose en champion de la différence, en rappelant notamment qu’elle a éliminé la première les fameux frais de sortie (egress fees). La société assure favoriser « l’octroi de licences équitables et transparentes » à ses clients et avoir été la première « à proposer des solutions de souveraineté numérique aux gouvernements européens ».

Une plainte pour abus de position dominante

Google a donc déposé plainte auprès de la Commission européenne contre Microsoft. Elle accuse sa concurrente d’avoir abusé de sa position dominante à travers des contrats de licence déloyaux. Dans les grandes lignes, Google reprend là où le CISPE a arrêté.

Microsoft, de son côté, se montre presque narquoise. « Microsoft a réglé à l’amiable des problèmes similaires soulevés par des fournisseurs de cloud européens, même si Google espérait qu’ils continueraient à plaider. N’ayant pas réussi à convaincre les entreprises européennes, nous nous attendons à ce que Google ne parvienne pas non plus à convaincre la Commission européenne », a déclaré Microsoft à The Verge.

Rappelons quand même que Microsoft est actuellement scrutée de près par plusieurs autorités pour ses pratiques dans le cloud. C’est particulièrement le cas au Royaume-Uni, où l’autorité de la concurrence se penche sur la gestion des licences chez Microsoft et AWS, particulièrement les frais de sortie.

Que peut espérer Google ? Le déclenchement officiel d’une enquête. Google, plusieurs fois condamnée sur le Vieux continent pour divers abus de position dominante (en 2017 et 2018 notamment), connait désormais bien le marteau européen.

Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

26 septembre 2024 à 15:30
Audace
Cloud : Google dépose plainte en Europe contre Microsoft pour pratiques abusives

Google a annoncé hier qu’elle déposait plainte contre Microsoft. La société accuse sa concurrente d’abuser de sa position dans l’univers du cloud. Microsoft enfermerait ses clients dans des conditions d’utilisation très défavorables au déménagement vers d’autres solutions hébergées, surtout à cause des coûts de migration.

Dans un billet de blog au vitriol, Google dépeint un Microsoft vorace. Windows Server est décrit comme l’élément central de l’architecture cloud de Microsoft, un produit essentiel que l’on pouvait auparavant installer sur n’importe quel type de matériel et dans toute solution cloud.

En 2019, changement de décor : les tarifs imposés aux entreprises voulant faire fonctionner Windows Server dans un cloud concurrent sont démultipliés. Google ajoute que d’autres mesures restrictives ont été ajoutées au cours des dernières années, notamment sur la réception des correctifs de sécurité et des barrières à l’interopérabilité.

Charge contre Azure et ses coûts cachés

Google étaye son propos par plusieurs études du CISPE (Cloud Infrastructure Services Providers in Europe), une association qui intervient souvent dans le domaine de l’IaaS (Infrastructure as a Service).

Dans l’une d’elles, publiée en juin 2023, l’économiste français Frédéric Jenny a écrit : « Le changement de politique BYOL [Bring Your Own Licence, ndlr] de Microsoft en 2019, qui a mis fin à la possibilité pour les utilisateurs de déployer des licences Office 365 sur site sur des infrastructures tierces, pourrait avoir entraîné des coûts de rachat de licences pour la première année équivalents à 560 millions d’euros pour le marché européen. Un surcoût supplémentaire d’un milliard d’euros, lié aux suppléments de licence imposés aux déploiements non-Azure de SQL Server, peut en outre être attribué au changement de politique ».

Google en cite une autre, datée de 2022, dans lequel le CISPE relève une augmentation soudaine des parts de marché de Microsoft dans le cloud après l’interdiction d’utiliser plusieurs clouds.

Il est à noter qu’au contraire d’Amazon, ni Google ni Microsoft ne font partie du CISPE. En revanche, devant la montée croissante des critiques sur ses modèles de licences, Microsoft a signé un accord avec la CISPE en juillet. Il fait suite à une plainte déposée par le CISPE sur cette même question des licences. Amazon Web Services a fustigé l’accord, tout comme Google, qui reprend pourtant les études du CISPE.

« Gaspillage », « argent détourné » et… CrowdStrike

Google, évoque ainsi le « gaspillage des contribuables », « l’argent détourné des investissements dans la croissance » et le « ralentissement des transformations numériques ».

Mais la société de Mountain View va plus loin en pointant le fiasco CrowdStrike comme une preuve supplémentaire : « Comme l’a montré la panne de sécurité massive survenue il y a deux mois, les tactiques de verrouillage de Microsoft peuvent aboutir à un point de défaillance unique qui nuit aux entreprises, aux industries et aux gouvernements ».

Un exemple étrange, pour plus d’une raison. D’une part, le plantage intervenant dans les clients Windows, pas sur les serveurs. D’autre part, il ne s’agissait pas d’un bug de Windows, mais d’un produit de CrowdStrike. Enfin, l’évènement n’est pas directement lié au cloud, mais au déploiement d’une mise à jour défectueuse de définition, comme sur n’importe quel antivirus.

Google se pose en champion de la différence, en rappelant notamment qu’elle a éliminé la première les fameux frais de sortie (egress fees). La société assure favoriser « l’octroi de licences équitables et transparentes » à ses clients et avoir été la première « à proposer des solutions de souveraineté numérique aux gouvernements européens ».

Une plainte pour abus de position dominante

Google a donc déposé plainte auprès de la Commission européenne contre Microsoft. Elle accuse sa concurrente d’avoir abusé de sa position dominante à travers des contrats de licence déloyaux. Dans les grandes lignes, Google reprend là où le CISPE a arrêté.

Microsoft, de son côté, se montre presque narquoise. « Microsoft a réglé à l’amiable des problèmes similaires soulevés par des fournisseurs de cloud européens, même si Google espérait qu’ils continueraient à plaider. N’ayant pas réussi à convaincre les entreprises européennes, nous nous attendons à ce que Google ne parvienne pas non plus à convaincre la Commission européenne », a déclaré Microsoft à The Verge.

Rappelons quand même que Microsoft est actuellement scrutée de près par plusieurs autorités pour ses pratiques dans le cloud. C’est particulièrement le cas au Royaume-Uni, où l’autorité de la concurrence se penche sur la gestion des licences chez Microsoft et AWS, particulièrement les frais de sortie.

Que peut espérer Google ? Le déclenchement officiel d’une enquête. Google, plusieurs fois condamnée sur le Vieux continent pour divers abus de position dominante (en 2017 et 2018 notamment), connait désormais bien le marteau européen.

☕️ Winamp Classic devient open source, mais pas trop

26 septembre 2024 à 14:20

Hier, presque en grande pompe, une annonce a retenti : le bien-aimé – mais très âgé – Winamp Classic est devenu open source. Une annonce qui suivait une volonté affichée au printemps dernier.

Dans l’annonce officielle, publiée hier, Winamp claironne : « Le code source du lecteur Winamp est maintenant ouvert ! Développeurs et amateurs de rétro, c’est votre chance de façonner l’avenir du lecteur emblématique. Explorez, modifiez et développez le Classic que vous connaissez et aimez ».

Seulement voilà, la licence adoptée pour le code déposé sur GitHub n’est pas open source. Winamp n’a pas choisi une licence existante comme la GPL, la LGPL, la MIT ou la BSD. L’éditeur a créé la sienne, nommée WCL, pour Winamp Collaborative Licence.

Les personnes intéressées par d’éventuelles contributions peuvent ainsi « visualiser, accéder et étudier le code source ». La modification, elle, n’est autorisée que dans un cadre privé. Il est donc interdit de distribuer des versions modifiées et « seuls les responsables du dépôt officiel sont autorisés à distribuer le logiciel et ses modifications ».

Une précédente version interdisait également les forks, mais cette mention a disparu dans la version 1.0.1 de la licence. Reste que la modification n’est autorisée que pour un usage privé.

Sur X, les réponses à l’annonce sont particulièrement critiques et fustigent la licence. L’éditeur donne l’impression de n’annoncer des sources ouvertes que pour obtenir gratuitement une main d’œuvre, sans respecter l’esprit de l’open source. Devant les réactions hostiles, il n’est pas impossible que Winamp finisse par changer d’avis.

The #Winamp Legacy player source code is now open!

Developers & retro lovers, it’s your chance to shape the iconic player’s future.

Explore, modify, and build on the classic you know and love.

Get the details & access the code here: https://t.co/TX3sOaSbS5 pic.twitter.com/ZvDeKiJ1uO

— Winamp (@winamp) September 24, 2024

Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

26 septembre 2024 à 13:55
Paradis artificiel
Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

Meta tenait hier sa conférence Connect et y a annoncé de nombreuses nouveautés. Nous allons nous concentrer ici sur le matériel, avec notamment un nouveau casque Quest 3S et les lunettes Orion, présentées comme « les plus avancées au monde ».

Réalité mixte : le Meta Quest 3S vient assurer la relève

Si le Quest 3 était vendu à un tarif relativement abordable de 479,00 euros (le prix vient de baisser), la version 3S est là pour enfoncer le clou. Annoncé à 329,99 euros, le nouveau casque est là pour prendre la relève des anciens modèles Quest 2 et Quest Pro, qui seront d’ailleurs tous deux mis au rebut d’ici la fin de l’année.

Ce tarif moins élevé entraine quelques conséquences à la baisse sur les prestations. Son stockage n’est ainsi que de 128 Go. Une version 256 Go est vendue pour 100 dollars supplémentaires. L’écran est lui aussi un peu moins bon. Sa résolution est de 1 832 x 1 920 pixels, soit le même que le Quest 2, face au Quest 3 et ses 2 064 x 2 208 pixels. Le champ de vision est, là encore, le même que sur le Quest 2 : 96° horizontal et 90° vertical, contre 110 et 96 sur le Quest 3.

En revanche, le cœur de l’appareil est le même que dans le Quest 3 : un Snapdragon XR Gen 2, épaulé par 8 Go de mémoire. La puissance est donc identique, ce qui devrait assurer une nette évolution en remplacement d’un ancien modèle. Pour les personnes ayant un Quest 3, le nouveau modèle n’a pas d’intérêt. Le Quest 3 reste donc à son positionnement de meilleur casque proposé par Meta.

La société fournit quelques bonus avec son nouveau casque de réalité mixte, notamment le jeu Batman : Arkham Shadow et trois mois d’abonnement au service Quest+. Ce dernier, commercialisé 8,99 euros par mois ou 69,99 euros par an, permet d’accéder à divers services, dont un catalogue de jeux. Le Meta Quest 3S reste compatible avec l’ensemble des applications déjà disponibles sur les casques de l’entreprise.

Les précommandes pour le Quest 3S sont ouvertes, pour une disponibilité annoncée au 15 octobre.

Une offensive sur les applications

On ne pouvait pas parler simplement du nouveau casque sans évoquer les changements envisagés par Meta pour l’environnement logiciel. Notamment, une refonte complète en préparation pour Horizon OS, le système d’exploitation qui équipe les casques de l’entreprise. L’interface sera entièrement remaniée et Meta assure qu’elle sera bien plus pratique.

Surtout, Meta a insisté sur l’idée que tous les développeurs d’applications Android pouvaient en créer pour Horizon OS. L’entreprise promet que ce sera possible avec tous les langages couramment utilisés et dans tous les IDE. En fait, les applications Android existantes peuvent être envoyées dans la nouvelle boutique de l’éditeur sans avoir à retravailler trop d’éléments. C’est du moins la promesse.

Meta met aussi en avant son nouveau kit de développement Meta Spatial pour accélérer le développement d’applications pensées spécifiquement pour les casques de réalité mixte, dont tout ce qui touche à la 3D et au spatial. Objets 3D flottants, atmosphères diverses et médias immersifs ont été cités en exemples. Les applications 2D classiques auront également du neuf dans le prochain Horizon OS : redimensionnement des fenêtres, mode théâtre, audio spatial, fonctionnement en arrière-plan…

Et pour donner le bon exemple, Meta s’est servi de ces nouveautés pour proposer des versions complètement remaniées de Facebook et Instagram à destination de son Horizon OS. Développées à partir de React Native (entre autres), elles servent de démonstration technique, tant pour les possibilités offertes pour la plateforme que pour illustrer la méthode pour les développeurs. Conférence oblige, Meta a annoncé que d’autres entreprises faisaient de même, notamment Amazon (pour Prime Video et Music), Twitch, etc.

Cette approche plus consensuelle vient des développeurs eux-mêmes, selon Meta. La firme s’est dit consciente de la difficulté qu’il y avait à créer des applications pour sa plateforme, qui venait s’ajouter à celles existantes. Sur scène, Andrew Bosworth, directeur technique de Meta, a même présenté ses excuses. Pour preuve, les applications web gagnent aussi de nouvelles capacités, pour les rapprocher des natives.

Lunettes Orion, le futur de la réalité augmentée selon Meta

Si la réalité virtuelle est toujours un marché pour Meta, la réalité augmentée en est un autre. On l’a déjà vu par son partenariat avec Ray-Ban, sur lequel nous reviendrons ensuite. Dans ce domaine, le futur chez Meta s’appelle cependant Orion.

Il s’agit d’un prototype de lunettes centrées sur la réalité augmentée. Elles sont équipées de petits projecteurs répartis dans les branches, afin de créer un affichage tête haute, à la manière de ce que font les dernières Google Glass.

Pour Meta, les lunettes développées avec Ray-Ban constituaient une introduction. « L’industrie de la réalité virtuelle rêve depuis longtemps de véritables lunettes AR. Un produit qui combine les avantages d’un grand écran holographique et d’une assistance IA personnalisée dans un format confortable et portable tout au long de la journée. Orion relève le défi », assure Meta.

La société est si sûre d’elle qu’elle affirme qu’Orion a le plus grand champ de vision (environ 70°) dans le plus petit format de lunettes AR. Toutes les utilisations sont envisageables, comme des fenêtres multiples, les divertissements sur grand écran, ou encore des hologrammes de personnes en taille réelle. Le tout largement alimenté par Meta AI et pour un poids inférieur à 100 grammes.

Un concept loin de la commercialisation

Il y a pour l’instant peu d’informations concrètes sur les lunettes Orion. Elles contiennent dix puces et sept caméras, un système de suivi oculaire, et sont constituées d’un alliage de magnésium. Elles ne sont pas totalement autonomes, car un boitier l’accompagne. Il contient deux processeurs et est chargé d’effectuer une partie des calculs, transmettent ensuite les résultats sans fil. Les lunettes se chargent du suivi des yeux et des mains, ou encore de tout ce qui touche à l’affichage, mais la logique applicative est calculée par le boitier. Pas un mot en revanche sur l’autonomie de ces appareils.

On sait cependant que le produit ne sera pas disponible pour le grand public. Seulement pour les développeurs, à l’instar des récentes Spectacles 5 lancées par Snap et pour un tarif encore inconnu. Le produit présenté reste encore proche d’un concept et The Verge évoquait, il y a deux ans déjà, une production coûtant la bagatelle de 10 000 dollars l’unité.

Mais au crédit de Meta, l’entreprise ne parle de ses lunettes que comme « une fenêtre sur l’avenir » et « un regard sur les possibilités très réelles à notre portée aujourd’hui ».

Un bracelet basé sur l’électromyographie

Et si ce n’était pas suffisant, Meta développe aussi une « interface neuronale » pour ses lunettes Orion, insérée dans un bracelet. Ces travaux avaient été présentés dès 2021. Meta expliquait alors que le bracelet était basé sur des capteurs de type EMG (électromyographie) pour envoyer des instructions aux lunettes. Concrètement, le bracelet permet de donner des ordres en effectuant des mouvements.

Ce serait alors une alternative à des casques plus classiques comme HoloLens chez Microsoft ou le Vision Pro d’Apple, qui utilisent des caméras pour repérer des mains. Mais les capacités réelles du bracelet sont encore largement inconnues, mais les exemples donnent une idée : « Imaginez que vous preniez une photo pendant votre jogging matinal d’un simple effleurement du bout des doigts ou que vous naviguiez dans les menus avec des mouvements à peine perceptibles de vos mains ». Meta précise que son bracelet serait capable de capter les signaux électriques générés par les mouvements musculaires. La firme dit travailler intensément sur ce type de technologie.

Les lunettes Ray-Ban reçoivent des nouveautés

Quant aux lunettes développées avec Ray-Ban, Meta leur apporte diverses nouveautés, certaines significatives, qui doivent arriver d’ici la fin de l’année.

Il s’agit dans les grandes lignes de rapprocher ces lunettes de fonctions dont on a l’habitude avec les smartphones, avec une bonne dose d’IA. Meta AI est d’ailleurs au premier plan, avec la traduction en direct des langues, le traitement vidéo en temps réel, les rappels, la reconnaissance des codes QR, l’intégration avec Amazon Music, iHeartRadio et Audible…

Le traitement vidéo, en particulier, est une étape majeure. Il devient possible pour l’utilisateur de poser des questions sur ce qu’il voit. Jusqu’ici, l’IA ne pouvait répondre que sur la base d’une photo ou d’une description vocale. C’est du moins la promesse faite par Meta, via des démonstrations bien sûr impressionnantes. Les réponses seront-elles aussi utiles et rapides en pratique ?

D’ici la fin de l’année, il sera également possible de commander ces lunettes avec des verres Transition, dont la teinte variera en fonction de la quantité d’UV.

Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

26 septembre 2024 à 13:55
Paradis artificiel
Meta Connect 2024 : casque Quest 3S, lunettes Orion de réalité augmentée, IA pour les Ray-Ban

Meta tenait hier sa conférence Connect et y a annoncé de nombreuses nouveautés. Nous allons nous concentrer ici sur le matériel, avec notamment un nouveau casque Quest 3S et les lunettes Orion, présentées comme « les plus avancées au monde ».

Réalité mixte : le Meta Quest 3S vient assurer la relève

Si le Quest 3 était vendu à un tarif relativement abordable de 479,00 euros (le prix vient de baisser), la version 3S est là pour enfoncer le clou. Annoncé à 329,99 euros, le nouveau casque est là pour prendre la relève des anciens modèles Quest 2 et Quest Pro, qui seront d’ailleurs tous deux mis au rebut d’ici la fin de l’année.

Ce tarif moins élevé entraine quelques conséquences à la baisse sur les prestations. Son stockage n’est ainsi que de 128 Go. Une version 256 Go est vendue pour 100 dollars supplémentaires. L’écran est lui aussi un peu moins bon. Sa résolution est de 1 832 x 1 920 pixels, soit le même que le Quest 2, face au Quest 3 et ses 2 064 x 2 208 pixels. Le champ de vision est, là encore, le même que sur le Quest 2 : 96° horizontal et 90° vertical, contre 110 et 96 sur le Quest 3.

En revanche, le cœur de l’appareil est le même que dans le Quest 3 : un Snapdragon XR Gen 2, épaulé par 8 Go de mémoire. La puissance est donc identique, ce qui devrait assurer une nette évolution en remplacement d’un ancien modèle. Pour les personnes ayant un Quest 3, le nouveau modèle n’a pas d’intérêt. Le Quest 3 reste donc à son positionnement de meilleur casque proposé par Meta.

La société fournit quelques bonus avec son nouveau casque de réalité mixte, notamment le jeu Batman : Arkham Shadow et trois mois d’abonnement au service Quest+. Ce dernier, commercialisé 8,99 euros par mois ou 69,99 euros par an, permet d’accéder à divers services, dont un catalogue de jeux. Le Meta Quest 3S reste compatible avec l’ensemble des applications déjà disponibles sur les casques de l’entreprise.

Les précommandes pour le Quest 3S sont ouvertes, pour une disponibilité annoncée au 15 octobre.

Une offensive sur les applications

On ne pouvait pas parler simplement du nouveau casque sans évoquer les changements envisagés par Meta pour l’environnement logiciel. Notamment, une refonte complète en préparation pour Horizon OS, le système d’exploitation qui équipe les casques de l’entreprise. L’interface sera entièrement remaniée et Meta assure qu’elle sera bien plus pratique.

Surtout, Meta a insisté sur l’idée que tous les développeurs d’applications Android pouvaient en créer pour Horizon OS. L’entreprise promet que ce sera possible avec tous les langages couramment utilisés et dans tous les IDE. En fait, les applications Android existantes peuvent être envoyées dans la nouvelle boutique de l’éditeur sans avoir à retravailler trop d’éléments. C’est du moins la promesse.

Meta met aussi en avant son nouveau kit de développement Meta Spatial pour accélérer le développement d’applications pensées spécifiquement pour les casques de réalité mixte, dont tout ce qui touche à la 3D et au spatial. Objets 3D flottants, atmosphères diverses et médias immersifs ont été cités en exemples. Les applications 2D classiques auront également du neuf dans le prochain Horizon OS : redimensionnement des fenêtres, mode théâtre, audio spatial, fonctionnement en arrière-plan…

Et pour donner le bon exemple, Meta s’est servi de ces nouveautés pour proposer des versions complètement remaniées de Facebook et Instagram à destination de son Horizon OS. Développées à partir de React Native (entre autres), elles servent de démonstration technique, tant pour les possibilités offertes pour la plateforme que pour illustrer la méthode pour les développeurs. Conférence oblige, Meta a annoncé que d’autres entreprises faisaient de même, notamment Amazon (pour Prime Video et Music), Twitch, etc.

Cette approche plus consensuelle vient des développeurs eux-mêmes, selon Meta. La firme s’est dit consciente de la difficulté qu’il y avait à créer des applications pour sa plateforme, qui venait s’ajouter à celles existantes. Sur scène, Andrew Bosworth, directeur technique de Meta, a même présenté ses excuses. Pour preuve, les applications web gagnent aussi de nouvelles capacités, pour les rapprocher des natives.

Lunettes Orion, le futur de la réalité augmentée selon Meta

Si la réalité virtuelle est toujours un marché pour Meta, la réalité augmentée en est un autre. On l’a déjà vu par son partenariat avec Ray-Ban, sur lequel nous reviendrons ensuite. Dans ce domaine, le futur chez Meta s’appelle cependant Orion.

Il s’agit d’un prototype de lunettes centrées sur la réalité augmentée. Elles sont équipées de petits projecteurs répartis dans les branches, afin de créer un affichage tête haute, à la manière de ce que font les dernières Google Glass.

Pour Meta, les lunettes développées avec Ray-Ban constituaient une introduction. « L’industrie de la réalité virtuelle rêve depuis longtemps de véritables lunettes AR. Un produit qui combine les avantages d’un grand écran holographique et d’une assistance IA personnalisée dans un format confortable et portable tout au long de la journée. Orion relève le défi », assure Meta.

La société est si sûre d’elle qu’elle affirme qu’Orion a le plus grand champ de vision (environ 70°) dans le plus petit format de lunettes AR. Toutes les utilisations sont envisageables, comme des fenêtres multiples, les divertissements sur grand écran, ou encore des hologrammes de personnes en taille réelle. Le tout largement alimenté par Meta AI et pour un poids inférieur à 100 grammes.

Un concept loin de la commercialisation

Il y a pour l’instant peu d’informations concrètes sur les lunettes Orion. Elles contiennent dix puces et sept caméras, un système de suivi oculaire, et sont constituées d’un alliage de magnésium. Elles ne sont pas totalement autonomes, car un boitier l’accompagne. Il contient deux processeurs et est chargé d’effectuer une partie des calculs, transmettent ensuite les résultats sans fil. Les lunettes se chargent du suivi des yeux et des mains, ou encore de tout ce qui touche à l’affichage, mais la logique applicative est calculée par le boitier. Pas un mot en revanche sur l’autonomie de ces appareils.

On sait cependant que le produit ne sera pas disponible pour le grand public. Seulement pour les développeurs, à l’instar des récentes Spectacles 5 lancées par Snap et pour un tarif encore inconnu. Le produit présenté reste encore proche d’un concept et The Verge évoquait, il y a deux ans déjà, une production coûtant la bagatelle de 10 000 dollars l’unité.

Mais au crédit de Meta, l’entreprise ne parle de ses lunettes que comme « une fenêtre sur l’avenir » et « un regard sur les possibilités très réelles à notre portée aujourd’hui ».

Un bracelet basé sur l’électromyographie

Et si ce n’était pas suffisant, Meta développe aussi une « interface neuronale » pour ses lunettes Orion, insérée dans un bracelet. Ces travaux avaient été présentés dès 2021. Meta expliquait alors que le bracelet était basé sur des capteurs de type EMG (électromyographie) pour envoyer des instructions aux lunettes. Concrètement, le bracelet permet de donner des ordres en effectuant des mouvements.

Ce serait alors une alternative à des casques plus classiques comme HoloLens chez Microsoft ou le Vision Pro d’Apple, qui utilisent des caméras pour repérer des mains. Mais les capacités réelles du bracelet sont encore largement inconnues, mais les exemples donnent une idée : « Imaginez que vous preniez une photo pendant votre jogging matinal d’un simple effleurement du bout des doigts ou que vous naviguiez dans les menus avec des mouvements à peine perceptibles de vos mains ». Meta précise que son bracelet serait capable de capter les signaux électriques générés par les mouvements musculaires. La firme dit travailler intensément sur ce type de technologie.

Les lunettes Ray-Ban reçoivent des nouveautés

Quant aux lunettes développées avec Ray-Ban, Meta leur apporte diverses nouveautés, certaines significatives, qui doivent arriver d’ici la fin de l’année.

Il s’agit dans les grandes lignes de rapprocher ces lunettes de fonctions dont on a l’habitude avec les smartphones, avec une bonne dose d’IA. Meta AI est d’ailleurs au premier plan, avec la traduction en direct des langues, le traitement vidéo en temps réel, les rappels, la reconnaissance des codes QR, l’intégration avec Amazon Music, iHeartRadio et Audible…

Le traitement vidéo, en particulier, est une étape majeure. Il devient possible pour l’utilisateur de poser des questions sur ce qu’il voit. Jusqu’ici, l’IA ne pouvait répondre que sur la base d’une photo ou d’une description vocale. C’est du moins la promesse faite par Meta, via des démonstrations bien sûr impressionnantes. Les réponses seront-elles aussi utiles et rapides en pratique ?

D’ici la fin de l’année, il sera également possible de commander ces lunettes avec des verres Transition, dont la teinte variera en fonction de la quantité d’UV.

noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

26 septembre 2024 à 08:31
L'enfer en est pavé
noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

L’association noyb, bien connue pour ses différentes plaintes en Europe liées à la vie privée, a désormais Mozilla dans le collimateur. La faute à la « Privacy Preserving Attribution » (PPA), mécanisme devant s’interposer entre les internautes et le suivi publicitaire assuré traditionnellement par les cookies.

La PPA, ou « attribution préservant la vie privée » en français, a été présentée en grande pompe par Mozilla. La fondation travaillait sur le sujet depuis un moment déjà, mais tout est devenu beaucoup plus évident à la sortie de Firefox 128, quand le mécanisme a été activé par défaut. Et dès le début, il a provoqué des remous.

Qu’est-ce que la PPA ?

De quoi s’agit-il ? D’une technique relativement similaire à ce que tentent de mettre en place des entreprises comme Apple et Google via des systèmes de « cohortes » et de données anonymisées (en théorie) et agrégées. Celui d’Apple a provoqué la colère de l’industrie de la publicité, alors que Google peine à convaincre avec sa Privacy Sandbox, que noyb a d’ailleurs attaqué en juin.

Au départ, les intentions de Mozilla sont bonnes. Partant du principe que les cookies tiers autorisent un suivi bien trop précis et intrusif des internautes, la fondation voulait proposer une alternative. Elle consiste, dans les grandes lignes, à poser Firefox comme intermédiaire dans la chaine d’informations allant de l’internaute à la régie publicitaire.

Les sites peuvent ainsi demander à Firefox un rapport d’activité sur le comportement des internautes sur une publicité donnée. Le navigateur crée le rapport, le chiffre, puis l’envoie à un service d’agrégation, via un protocole spécifique et sécurisé (Distributed Aggregation Protocol), que Mozilla cherche d’ailleurs à faire normaliser auprès de l’IETF.

Qui dit agrégation dit collecte et rassemblement. Les rapports générés par Firefox ne sont en effet pas envoyés immédiatement. Le service d’agrégation attend de pouvoir combiner un grand nombre de rapports témoignant d’un comportement similaire par d’autres personnes. Quand la quantité d’informations passe un certain seuil, la régie publicitaire reçoit un lot d’informations statistiques anonymes sur un groupe, et non sur une unique personne.

« Les annonceurs ne reçoivent que des informations globales qui répondent à des questions basiques sur l’efficacité de leur publicité », affirmait Mozilla au début de l’été.

Quel est le problème ?

« Contrairement à son nom rassurant, cette technologie permet à Firefox de suivre le comportement des utilisateurs sur les sites web », indique noyb dans un communiqué de presse.

L’association, fondée par Max Schrems, reproche essentiellement deux points à Mozilla dans sa plainte, déposée en Autriche. D’une part, le déplacement du contrôle dans le suivi des internautes : « En fait, c’est le navigateur qui contrôle le suivi et non plus les sites web individuels ».

D’autre part, si noyb reconnait qu’il s’agit « d’une amélioration par rapport au suivi des cookies, en plus invasif », elle ne pardonne pas l’activation par défaut dans Firefox 128. « L’entreprise n’a jamais demandé à ses utilisateurs s’ils souhaitaient l’activer ».

noyb estime le mouvement « particulièrement inquiétant, car Mozilla a généralement la réputation d’être une alternative respectueuse de la vie privée, alors que la plupart des autres navigateurs sont basés sur Chromium de Google ». Comparant la PPA à la Privacy Sandbox de Google, l’association estime que Mozilla fait de Firefox un outil de suivi des internautes, sans consentement et donc en violation du RGPD.

« Il est dommage qu’une organisation comme Mozilla pense que les utilisateurs sont trop bêtes pour dire oui ou non. Les utilisateurs devraient pouvoir faire un choix et la fonction aurait dû être désactivée par défaut », fustige Felix Mikolasch, l’un des avocats de noyb.

L’association souligne par ailleurs le manque criant de force de frappe de Mozilla dans le domaine des navigateurs. Firefox n’a pas assez de parts de marché pour influer sur le monde de la publicité. En conséquence, la PPA ne peut pas remplacer le système des cookies et devient un moyen parmi d’autres de suivre les internautes, « en dépit de ses bonnes intentions ».

Mozilla reconnait en partie ses torts

Mozilla a réagi auprès de plusieurs médias, dont TechCrunch. Christopher Hilton, son directeur de la communication, n’est pas d’accord avec l’analyse faite par noyb.

Pour Mozilla, le mécanisme « permet aux annonceurs de mesurer l’efficacité globale des publicités sans collecter d’informations permettant d’identifier des individus spécifiques ». En outre, « la PPA s’appuie sur des techniques cryptographiques pour permettre une attribution agrégée qui préserve la vie privée. Ces techniques empêchent toute partie, y compris Mozilla, d’identifier des individus ou leur activité de navigation ».

En revanche, Mozilla reconnait qu’elle aurait pu mieux communiquer sur la PPA, notamment en impliquant « des voix extérieures ». Christopher Hilton affirme également qu’en dépit de l’activation par défaut de la PPA dans Firefox 128, le mécanisme ne l’est pas réellement. « L’itération actuelle de PPA est conçue pour être un test limité au site du Mozilla Developer Network ». Un point sur lequel Mozilla n’avait pas non plus communiqué.

La plainte de noyb, en conséquence, demande deux actions pour l’Union européenne : qu’un consentement explicite soit demandé aux internautes pour activer la PPA et que les données collectées soient supprimées. Mozilla, elle, dit se réjouir de travailler avec noyb pour progresser sur son mécanisme, dans lequel elle croit fermement.

noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

26 septembre 2024 à 08:31
L'enfer en est pavé
noyb dépose plainte contre Mozilla et son mécanisme de suivi publicitaire

L’association noyb, bien connue pour ses différentes plaintes en Europe liées à la vie privée, a désormais Mozilla dans le collimateur. La faute à la « Privacy Preserving Attribution » (PPA), mécanisme devant s’interposer entre les internautes et le suivi publicitaire assuré traditionnellement par les cookies.

La PPA, ou « attribution préservant la vie privée » en français, a été présentée en grande pompe par Mozilla. La fondation travaillait sur le sujet depuis un moment déjà, mais tout est devenu beaucoup plus évident à la sortie de Firefox 128, quand le mécanisme a été activé par défaut. Et dès le début, il a provoqué des remous.

Qu’est-ce que la PPA ?

De quoi s’agit-il ? D’une technique relativement similaire à ce que tentent de mettre en place des entreprises comme Apple et Google via des systèmes de « cohortes » et de données anonymisées (en théorie) et agrégées. Celui d’Apple a provoqué la colère de l’industrie de la publicité, alors que Google peine à convaincre avec sa Privacy Sandbox, que noyb a d’ailleurs attaqué en juin.

Au départ, les intentions de Mozilla sont bonnes. Partant du principe que les cookies tiers autorisent un suivi bien trop précis et intrusif des internautes, la fondation voulait proposer une alternative. Elle consiste, dans les grandes lignes, à poser Firefox comme intermédiaire dans la chaine d’informations allant de l’internaute à la régie publicitaire.

Les sites peuvent ainsi demander à Firefox un rapport d’activité sur le comportement des internautes sur une publicité donnée. Le navigateur crée le rapport, le chiffre, puis l’envoie à un service d’agrégation, via un protocole spécifique et sécurisé (Distributed Aggregation Protocol), que Mozilla cherche d’ailleurs à faire normaliser auprès de l’IETF.

Qui dit agrégation dit collecte et rassemblement. Les rapports générés par Firefox ne sont en effet pas envoyés immédiatement. Le service d’agrégation attend de pouvoir combiner un grand nombre de rapports témoignant d’un comportement similaire par d’autres personnes. Quand la quantité d’informations passe un certain seuil, la régie publicitaire reçoit un lot d’informations statistiques anonymes sur un groupe, et non sur une unique personne.

« Les annonceurs ne reçoivent que des informations globales qui répondent à des questions basiques sur l’efficacité de leur publicité », affirmait Mozilla au début de l’été.

Quel est le problème ?

« Contrairement à son nom rassurant, cette technologie permet à Firefox de suivre le comportement des utilisateurs sur les sites web », indique noyb dans un communiqué de presse.

L’association, fondée par Max Schrems, reproche essentiellement deux points à Mozilla dans sa plainte, déposée en Autriche. D’une part, le déplacement du contrôle dans le suivi des internautes : « En fait, c’est le navigateur qui contrôle le suivi et non plus les sites web individuels ».

D’autre part, si noyb reconnait qu’il s’agit « d’une amélioration par rapport au suivi des cookies, en plus invasif », elle ne pardonne pas l’activation par défaut dans Firefox 128. « L’entreprise n’a jamais demandé à ses utilisateurs s’ils souhaitaient l’activer ».

noyb estime le mouvement « particulièrement inquiétant, car Mozilla a généralement la réputation d’être une alternative respectueuse de la vie privée, alors que la plupart des autres navigateurs sont basés sur Chromium de Google ». Comparant la PPA à la Privacy Sandbox de Google, l’association estime que Mozilla fait de Firefox un outil de suivi des internautes, sans consentement et donc en violation du RGPD.

« Il est dommage qu’une organisation comme Mozilla pense que les utilisateurs sont trop bêtes pour dire oui ou non. Les utilisateurs devraient pouvoir faire un choix et la fonction aurait dû être désactivée par défaut », fustige Felix Mikolasch, l’un des avocats de noyb.

L’association souligne par ailleurs le manque criant de force de frappe de Mozilla dans le domaine des navigateurs. Firefox n’a pas assez de parts de marché pour influer sur le monde de la publicité. En conséquence, la PPA ne peut pas remplacer le système des cookies et devient un moyen parmi d’autres de suivre les internautes, « en dépit de ses bonnes intentions ».

Mozilla reconnait en partie ses torts

Mozilla a réagi auprès de plusieurs médias, dont TechCrunch. Christopher Hilton, son directeur de la communication, n’est pas d’accord avec l’analyse faite par noyb.

Pour Mozilla, le mécanisme « permet aux annonceurs de mesurer l’efficacité globale des publicités sans collecter d’informations permettant d’identifier des individus spécifiques ». En outre, « la PPA s’appuie sur des techniques cryptographiques pour permettre une attribution agrégée qui préserve la vie privée. Ces techniques empêchent toute partie, y compris Mozilla, d’identifier des individus ou leur activité de navigation ».

En revanche, Mozilla reconnait qu’elle aurait pu mieux communiquer sur la PPA, notamment en impliquant « des voix extérieures ». Christopher Hilton affirme également qu’en dépit de l’activation par défaut de la PPA dans Firefox 128, le mécanisme ne l’est pas réellement. « L’itération actuelle de PPA est conçue pour être un test limité au site du Mozilla Developer Network ». Un point sur lequel Mozilla n’avait pas non plus communiqué.

La plainte de noyb, en conséquence, demande deux actions pour l’Union européenne : qu’un consentement explicite soit demandé aux internautes pour activer la PPA et que les données collectées soient supprimées. Mozilla, elle, dit se réjouir de travailler avec noyb pour progresser sur son mécanisme, dans lequel elle croit fermement.

Hier — 25 septembre 2024Actualités numériques

☕️ Gmail déploie sa marque bleue de vérification dans ses applications Android et iOS

25 septembre 2024 à 12:45

En mai de l’année dernière, Google lançait une marque bleue de vérification pour Gmail. Elle était jusqu’ici réservée à la version web. Il aura fallu plus d’un an, mais elle est maintenant déployée dans les applications Android et iOS. La diffusion va se faire sur plusieurs semaines.

Cette marque bleue indique que la source a été vérifiée et est authentique. Elle met donc en avant la confiance. Elle est basée sur la spécification BIMI, pour Brand Indicators for Message Identification. BIMI permet aux entreprises avec une marque déposée de faire valider leur logo pour que celui-ci s’affiche en médaillon dans les clients email dans les courriers émis.

« Actuellement, Gmail sur le web affiche une coche vérifiée pour les expéditeurs qui ont adopté le BIMI avec une marque déposée (VMC). Au cours des prochaines semaines, les utilisateurs verront également ces icônes de coche vérifiée lorsqu’ils utiliseront l’application Gmail sur Android et iOS », indique Gmail. La société précise que cet apport n’est valable que pour les marques déposées.

Et si l’on ne dispose pas de marque déposée, mais que l’on souhaite prouver quand même sa légitimité ? Gmail propose un autre type de certificat, nommée CMC, pour « certificat de marque commune ». Le CMC permet aussi d’utiliser BIMI pour valider le logo, mais il n’y aura pas de coche bleue.

☕️ Sur X, le bouton Bloquer ne va plus bloquer grand-chose

25 septembre 2024 à 12:30
Sur X, le bouton Bloquer ne va plus bloquer grand-chose

Dans une réponse sur X, Elon Musk a confirmé que le bouton Bloquer – qu’il n’a jamais aimé – allait changer de comportement.

Il ne disparait pas, mais son action va radicalement évoluer. Actuellement, le bouton permet de bloquer complètement un compte, lui interdisant de voir nos publications, listes d’amis, réponses, médias et comptes suivis. Le « nouveau » bouton Bloquer ne bloquera plus qu’une seule chose : les interactions.

Ainsi, bloquer une personne ne l’empêchera pas de voir ce que vous publiez (si votre compte est public, ce qu’il est par défaut). Elle n’aura simplement pas le droit d’interagir avec vous, notamment de répondre à vos tweets.

On ne sait pas encore quand le changement sera implémenté, ni même s’il le sera vraiment. La question se pose d’autant plus qu’Apple et Google, dans les conditions d’utilisation de leurs boutiques, rendent obligatoire la possibilité de bloquer quelqu’un dans une application de réseau social.

Bluesky qualifie le changement de « fou ». « Quoi qu’il en soit, sur Bluesky, les utilisateurs ont baptisé la fonction de blocage « le blocage nucléaire » parce qu’il s’agit d’un outil très puissant pour réduire le harcèlement et le dogpiling [harcèlement par effet de meute, ndlr] », indique le réseau.

☕️ Gmail déploie sa marque bleue de vérification dans ses applications Android et iOS

25 septembre 2024 à 12:45

En mai de l’année dernière, Google lançait une marque bleue de vérification pour Gmail. Elle était jusqu’ici réservée à la version web. Il aura fallu plus d’un an, mais elle est maintenant déployée dans les applications Android et iOS. La diffusion va se faire sur plusieurs semaines.

Cette marque bleue indique que la source a été vérifiée et est authentique. Elle met donc en avant la confiance. Elle est basée sur la spécification BIMI, pour Brand Indicators for Message Identification. BIMI permet aux entreprises avec une marque déposée de faire valider leur logo pour que celui-ci s’affiche en médaillon dans les clients email dans les courriers émis.

« Actuellement, Gmail sur le web affiche une coche vérifiée pour les expéditeurs qui ont adopté le BIMI avec une marque déposée (VMC). Au cours des prochaines semaines, les utilisateurs verront également ces icônes de coche vérifiée lorsqu’ils utiliseront l’application Gmail sur Android et iOS », indique Gmail. La société précise que cet apport n’est valable que pour les marques déposées.

Et si l’on ne dispose pas de marque déposée, mais que l’on souhaite prouver quand même sa légitimité ? Gmail propose un autre type de certificat, nommée CMC, pour « certificat de marque commune ». Le CMC permet aussi d’utiliser BIMI pour valider le logo, mais il n’y aura pas de coche bleue.

☕️ Sur Azure OpenAI, les images générées par DALL-E ont désormais un filigrane

25 septembre 2024 à 07:56

Microsoft a commencé l’année dernière à insérer des filigranes dans certains contenus. Le processus a démarré avec les voix générées par Azure AI Speech, présenté lors de la conférence Ignite 2023. L’éditeur passe à la vitesse supérieure avec les images générées par DALL-E dans Azure OpenAI.

Le filigrane, disponible en préversion, comporte des informations réparties dans plusieurs champs. Dans « Description », on trouve ainsi la mention « AI Generated Image ». « softwareAgent » contient la valeur « Azure OpenAI DALL-E » pour attester de sa provenance. Quant à « When », il comporte l’horodatage de la création du contenu.

Ces informations sont insérées dans un manifeste faisant partie intégrante de l’image. Ce manifeste est signé cryptographiquement par un certificat remontant jusqu’à Azure OpenAI. Le filigrane est invisible à l’œil et n’est pas altéré par des opérations comme le redimensionnement ou le recadrage.

Impossible bien sûr de ne pas penser à des techniques simples comme la capture d’écran pour récupérer le contenu sans son filigrane. Toutefois, l’objectif est d’abord d’assurer une circulation de confiance entre un nombre croissant d’acteurs.

Microsoft travaille pour rappel au sein de la Coalition for Content Provenance and Authenticity (C2PA) avec des partenaires comme Adobe, Arm, Intel, ou encore la BBC et la plateforme de vérification Truepic.

À partir d’avant-hierActualités numériques

Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

24 septembre 2024 à 14:06
Après les remontrances, la transparence
Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

Microsoft vient de publier un premier rapport pour présenter les actions prises dans le cadre de sa Secure Future Initiative. La société affirme qu’il s’agit du plus vaste projet de cybersécurité de l’histoire. Elle veut montrer, par l’ampleur de ces mesures, qu’elle a retenu les enseignements du passé, voire qu’elle peut être une source d’inspiration.

La Secure Future Initiative (SFI) a été annoncée en novembre 2023. La société de Redmond avait présenté de grands objectifs, présentant un plan de révision intégrale de sa cybersécurité. Il s’agissait autant de mieux protéger ses propres infrastructures que ses clients, à travers la longue liste de produits qu’elle propose. Tout particulièrement dans le cloud.

Comment l’entreprise en est-elle arrivée à lancer cette initiative ? À la suite d’une série d’incidents de sécurité. Ce fut particulièrement le cas en septembre 2023, quand Microsoft a révélé qu’un groupe de pirates chinois, nommé Storm-0558, avait réussi à s’infiltrer dans des comptes email, dont plusieurs appartenaient à des gouvernements (américain et européens). Des informations avaient été volées.

Après l’annonce de la SFI, plusieurs autres incidents ont eu lieu. En janvier, des groupes de pirates russes ont cette fois réussi à avoir accès à des comptes email de responsables chez Microsoft. Là encore, il y avait eu vol d’informations. Deux mois plus tard, les mêmes groupes ont réussi à s’introduire dans plusieurs dépôts de code de Microsoft sur GitHub.

Conséquence, l’entreprise a annoncé en mai que la sécurité était désormais sa « priorité absolue ». Six piliers avaient été identifiés (nous y reviendrons). Enfin, trois grands principes ont été proclamés : sécurité dès la conception, sécurité par défaut et opérations sécurisées. Dans un premier rapport, Microsoft résume ainsi l’ensemble des actions prises depuis les évènements de l’été 2023.

Une nouvelle organisation

Depuis, Microsoft s’est doté d’un conseil de gouvernance de la cybersécurité. Il est composé de treize RSSI (responsables de la sécurité des systèmes d’information) adjoints, sous la houlette du RSSI de l’entreprise, Igor Tsyganskiy. Chaque RSSI adjoint est en charge de la sécurité dans une division de Microsoft, comme Azure, IA, Microsoft 365, Gaming et ainsi de suite.

« Le Conseil de gouvernance de la cybersécurité collabore avec les responsables de l’ingénierie de la SFI pour définir et hiérarchiser les travaux ainsi que pour définir les orientations futures. Le conseil est responsable de la mise en œuvre des exigences réglementaires, de la conformité permanente et de la détermination de l’architecture de sécurité nécessaire pour atteindre nos objectifs. Le conseil rend compte des risques cyber et de la conformité au RSSI, qui à son tour communique ces informations à l’équipe de direction et au conseil d’administration de Microsoft », indique le rapport.

Microsoft infuse également une plus grande dose de cybersécurité chez l’ensemble des employés, qui n’ont plus le choix. Définie comme priorité absolue, elle compte désormais dans les évaluations de performances. Chaque employé est donc tenu de s’y engager et doit rendre des comptes. Un lien a également été établi entre la sécurité et la rémunération pour la direction.

En juillet dernier, l’entreprise a créé une Security Skilling Academy. Elle a pour mission de concentrer les ressources et former les employés. « L’académie garantit que, quel que soit leur rôle, les employés sont équipés pour donner la priorité à la sécurité dans leur travail quotidien et pour identifier le rôle direct qu’ils jouent dans la sécurisation de Microsoft », ajoute l’entreprise.

Pour surveiller les progrès réalisés dans le cadre de la SFI, la direction examine chaque semaine un rapport. Le conseil d’administration en reçoit un chaque trimestre.

Les actions entreprises sur les « six piliers »

Microsoft vante avec ce rapport son « approche globale de la cybersécurité ». Satya Nadella, CEO de l’éditeur, avait indiqué au printemps que faire de la sécurité une priorité se traduirait notamment par certains renoncements. « Si vous devez choisir entre la sécurité et une nouvelle fonction, choisissez la sécurité », avait ainsi indiqué le dirigeant. La firme avait également identifié six piliers sur lesquels concentrer ses actions.

Sur la protection des identités et des secrets, une partie du travail a consisté à mettre à jour Entra ID (anciennement Azure Active Directory) et Microsoft Account (MSA) sur les clouds publics et gouvernementaux. Leur génération, leur stockage et leur rotation sont désormais gérés automatiquement par Azure Managed Hardware Security Module (HSM, protection matérielle).

Microsoft met aussi en avant une validation plus cohérente des jetons de sécurité (via ses SDK d’identité standards). La recherche et la détection de menaces ont été incluses dans le processus, avec activation de ces fonctions dans plusieurs services critiques. La vérification des utilisateurs par vidéo a été mise en place pour 95 % des utilisateurs internes.

Vient ensuite la protection des « tenants » et l’isolation des systèmes de production. Les tenants (terme anglais) désignent les locataires, qui peuvent être des personnes physiques ou morales, chacune ayant son propre nuage privé au sein d’une infrastructure publique (comme un appartement au sein d’un immeuble). Suite à une révision du cycle de vie des applications impliquées, 730 000 inutilisées ont été supprimées. Microsoft dit avoir également éliminé 5,75 millions de tenants inactifs, avec une nette réduction de la surface d’attaque à la clé. Les créations de tenants pour les tests et expérimentations ont été rationalisées, avec des valeurs sécurisées et une gestion plus stricte de la durée de vie.

Centralisation, inventaire et rationalisation

Sur les réseaux, Microsoft dit avoir enregistré plus de 99 % de ses actifs physiques dans un inventaire central. Il permet notamment le suivi de la propriété et la conformité des microprogrammes (firmwares). Les réseaux virtuels ayant une connectivité dorsale (internet) ont été isolés du réseau d’entreprise et sont soumis à des examens complets réguliers. Certaines de ces actions ont été répercutées dans les produits clients pour aider à sécuriser les déploiements.

Même effort de centralisation sur les pipelines de production pour le cloud commercial, 85 % étant désormais gérés de manière centralisée. Microsoft évoque des « déploiements plus cohérents, plus efficaces et plus fiables ». En outre, la durée de vie des jetons d’accès personnels a été réduite à 7 jours, l’accès à SSH a été coupé pour les dépôts internes d’ingénierie et le nombre de rôles élevés ayant accès à ces systèmes a été nettement réduit. Des contrôles de preuve de présence ont été installés sur les points critiques des flux de code, dans le cadre du développement des logiciels.

Rationalisation également pour tout ce qui touche à la surveillance et la détection des menaces, notamment tout ce qui touche aux journaux d’audits de sécurité. Une garantie, selon Microsoft, pour des données télémétriques pertinentes. « Par exemple, nous avons mis en place une gestion centralisée et une période de conservation de deux ans pour les journaux d’audit de sécurité de l’infrastructure d’identité », ajoute l’entreprise.

Enfin, des efforts ont été faits pour améliorer le temps de réponse et de remédiation, répartis en deux axes. D’une part, des processus actualisés pour réduire le délai d’atténuation quand des failles critiques sont découvertes dans le cloud. D’autre part, une plus grande transparence dans la communication. Les vulnérabilités critiques font maintenant l’objet de bulletins CVE, même quand aucune action client n’est requise. En outre, un « Bureau de gestion de la sécurité des clients » a été créé pour mieux communiquer avec la clientèle, surtout pendant les incidents de sécurité.

Entre actions concrètes et exercice de communication

Le rapport de Microsoft est intéressant à plus d’un titre. Il offre bien sûr une visibilité sur les actions concrètement entreprises par une structure énorme sur la sécurité. Mais il s’agit, à un même degré d’importance, d’un exercice de communication.

Le rapport est assez détaillé pour être un véritable travail de transparence. Il livre également des remarques intéressantes, notamment sur la formation du personnel. Microsoft plonge par exemple dans la perception classique d’une sécurité vue comme antagoniste à la productivité. La formation continue est donc présentée comme la solution, qui ne donne pas des résultats immédiats, mais permet de créer de nouveaux réflexes et donc, à terme, de rattraper la productivité « perdue ».

Microsoft présente en outre ce rapport comme le premier, ajoutant que ce surplus de sécurité n’en est qu’à ses débuts. À la fin du document, on peut d’ailleurs observer un tableau listant les recommandations qui lui avaient été faites par le CSRB (Cyber Safety Review Board), lui-même faisant partie de la CISA (Cybersecurity & Infrastructure Security Agency). Après les incidents de sécurité de l’année dernière, le Board avait en effet émis des critiques virulentes, concluant que seule une « cascade de défaillances » avait pu permettre à l’attaque de Storm-0558 de réussir.

Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

24 septembre 2024 à 14:06
Après les remontrances, la transparence
Dans un rapport, Microsoft résume ses progrès sur la sécurité depuis les piratages de 2023

Microsoft vient de publier un premier rapport pour présenter les actions prises dans le cadre de sa Secure Future Initiative. La société affirme qu’il s’agit du plus vaste projet de cybersécurité de l’histoire. Elle veut montrer, par l’ampleur de ces mesures, qu’elle a retenu les enseignements du passé, voire qu’elle peut être une source d’inspiration.

La Secure Future Initiative (SFI) a été annoncée en novembre 2023. La société de Redmond avait présenté de grands objectifs, présentant un plan de révision intégrale de sa cybersécurité. Il s’agissait autant de mieux protéger ses propres infrastructures que ses clients, à travers la longue liste de produits qu’elle propose. Tout particulièrement dans le cloud.

Comment l’entreprise en est-elle arrivée à lancer cette initiative ? À la suite d’une série d’incidents de sécurité. Ce fut particulièrement le cas en septembre 2023, quand Microsoft a révélé qu’un groupe de pirates chinois, nommé Storm-0558, avait réussi à s’infiltrer dans des comptes email, dont plusieurs appartenaient à des gouvernements (américain et européens). Des informations avaient été volées.

Après l’annonce de la SFI, plusieurs autres incidents ont eu lieu. En janvier, des groupes de pirates russes ont cette fois réussi à avoir accès à des comptes email de responsables chez Microsoft. Là encore, il y avait eu vol d’informations. Deux mois plus tard, les mêmes groupes ont réussi à s’introduire dans plusieurs dépôts de code de Microsoft sur GitHub.

Conséquence, l’entreprise a annoncé en mai que la sécurité était désormais sa « priorité absolue ». Six piliers avaient été identifiés (nous y reviendrons). Enfin, trois grands principes ont été proclamés : sécurité dès la conception, sécurité par défaut et opérations sécurisées. Dans un premier rapport, Microsoft résume ainsi l’ensemble des actions prises depuis les évènements de l’été 2023.

Une nouvelle organisation

Depuis, Microsoft s’est doté d’un conseil de gouvernance de la cybersécurité. Il est composé de treize RSSI (responsables de la sécurité des systèmes d’information) adjoints, sous la houlette du RSSI de l’entreprise, Igor Tsyganskiy. Chaque RSSI adjoint est en charge de la sécurité dans une division de Microsoft, comme Azure, IA, Microsoft 365, Gaming et ainsi de suite.

« Le Conseil de gouvernance de la cybersécurité collabore avec les responsables de l’ingénierie de la SFI pour définir et hiérarchiser les travaux ainsi que pour définir les orientations futures. Le conseil est responsable de la mise en œuvre des exigences réglementaires, de la conformité permanente et de la détermination de l’architecture de sécurité nécessaire pour atteindre nos objectifs. Le conseil rend compte des risques cyber et de la conformité au RSSI, qui à son tour communique ces informations à l’équipe de direction et au conseil d’administration de Microsoft », indique le rapport.

Microsoft infuse également une plus grande dose de cybersécurité chez l’ensemble des employés, qui n’ont plus le choix. Définie comme priorité absolue, elle compte désormais dans les évaluations de performances. Chaque employé est donc tenu de s’y engager et doit rendre des comptes. Un lien a également été établi entre la sécurité et la rémunération pour la direction.

En juillet dernier, l’entreprise a créé une Security Skilling Academy. Elle a pour mission de concentrer les ressources et former les employés. « L’académie garantit que, quel que soit leur rôle, les employés sont équipés pour donner la priorité à la sécurité dans leur travail quotidien et pour identifier le rôle direct qu’ils jouent dans la sécurisation de Microsoft », ajoute l’entreprise.

Pour surveiller les progrès réalisés dans le cadre de la SFI, la direction examine chaque semaine un rapport. Le conseil d’administration en reçoit un chaque trimestre.

Les actions entreprises sur les « six piliers »

Microsoft vante avec ce rapport son « approche globale de la cybersécurité ». Satya Nadella, CEO de l’éditeur, avait indiqué au printemps que faire de la sécurité une priorité se traduirait notamment par certains renoncements. « Si vous devez choisir entre la sécurité et une nouvelle fonction, choisissez la sécurité », avait ainsi indiqué le dirigeant. La firme avait également identifié six piliers sur lesquels concentrer ses actions.

Sur la protection des identités et des secrets, une partie du travail a consisté à mettre à jour Entra ID (anciennement Azure Active Directory) et Microsoft Account (MSA) sur les clouds publics et gouvernementaux. Leur génération, leur stockage et leur rotation sont désormais gérés automatiquement par Azure Managed Hardware Security Module (HSM, protection matérielle).

Microsoft met aussi en avant une validation plus cohérente des jetons de sécurité (via ses SDK d’identité standards). La recherche et la détection de menaces ont été incluses dans le processus, avec activation de ces fonctions dans plusieurs services critiques. La vérification des utilisateurs par vidéo a été mise en place pour 95 % des utilisateurs internes.

Vient ensuite la protection des « tenants » et l’isolation des systèmes de production. Les tenants (terme anglais) désignent les locataires, qui peuvent être des personnes physiques ou morales, chacune ayant son propre nuage privé au sein d’une infrastructure publique (comme un appartement au sein d’un immeuble). Suite à une révision du cycle de vie des applications impliquées, 730 000 inutilisées ont été supprimées. Microsoft dit avoir également éliminé 5,75 millions de tenants inactifs, avec une nette réduction de la surface d’attaque à la clé. Les créations de tenants pour les tests et expérimentations ont été rationalisées, avec des valeurs sécurisées et une gestion plus stricte de la durée de vie.

Centralisation, inventaire et rationalisation

Sur les réseaux, Microsoft dit avoir enregistré plus de 99 % de ses actifs physiques dans un inventaire central. Il permet notamment le suivi de la propriété et la conformité des microprogrammes (firmwares). Les réseaux virtuels ayant une connectivité dorsale (internet) ont été isolés du réseau d’entreprise et sont soumis à des examens complets réguliers. Certaines de ces actions ont été répercutées dans les produits clients pour aider à sécuriser les déploiements.

Même effort de centralisation sur les pipelines de production pour le cloud commercial, 85 % étant désormais gérés de manière centralisée. Microsoft évoque des « déploiements plus cohérents, plus efficaces et plus fiables ». En outre, la durée de vie des jetons d’accès personnels a été réduite à 7 jours, l’accès à SSH a été coupé pour les dépôts internes d’ingénierie et le nombre de rôles élevés ayant accès à ces systèmes a été nettement réduit. Des contrôles de preuve de présence ont été installés sur les points critiques des flux de code, dans le cadre du développement des logiciels.

Rationalisation également pour tout ce qui touche à la surveillance et la détection des menaces, notamment tout ce qui touche aux journaux d’audits de sécurité. Une garantie, selon Microsoft, pour des données télémétriques pertinentes. « Par exemple, nous avons mis en place une gestion centralisée et une période de conservation de deux ans pour les journaux d’audit de sécurité de l’infrastructure d’identité », ajoute l’entreprise.

Enfin, des efforts ont été faits pour améliorer le temps de réponse et de remédiation, répartis en deux axes. D’une part, des processus actualisés pour réduire le délai d’atténuation quand des failles critiques sont découvertes dans le cloud. D’autre part, une plus grande transparence dans la communication. Les vulnérabilités critiques font maintenant l’objet de bulletins CVE, même quand aucune action client n’est requise. En outre, un « Bureau de gestion de la sécurité des clients » a été créé pour mieux communiquer avec la clientèle, surtout pendant les incidents de sécurité.

Entre actions concrètes et exercice de communication

Le rapport de Microsoft est intéressant à plus d’un titre. Il offre bien sûr une visibilité sur les actions concrètement entreprises par une structure énorme sur la sécurité. Mais il s’agit, à un même degré d’importance, d’un exercice de communication.

Le rapport est assez détaillé pour être un véritable travail de transparence. Il livre également des remarques intéressantes, notamment sur la formation du personnel. Microsoft plonge par exemple dans la perception classique d’une sécurité vue comme antagoniste à la productivité. La formation continue est donc présentée comme la solution, qui ne donne pas des résultats immédiats, mais permet de créer de nouveaux réflexes et donc, à terme, de rattraper la productivité « perdue ».

Microsoft présente en outre ce rapport comme le premier, ajoutant que ce surplus de sécurité n’en est qu’à ses débuts. À la fin du document, on peut d’ailleurs observer un tableau listant les recommandations qui lui avaient été faites par le CSRB (Cyber Safety Review Board), lui-même faisant partie de la CISA (Cybersecurity & Infrastructure Security Agency). Après les incidents de sécurité de l’année dernière, le Board avait en effet émis des critiques virulentes, concluant que seule une « cascade de défaillances » avait pu permettre à l’attaque de Storm-0558 de réussir.

☕️ Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

24 septembre 2024 à 06:44
Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

Une petite dizaine de Mac datant de 2015 et 2016 sont désormais considérés comme « obsolètes » par Apple, comme l’a remarqué MacRumors. Traduction, ils ne peuvent plus faire l’objet d’une réparation en boutique Apple ou agréée.

Ces machines incluent six MacBook et trois iMac :

  • MacBook Retina 12 pouces (début 2016)
  • MacBook Air 13 pouces (début 2015)
  • MacBook Pro 13 pouces avec deux ports Thunderbolt (2016)
  • MacBook Pro 13 pouces avec quatre ports Thunderbolt (2016)
  • MacBook Pro 15 pouces (2016)
  • MacBook Pro Retina 13 pouces (début 2015)
  • iMac 21,5 pouces (fin 2015)
  • iMac Retina 4K 21,5 pouces (fin 2015)
  • iMac Retina 5K 27 pouces (fin 2015)

Parallèlement, trois autres configurations entrent dans la catégorie des machines considérées comme « anciennes » : le MacBook Air Retina 13 pouces de 2018, le MacBook Pro 13 pouces avec deux ports Thunderbolt de 2017 et celui avec quatre ports de 2018.

Quand une machine est considérée comme ancienne, elle peut toujours être réparée, mais à la condition que les pièces soient toujours disponibles. Comme le rappelle notamment MacG, il faut encore que l’opération soit « rentable », car ces réparations peuvent s’avérer très onéreuses selon les pièces demandées.

Aujourd’hui, le plus vieux Mac pris en charge par le dernier macOS, Sequoia, est l’iMac Pro de 2017.

☕️ Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

24 septembre 2024 à 06:44
Chez Apple, toute une série de Mac deviennent obsolètes ou anciens

Une petite dizaine de Mac datant de 2015 et 2016 sont désormais considérés comme « obsolètes » par Apple, comme l’a remarqué MacRumors. Traduction, ils ne peuvent plus faire l’objet d’une réparation en boutique Apple ou agréée.

Ces machines incluent six MacBook et trois iMac :

  • MacBook Retina 12 pouces (début 2016)
  • MacBook Air 13 pouces (début 2015)
  • MacBook Pro 13 pouces avec deux ports Thunderbolt (2016)
  • MacBook Pro 13 pouces avec quatre ports Thunderbolt (2016)
  • MacBook Pro 15 pouces (2016)
  • MacBook Pro Retina 13 pouces (début 2015)
  • iMac 21,5 pouces (fin 2015)
  • iMac Retina 4K 21,5 pouces (fin 2015)
  • iMac Retina 5K 27 pouces (fin 2015)

Parallèlement, trois autres configurations entrent dans la catégorie des machines considérées comme « anciennes » : le MacBook Air Retina 13 pouces de 2018, le MacBook Pro 13 pouces avec deux ports Thunderbolt de 2017 et celui avec quatre ports de 2018.

Quand une machine est considérée comme ancienne, elle peut toujours être réparée, mais à la condition que les pièces soient toujours disponibles. Comme le rappelle notamment MacG, il faut encore que l’opération soit « rentable », car ces réparations peuvent s’avérer très onéreuses selon les pièces demandées.

Aujourd’hui, le plus vieux Mac pris en charge par le dernier macOS, Sequoia, est l’iMac Pro de 2017.

Ubuntu 24.10 fait sa rentrée : noyau 6.11, GNOME 47, Wayland pour tous et APT 3.0

23 septembre 2024 à 15:45
Avec... des colonnes dans APT !
Ubuntu 24.10 fait sa rentrée : noyau 6.11, GNOME 47, Wayland pour tous et APT 3.0

Canonical a publié la bêta de sa nouvelle distribution Ubuntu 24.10 vendredi soir. Cette version vient marquer le 20ᵉ anniversaire du système, avec quelques clins d’œil au passage. Si cette nouvelle mouture comporte surtout une modernisation générale de ses composants, on trouve aussi quelques apports visibles, comme un nouveau centre de sécurité.

Automne oblige, deux des distributions les plus utilisées sont renouvelées coup sur coup. Nous avons vu la première, Fedora, la semaine dernière avec la bêta de la version 41. Très riche en nouveautés, surtout sous le capot, elle arrivera à la fin du mois prochain. La seconde, Ubuntu, a elle aussi une bêta pour sa nouvelle mouture. Celle-ci, estampillée 24.10 et nommée « Oracular Oriole », sera pourtant disponible en version stable plus tôt, dans trois semaines.

Si Fedora est un laboratoire pour les nouvelles technologies, Ubuntu reste aujourd’hui la distribution la plus importante après Debian, sur laquelle elle est basée. Ubuntu sert de fondation à de nombreuses distributions, en particulier ses moutures LTS (Long Term Support), comme dans le cas de Linux Mint. Les versions intermédiaires sont un peu moins importantes, mais restent utilisées par de nombreuses personnes.

Là aussi, un noyau 6.11 et GNOME 47

Une partie des nouveautés d’Ubuntu vient du noyau Linux 6.11 et de GNOME 47, comme dans Fedora. Nous n’allons pas lister de nouveau tous ces apports. Ils sont nombreux et décrits dans notre article sur Fedora 41.

Signalons quand même que le choix de la couleur d’accentuation, qu’Ubuntu avait mis en place en 2022, est remplacé par la fonction native de GNOME 47. La présentation est pratiquement identique, l’équipe de GNOME ayant largement repris ce que Canonical proposait. Cette reprise devrait favoriser la cohérence graphique.

Ubuntu 24.10 adopte également les nouvelles fenêtres de dialogue, là encore pour des questions de cohérence à travers tout le système. On retrouve certaines autres évolutions importantes, comme une amélioration du comportement de l’interface sur les petits écrans, l’accélération matérielle pour l’enregistrement vidéo de l’écran, un meilleur rendu GTK sur le vieux matériel ou encore la persistance des sessions distantes.

Quoi de neuf dans Ubuntu 24.10 ?

Commençons les nouveautés visibles avec le Dock. Plusieurs améliorations ont été faites, notamment la manière dont les applications épinglées signalent leur mise à jour. L’approche retenue jusqu’ici était une disparition pure et simple des icônes et leur réapparition quelques secondes plus tard. Pas nécessairement évident. Canonical change de fusil d’épaule : désormais, l’icône sera simplement grisée et une barre de progression apparaitra en dessous.


Il reste 52% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

23 septembre 2024 à 13:34
Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

Lors de la démonstration officielle d’Apple Intelligence à la WWDC en juin dernier, l’entreprise a présenté l’ensemble de nouveautés en un tout unique. Pourtant, toutes ces fonctions n’arriveront pas en même temps, sans parler de la disponibilité géographique.

Aux États-Unis, on savait déjà qu’il faudrait attendre iOS/iPadOS 18.1 et macOS 15.1 le mois prochain pour avoir les premières briques d’Apple Intelligence. Selon Mark Gurman, connu pour la fiabilité générale de ses informations et cité par iGen, les fonctions vont même être déployées progressivement sur une période allant d’octobre à mars prochain.

Le calendrier prévu serait ainsi :

  • iOS 18.1 en octobre avec la nouvelle interface de Siri, les outils pour le texte, le tri des notifications et des emails, ainsi que la gomme magique ;
  • iOS 18.2 en décembre, avec les Genmoji, Image PlayGround, l’intégration de ChatGPT, la nouvelle interface de Mail et la disponibilité aux autres pays anglo-saxons (ce dernier point a été annoncé par Apple) ;
  • iOS 18.3 en janvier, avec d’autres nouveautés pour Siri et le support de nouvelles langues ;
  • iOS 18.4 en mars, avec le nouveau Siri complet, le contrôle des applications et le support des connaissances personnelles.

Encore une fois, ce calendrier, même s’il s’avérait correct, ne présume en rien de la disponibilité d’Apple Intelligence dans le reste du monde, surtout en Europe. Apple a déjà déclaré que la législation européenne était trop complexe (DMA en tête), ce qui provoquerait un retard sur le Vieux continent. Une rhétorique que l’on a récemment retrouvée dans la lettre ouverte de Meta et Spotify à la Commission européenne.

☕️ Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

23 septembre 2024 à 13:34
Apple Intelligence : l’arrivée des fonctions s’étalerait sur six mois

Lors de la démonstration officielle d’Apple Intelligence à la WWDC en juin dernier, l’entreprise a présenté l’ensemble de nouveautés en un tout unique. Pourtant, toutes ces fonctions n’arriveront pas en même temps, sans parler de la disponibilité géographique.

Aux États-Unis, on savait déjà qu’il faudrait attendre iOS/iPadOS 18.1 et macOS 15.1 le mois prochain pour avoir les premières briques d’Apple Intelligence. Selon Mark Gurman, connu pour la fiabilité générale de ses informations et cité par iGen, les fonctions vont même être déployées progressivement sur une période allant d’octobre à mars prochain.

Le calendrier prévu serait ainsi :

  • iOS 18.1 en octobre avec la nouvelle interface de Siri, les outils pour le texte, le tri des notifications et des emails, ainsi que la gomme magique ;
  • iOS 18.2 en décembre, avec les Genmoji, Image PlayGround, l’intégration de ChatGPT, la nouvelle interface de Mail et la disponibilité aux autres pays anglo-saxons (ce dernier point a été annoncé par Apple) ;
  • iOS 18.3 en janvier, avec d’autres nouveautés pour Siri et le support de nouvelles langues ;
  • iOS 18.4 en mars, avec le nouveau Siri complet, le contrôle des applications et le support des connaissances personnelles.

Encore une fois, ce calendrier, même s’il s’avérait correct, ne présume en rien de la disponibilité d’Apple Intelligence dans le reste du monde, surtout en Europe. Apple a déjà déclaré que la législation européenne était trop complexe (DMA en tête), ce qui provoquerait un retard sur le Vieux continent. Une rhétorique que l’on a récemment retrouvée dans la lettre ouverte de Meta et Spotify à la Commission européenne.

☕️ Le prix de YouTube Premium s’envole dans certains pays

23 septembre 2024 à 08:40

Mauvaise nouvelle pour les personnes abonnées à YouTube Premium dans certains pays. Google y procède actuellement à un ajustement des tarifs et certaines augmentations sont très significatives.

C’est le cas notamment pour la Belgique, l’Irlande, l’Italie et les Pays-Bas, puisque l’offre classique passe de 11,99 à 13,99 euros, et surtout le forfait familial de 17,99 à 25,99 euros par mois. Évolutions similaires en Suisse, avec un forfait classique à 17,90 CHF (contre 15,90) et une formule familiale à 33,90 CHF (contre 23,90).

Le forfait familial est celui qui reçoit les plus importantes augmentations, avec souvent dans les 50 % supplémentaires. Au Danemark, le forfait passe ainsi de 177 à 259 DKK. En Suède, il passe de 179 à 279 SEK. En République tchèque, le tarif s’envole de 269 à 389 CZK.

Comme on peut le voir sur Reddit, de nombreuses personnes reçoivent actuellement un email les avertissant du changement. Plusieurs déclarent se désabonner en conséquence.

☕️ Qualcomm aurait approché Intel pour un rachat

23 septembre 2024 à 07:17
Qualcomm aurait approché Intel pour un rachat

Selon le Wall Street Journal, Qualcomm aurait approché Intel en vue d’un rachat. Il existerait une grande incertitude autour de l’opération, le Journal précisant qu’aucun détail financier n’a filtré. Ce n’est d’ailleurs pas la première fois qu’une telle opération fait l’objet de rumeurs. Au début du mois, Reuters rapportait ainsi que Qualcomm était intéressée par une partie des activités d’Intel, celles liées à la conception de puces.

Que la rumeur soit fondée ou non, elle est représentative d’une période troublée pour Intel. La société, grande spécialiste des puces x86, peine à maintenir ses marges et ses parts de marché entre un AMD qui s’est largement développé sous la houlette de Lisa Su et un marché Arm en pleine expansion, dopé par l’IA.

Il faut dire que l’année 2024 a été riche en mauvaises nouvelles pour Intel. Plus tôt dans l’année, la firme avait ainsi annoncé un plan d’économies. Il doit notamment aboutir au licenciement de 15 % de son personnel d’ici la fin de l’année.

Plus récemment, la société a annoncé que ses activités de fonderie (Intel Foundry) allaient être transférées à une entité indépendante et que deux projets de construction d’usines étaient suspendus. Intel pourrait également se séparer d’Altera, un spécialiste de puces FPGA qu’elle avait racheté en 2015.

Qualcomm, pendant ce temps, ne connait pas vraiment la crise. Le géant américain, dont les puces alimentent une grande partie des smartphones Android, n’oublie pas l’IA et améliore graduellement ses NPU. Parallèlement, la société propose ses Snapdragon X dans les PC Copilot+, avec des performances globalement convaincantes.

Un tel rachat serait-il envisageable ? Rien d’impossible, même si cette opération serait examinée de très près par les autorités compétentes. Le rachat d’un géant par un autre accoucherait d’un puissant mastodonte, doté d’une force de frappe en x86 comme en Arm, et assez bien positionné en IA.

Parallèlement, Bloomberg rapporte qu’Apollo Global Management, spécialisée dans la gestion d’actifs, aurait aussi approché Intel. Le but serait tout autre : un investissement de 5 milliards de dollars, sous forme d’une prise de participation. L’examen de la proposition n’en serait qu’au stade préliminaire. Ce ne serait pas la première fois qu’Apollo investit dans Intel, puisqu’elle va prendre une participation de 49 % dans une coentreprise qui doit aboutir à une nouvelle usine en Irlande.

❌
❌