Vue lecture

Le Wi-Fi 8 (802.11bn) se prépare : même débit, mais « fiabilité ultra élevée »

Il se plie en 2x2 pour vous servir
Le Wi-Fi 8 (802.11bn) se prépare : même débit, mais « fiabilité ultra élevée »

Le Wi-Fi 8 ne devrait pas dépasser les débits du Wi-Fi 7. Il faut dire qu’en théorie, on peut déjà atteindre 46 Gb/s… Par contre, cette nouvelle génération de la norme veut améliorer la fiabilité, les débits pratiques et les réseaux avec plusieurs points d’accès (mesh). C’est du moins ce qui ressort d’un livre blanc de MediaTek.

Le Wi-Fi 8 vise l’Ultra High Reliability

Comme à chaque fois qu’une nouvelle génération de réseau sans fil arrive dans les équipements pour le grand public, la génération suivante pointe le bout de son nez. C’était le cas avec le Wi-Fi 7 en 2020, quand le Wi-Fi 6 prenait à peine ses aises. Rebelote cette année avec le Wi-Fi 8, alors que le Wi-Fi 7 s’installe à peine. C’est MediaTek qui s’y colle avec un livre blanc sur le Wi-Fi 8 alias 802.11bn. De quoi jeter un premier regard en attendant des précisions de la Wi-Fi Alliance, de l’IEEE ou d’autres fabricants de puces.

MediaTek explique que le Wi-Fi 7 est mis en avant comme proposant un « débit extrêmement élevé », ce qui remplit de joie les équipes marketing. Le Wi-Fi 8 ne devrait pas le concurrencer en termes de débits théoriques, car il vise une « fiabilité ultra élevée ». MediaTek parle d’Ultra High Reliability (UHR) pour le Wi-Fi 8 à la place de l’Extremely High Throughput du Wi-Fi 7.

Wi-Fi 7 et 8 : même combat sur les débits théoriques

Sur les débits, cela se confirme avec un tableau récapitulatif des principales caractéristiques techniques. On y retrouve des blocs de 320 MHz maximum, la prise en charge des bandes de 2,4, 5 et 6 GHz, du 4K QAM pour les données, et ainsi un débit de 2,88 Gb/s par flux.

Mediatek indique 8 flux en simultané sur son tableau, aussi bien pour le Wi-Fi 7 que le Wi-Fi 8, mais le Wi-Fi 7 est pour rappel théoriquement capable de grimper à 16 flux. Le débit maximum passerait alors des 23 Gbms indiqués dans le tableau à 46 Gb/s.

Peu importe pour le moment, ce n’est pas primordial de savoir si le Wi-Fi 8 prendra en charge 8 ou 16 flux et, dans tous les cas, cela peut encore évoluer au fil des travaux. Le plus important est de voir que, pour l’instant, le Wi-Fi 8 est aligné sur le Wi-Fi 7.

But principal : améliorer la coordination des points d’accès

MediaTek explique que la fonction de « coordination de plusieurs points d’accès, introduite dans le Wi-Fi 7, a été reportée au Wi-Fi 8 en raison de sa complexité ». Le fabricant détaille son propos : « La popularité des réseaux maillés (mesh) a augmenté l’utilisation des points d’accès multiples dans les foyers, améliorant ainsi la couverture Wi-Fi. Cependant, sans coordination efficace, ces points d’accès peuvent se disputer et partager des ressources communes du spectre, ce qui fait qu’un seul point d’accès utilise souvent le spectre à un moment donné ».

MediaTek souhaite améliorer les débits, mais en faisant référence dans le cas présent « à l’amélioration du débit effectif plutôt qu’au débit maximum (théorique) PHY, qui est souvent mis en avant sur les emballages des produits ». MediaTek souhaite ainsi améliorer les « performances réelles des utilisateurs » dans des environnements du quotidien.

Coordinated SR et BF, DSO…

La première technologie mise en avant est le Coordinated Spatial Reuse (Co-SR), Coordinated Beamforming (Co-BF), Dynamic Sub-channel Operation (DSO) et Non-Primary Channel Access (NPCA). Dans les deux premiers cas (Co-SR et Co-BF), il s’agit d’améliorer et surtout de coordonner entre plusieurs points d’accès des technologies déjà existantes sur les précédentes générations de Wi-Fi.

Le Beamforming (ou focalisation) par exemple est disponible depuis le 802.11n ou Wi-Fi 4. Cette technologie permet, pour rappel, de concentrer le signal émis par le routeur vers un appareil cible. La 5G utilise aussi du beamforming.

De son côté, le Spatial Reuse date aussi du Wi-Fi 6 et permet à plusieurs bornes Wi-Fi situées à proximité d’utiliser une même fréquence, que ce soit avec SR ou BF, l’ajout du Co pour Coordinated est donc la nouveauté du Wi-Fi 8, selon MediaTek.

Dynamic Sub-channel Operation permet à un point d’accès d’optimiser au mieux les transmissions vers un appareil en s’adaptant automatiquement à ses caractéristiques techniques, notamment au nombre d’antennes dont il dispose, et donc au nombre de flux qu’il peut prendre en charge en simultané. DSO devrait augmenter les performances lorsque plusieurs terminaux téléchargent un même fichier en même temps, par exemple, permettant au plus performant d’obtenir un sous-canal supplémentaire.

Citons aussi New Data Rate pour adresser le « problème de la dégradation rapide de la vitesse rencontrée par les clients lorsqu’ils s’éloignent du point d’accès (AP) ». MediaTek annonce enfin que « d’autres améliorations et fonctionnalités qui s’appuient sur ces technologies fondamentales seront explorées dans de prochains ultérieurs », sans entrer dans les détails.

Rendez-vous en 2028, mais les choses peuvent évoluer d’ici là

Le programme de certification du Wi-Fi 8 est attendu pour 2028 mais, comme avec le Wi-Fi 7, les premiers produits pourraient arriver quelques mois avant, peut-être dès 2027. Le programme de certification Wi-Fi 7 est pour rappel arrivé début janvier 2024.

MediaTek partage un tableau prévisionnel des prochaines grandes étapes du Wi-Fi 8. D’ici là, la guerre sur la bande haute des 6 GHz sera, espérons-le, terminée…

☕️ Synchronisation des mots de passe : Microsoft abandonne son extension Chrome

Quand on choisit de synchroniser ses identifiants et mots de passe avec un compte Apple, Google ou Microsoft, il existe plusieurs moyens de les récupérer en fonction du contexte. Pour Microsoft, cela passe par son application Authenticator sur Android et iOS. On peut la configurer comme gestionnaire de mots de passe par défaut, permettant de rappeler ses identifiants dans les autres applications.

Et dans les navigateurs ? Microsoft synchronise bien sûr les données avec Edge. Pour les autres navigateurs basés sur Chromium, l’extension Autofill existe depuis février 2021. Firefox n’y a jamais eu droit.

Cependant, comme un lecteur nous en a informé, cette extension va disparaitre. Elle sera supprimée le 14 décembre, dans à peine un mois. Yoann, avec qui nous avons échangé, est concerné de près : il se sert de Vivaldi et utilisait jusqu’à présent la sauvegarde dans le compte de Microsoft.

Que donne Microsoft comme solution ? Une bascule vers Edge. « Pas question que j’abandonne Vivaldi », nous a cependant répondu Yoann. De fait, on comprend mal cet abandon chez l’éditeur. L’opération a toutes les apparences d’une tentative forcée de rabattre des utilisateurs vers Edge. Sur sa page, Microsoft dit avoir décidé de « simplifier ses offres ». Les personnes concernées apprécieront de devoir changer de navigateur parce que l’entreprise ne veut plus maintenir son extension.

Nous avons souligné ce problème dans notre récent article sur l’utilisation pratique des clés d’accès. Bien que ces dernières soient efficaces et globalement au niveau de leurs promesses, le choix de l’entreprise chez qui les stocker est déterminant.

Quel que soit le service que vous utilisez pour stocker et synchroniser vos secrets, mieux vaut s’assurer qu’il est disponible sur toutes les plateformes et dans tous les navigateurs dont vous vous servez. Dans le cas contraire, ce sera une source fréquente d’agacements.

☕️ 275 millions d’utilisateurs pour Threads, qui réfléchit aux DM, à la publicité et à la modération

Si l’on parle beaucoup de Bluesky actuellement, notamment à cause de nombreux transfuges de X, le réseau social de Meta croît également. Et les chiffres sont difficilement comparables, puisque Threads a reçu 15 millions de nouveaux utilisateurs sur les seuls 15 derniers jours. Ce qui fait dire à The Verge que « Threads a grandi d’un Bluesky ce mois-ci ».

La force de frappe est bien sûr très différente. Bluesky est pratiquement « parti de rien », sans glissement depuis une autre plateforme, et avec très peu de fonctions initialement. Threads, de son côté, est rattaché à Instagram et son immense base d’utilisateurs. Les liens vers Threads sont nombreux et Meta pousse copieusement à son utilisation.

La croissance de Threads s’est accélérée nettement ces derniers mois. En juillet dernier, après un an d’existence, nous rapportions que le réseau cumulait 175 millions d’utilisateurs actifs (mensuels). Le 3 novembre, Adam Mosseri, à la tête d’Instagram, rapportait que ce nombre avait atteint les 275 millions. L’augmentation des utilisateurs n’est pas sans soulever des questions sur la modération… dont tente d’ailleurs de profiter Bluesky. Adam Mosseri a annoncé s’occuper du sujet.

Le même Mosseri a indiqué hier que Threads ne demande désormais plus, après l’inscription, si l’on souhaite suivre automatiquement tous les comptes que l’on suit déjà sur Instagram. Le responsable affirme qu’après un test de quelques mois, l’équipe s’est rendu compte que les utilisateurs allaient plus souvent sur Threads en partant d’une liste vierge.

« Nous savons qu’il nous reste encore beaucoup à faire, et nos équipes travaillent dur pour apporter à cette communauté ce dont elle a besoin. Nous vous apprécions tous », a également ajouté Mosseri. Il reste, en effet, de nombreux manques dans Threads, particulièrement quand on le compare à X, dont il est à l’heure actuelle le plus concurrent.

Toujours pas de messages directs intégrés

C’est notamment le cas des messages directs (DM). Répondant à un message de la journaliste Katie Notopoulos, Adam Mosseri a indiqué qu’il fallait y réfléchir. Le système de messages sur Threads est en effet particulier : il faut passer par Instagram. La journaliste trouvait pour sa part qu’il y avait une certaine « perversité » à se rendre sur l’Instagram d’une personne pour lui envoyer un message. Elle dit ne jamais avoir eu ce ressenti sur Twitter.

On peut lire dans les réactions que la demande est populaire. Beaucoup parlent de la friction à changer d’application pour discuter en tête-à-tête avec des personnes présentes sur Threads, d’autres de cassure dans l’expérience. D’autres encore suggèrent différentes approches, comme l’intégration d’un onglet dans Threads pour afficher la messagerie d’Instagram.

De nombreux travaux encore à prévoir

L’autre gros reproche fait à Threads est l’algorithme de son flux principal, contre lequel le journaliste Tom Warren, de The Verge, ne mâchait pas ses mots il y a quelques jours. Là encore, on peut lire dans les réponses les mêmes reproches que l’on peut lire sur X : l’impossibilité d’un ordre chronologique par défaut et la mise en avant des contenus à fort engagement, jugés par beaucoup comme autant de « clickbaits ».

Ce vendredi en fin de journée, Mark Zuckerberg a également annoncé (sur Threads) une nouvelle fonctionnalité : des flux personnalisés en fonction de sujets ou de centres d’intérêt.

Enfin, Threads se prépare à ajouter de la publicité à son réseau social dès le début de l’année prochaine, c’est du moins ce qu’affirme The Information en se basant sur des déclarations de trois sources. Elle devrait être ajouté progressivement, mais nos confrères n’ont pas plus de détails.

Capteurs biométriques : l’Intérieur caviarde la quasi-totalité des documents obtenus via la Cada

CADAviardés
Capteurs biométriques : l’Intérieur caviarde la quasi-totalité des documents obtenus via la Cada

Le cahier des charges des capteurs d’empreintes digitales réclamés par le ministère de l’Intérieur ressemblait en tous points à ceux commercialisés par Idemia. Le pionnier et leader français de la biométrie avait d’ailleurs emporté le marché. Les documents relatifs à l’attribution du marché sont cela dit tellement caviardés qu’il est quasiment impossible de savoir pourquoi.

Dans un précédent article, nous détaillions ce pourquoi la Commission d’accès aux documents administratifs (Cada) avait émis un avis favorable cet été à notre demande d’accès aux documents relatifs à un marché public de 56 millions d’euros de fourniture de capteurs d’empreintes digitales, en prévision des Jeux olympiques de Paris 2024. Un épisode qui venait se rajouter à la saga de ce contrat, que Next a déjà, plusieurs fois, chroniqué depuis 2021.

Le ministère de l’Intérieur n’ayant pas fait suite à l’avis favorable de la Cada, nous l’avions relancé le 6 septembre dernier, et il nous a finalement transmis, cinq jours plus tard, 15 documents (voir en fin d’article) :

« Vous trouverez ci-joint les rapports d’analyse technique, qui intègrent l’analyse des candidatures et des offres, se rapportant aux lots n° 1 à 5 ainsi que les rapports de présentation correspondants, occultés ou disjoints des informations protégées, notamment par le secret des affaires. »

Mais plutôt que de nous transmettre les fichiers .pdf au format texte, il s’agit de scans (au format image) des versions papier des documents. De plus, leur qualité est volontairement dégradée (et pour certains légèrement décalés, compliquant leur OCRisation), et étrangement effectuée au moyen du logiciel PDFCreator, dans sa version 2.2.2.0, qui daterait de… fin 2015. Et ce, alors que les documents ont pourtant été « signés numériquement » au moyen de Foxit PDF Reader, et que leurs versions papier ne sont donc qu’une version dérivée des documents initiaux.

Les documents sont par ailleurs grandement caviardés, à commencer par l’analyse des offres des candidats (pages 18 à 22, et 26 à 29), de leurs performances économiques (23 et 30), ainsi que les passages détaillant leurs points forts et faibles (24 et 31), qui sont intégralement caviardés, de sorte qu’il faut lire entre les lignes pour tenter de comprendre ce pourquoi telle ou telle proposition a finalement été privilégiée, ou non.

En outre, seuls les noms des entreprises ayant remporté les marchés apparaissent en clair, ceux des entreprises écartées étant, eux aussi, caviardés.

Quatre propositions « jugées irrégulières »

Dans chacun des quatre lots où trois postulants étaient en concurrence, le ministère estima par ailleurs que les réponses adressées par l’un des trois candidats à ses demandes de précisions « n’ont pas satisfait l’administration », la conduisant à constater « l’irrégularité de son offre », ne laissant finalement que deux candidats en lice.


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Fedora 42 : vers un installeur Wayland et une édition KDE à part entière

Depuis plusieurs versions, l’une des nouveautés prévues est la bascule de l’installeur Anaconda vers WebUI. Comme Ubuntu l’a déjà fait avec Flutter, il s’agit de réécrire complètement le processus d’installation pour le moderniser et lui apporter de nouvelles fonctions. Dans le cas d’Ubuntu, on a pu voir, par exemple, des options d’accessibilité ajoutées dès le début de l’installation.

Pourtant, WebUI n’arrive pas. Il est à nouveau prévu pour Fedora 42, qui arrivera au printemps prochain. Mais parallèlement, l’équipe de développement travaille sur un autre projet : abandonner complètement X11 via le passage du processus d’installation à Wayland. Le serveur d’affichage a beau être utilisé par défaut depuis Fedora 25, X11 est toujours présent.

Dans la proposition faite par l’équipe, on apprend qu’elle veut se débarrasser de l’ensemble des dépendances X11 dans les images ISO d’installation. Dans la foulée, Xorg serait également supprimé dans les distributions CentOS Stream et bien sûr RHEL.

Comme l’indique l’équipe, ce n’est pas si simple. Il faut notamment supprimer TigerVNC, qui permet l’installation à distance avec interface graphique. L’idée serait de le remplacer par Gnome Remote Desktop (grd), avec à la clé une sécurité accrue et de meilleures performances.

Il faudrait également abandonner libXklavier (qui gère la disposition des claviers), à cause d’instabilités avec Wayland. Dans ce cas, c’est un peu le « bazar », car Wayland n’a pas d’API unifiée pour la gestion du clavier. L’équipe n’a pas les moyens de maintenir une solution personnalisée pour chaque spin (variante) de Fedora. Notant que plusieurs environnements de bureau se sont orientés vers l’API systemd-localed, elle recommande donc cette approche.

Fedora 42 s’annonce, quoi qu’il en soit, comme une version importante, avec des modifications majeures, comme le rapporte 9to5Linux. Par exemple, l’activation de Copy on Write sur DNF et RPM dans toutes les variantes du système, de nouveaux scripts d’installation pour le média Live ou encore l’unification de /usr/bin et /usr/sbin.

Enfin, KDE devrait être propulsé sur le devant de la scène avec Fedora 42, relevait récemment Phoronix. Une proposition de faire du spin KDE une édition officielle à part entière a été acceptée. En clair, il s’agirait d’une nouvelle édition de Fedora, proposée au même niveau que l’actuelle Workstation, toujours basée sur GNOME. Les deux devraient être proposées côte à côte, en reconnaissance du travail fourni par les développeurs du Fedora KDE Special Interest Group (SIG).

Accès aux infras d’Orange : pas d’« excès de pouvoir » de l’Arcep, selon le Conseil d’État

Carton plein pour l’Arcep : 5- 0
Accès aux infras d’Orange : pas d’« excès de pouvoir » de l’Arcep, selon le Conseil d’État

Après des mois d’attente, le Conseil d’État vient de débouter cinq opérateurs alternatifs. Ils avaient attaqué une décision d’Orange d’augmenter les tarifs de manière importante en 2024 et en 2025, avec un doublement sur cette période. La décision permet de connaitre les motivations du Conseil d’État. C’est le second revers pour des opérateurs sur ce sujet cette année.

Le Génie civil Boucles et Liaisons d’Optique (GC BLO de son petit nom) est un sujet qui a beaucoup fait parler cette année. En cause, d’importantes hausses de tarifs qui ne passent pas. Elles sont d’environ 70 % en 2024 et seront de 20 à 30 % en 2025. Soit « une hausse bien supérieure à 100 % en un an », résumait l’Avicca, avant d’ajouter que « la bronca ne s’est pas fait attendre ». Nous avions fait le point sur la situation cet été.

Arcep et Conseil d’État : tous les opérateurs font chou blanc

Plusieurs opérateurs avaient attaqué cette décision de l’Arcep devant le Conseil d’État. L’opérateur alternatif Netalis avait tenté une approche différente en saisissant l’Arcep d’une demande de règlement de différend avec Orange. Demande rejetée par le régulateur au motif que « les éléments produits par Netalis n’ont pas permis d’établir le caractère grave et immédiat de l’atteinte qu’il invoque ».

Restait donc la procédure au Conseil d’État, qui vient également de faire chou blanc. « Les requêtes de la société Celeste, de la SAS Ielo-Liazo-Services, des SAS Colt Technology Services et Lumen Technologies France et des SAS Eurofiber France et Fullsave sont rejetées », explique l’institution dans une décision publiée hier.

De plus, Celeste, Ielo-Liazo-Services, Colt Technology Services et Eurofiber France devront verser « une somme de 1 000 euros chacune à la société Orange au titre des dispositions de l’article L. 761 - 1 du code de justice administrative ». Précisons qu’Altitude était également monté au Conseil d’État, mais l’opérateur est absent des conclusions car il a demandé un désistement « pur et simple ». Le Conseil précise que « rien ne s’oppose à ce qu’il en soit donné acte », Altitude a donc été retiré de l’équation.

Le détail des griefs

Plusieurs requêtes avaient été formulées par les cinq opérateurs. Elles portent sur « des questions semblables. Il y a lieu de les joindre pour statuer par une seule décision », explique le Conseil d’État pour justifier sa décision commune.

Celeste, Ielo, Colt, EuroFiber et Altitude demandaient tous d’annuler pour « excès de pouvoir la décision n° 2023 - 2820 du 14 décembre 2023 de l’ARCEP modifiant la décision n° 2017 - 1488 du 14 décembre 2017 définissant les conditions économiques de l’accès aux infrastructures de génie civil de la boucle locale d’Orange ». C’est la décision d’augmentation des tarifs au cœur de la discorde.

Celeste demandait aussi d’annuler, toujours au motif d’un « excès de pouvoir », la décision n° 2023 - 2318 du 24 octobre 2023 « fixant le taux de rémunération du capital employé pour la comptabilisation des coûts et le contrôle tarifaire des activités fixes régulées à compter de l’année 2024 ».

Même requête pour la décision n° 2023 - 2801 du 14 décembre 2023 « portant sur la définition du marché de fourniture en gros d’accès aux infrastructures physiques de génie civil pour le déploiement de réseaux de communications électroniques, sur la désignation d’un opérateur exerçant une influence significative sur ce marché et sur les obligations imposées à cet opérateur à ce titre ».

Celeste demandait enfin de « mettre à la charge de l’ARCEP une somme de 5 000 euros au titre de l’article L. 761 - 1 du code de justice administrative », contre 5 000 euros pour Altitude et Ielo. Colt et Eurofiber demandaient pour leur part « de mettre à la charge de l’Etat une somme de 5 000 euros au titre de l’article L. 761 - 1 du code de justice administrative ».

Lisser les hausses tarifaires et leurs répercussions sur les tarifs

Colt, Eurofiber et Altitude demandaient également au Conseil d’État « d’enjoindre à l’ARCEP d’adopter, dans un délai de six mois à compter de la notification de la décision à intervenir, une décision permettant de lisser dans le temps les hausses tarifaires résultant de la décision attaquée et prévoyant leur entrée en vigueur dans un délai adapté aux spécificités du marché des entreprises ».

Enfin, Altitude voulait également que le Conseil d’État demande à l’ARCEP « d’adopter, dans un délai de deux mois à compter de la notification de la décision à intervenir, une décision encadrant les modalités de répercussion, par les opérateurs d’infrastructures, dans leurs propres tarifs, de la hausse du tarif d’accès au génie civil d’Orange résultant de la décision attaquée ».

Une partie de la hausse « ne résulte pas de la décision attaquée »

Pour revenir au cœur de la décision, le Conseil d’État rappelle les griefs dans sa décision : « les sociétés requérantes font valoir que l’augmentation des tarifs d’accès aux infrastructures de génie civil d’Orange pour les boucles optiques en 2024, qui sera, suivant la nature des accès déployés, de l’ordre de 68 % ou de 73 % est très élevée, notamment par rapport à l’évolution de ces tarifs dans des pays européens voisins ».

En réponse, l’institution explique qu’il « ressort toutefois des pièces du dossier, d’une part, que cette augmentation est imputable pour partie à celle, qui ne résulte pas de la décision attaquée, d’environ 16 % du coût du génie civil d’Orange et, d’autre part, qu’en raison de l’évolution de la répartition des accès entre le cuivre et la fibre optique en année n-2, ces tarifs auraient en tout état de cause subi une augmentation conséquente en 2024 ».

Pour le Conseil d’État, il n’est donc « pas établi que l’augmentation des tarifs en 2024 imputable à la décision attaquée , qui est de l’ordre de 19 % après application des dispositions prévoyant qu’ils ne prennent en compte qu’au plus les trois quarts de l’augmentation tarifaire résultant du changement de l’année de référence, ne serait pas proportionnée ».

Un risque de pénalisation des consommateurs ?

D’autre part, les opérateurs soutenaient que les augmentations étaient « susceptible de pénaliser les consommateurs, de décourager l’investissement, d’affecter la concurrence et de nuire au développement des réseaux d’initiative publique et à l’aménagement du territoire ».

Là encore, le Conseil d’État balaye les arguments en affirmant que les opérateurs « n’établissent toutefois pas, en tout état de cause, que de tels effets allégués seraient la conséquence nécessaire de la décision attaquée ».

Le Conseil ajoute qu’il « ne ressort pas des pièces du dossier qu’un opérateur prudent et avisé n’aurait pas été mis en mesure de prévoir cette modification », la décision attaquée n’a ainsi « pas méconnu le principe de confiance légitime ». La décision complète est à lire ici.

Nous avons contacté les opérateurs déboutés par la décision du Conseil d’État pour avoir leur retour suite à cette décision, sans réponse pour le moment.

☕️ À regret, Google annonce qu’il ne diffusera plus de publicités politiques en Europe

Google prend de l’avance sur l’entrée en vigueur du futur règlement européen sur la transparence et le ciblage des publicités à caractère politique (surnommée TTPA, pour Transparency and Targeting of Political Advertising). Le moteur de recherche vient en effet d’annoncer qu’il cesserait la diffusion de publicités politiques sur ses différents services à compter d’octobre 2025. C’est à cette échéance qu’est programmée la mise en œuvre du texte, dix-huit mois après sa publication au Journal officiel de l’Europe.

Si Google prend soin d’annoncer cette mise en conformité avec près d’un an d’avance sur le calendrier réglementaire, c’est bien sûr pour faire passer un message. « Nous savons que les publicités politiques sont une ressource précieuse pour les électeurs qui souhaitent trouver des informations et pour les candidats qui souhaitent partager leur message. Nous regrettons donc de devoir prendre cette mesure », écrit le moteur de recherche.

Le règlement TTPA n’interdit pas à Google, ou à ses concurrents, de distribuer des publicités politiques. Il impose en revanche un certain nombre d’exigences en matière de transparence (identification de l’annonceur, du caractère politique de la publicité, et mention de l’élection ou du référendum associé) et d’utilisation des données personnelles (consentement spécifique à l’utilisation des données collectées dans le cadre d’une campagne politique, exclusion de certaines données personnelles comme l’origine ethnique ou l’opinion politique affichée).

Le règlement, notamment motivé par le scandale Cambridge Analytica, prévoit par ailleurs qu’il soit interdit à des entités basées en dehors de l’UE de financer des publicités politiques au sein de l’Union au cours des trois mois précédant une élection.

Ce sont ces exigences que dénonce Google, aussi bien pour leur portée que pour leurs modalités de mise en œuvre. « Par exemple, le TTPA définit la publicité politique de manière si large qu’elle pourrait englober des publicités liées à un éventail extrêmement large de sujets qu’il serait difficile d’identifier de manière fiable à grande échelle. Il existe également un manque de données fiables sur les élections locales permettant d’identifier de manière cohérente et précise toutes les publicités liées à une élection locale, régionale ou nationale dans l’un des 27 États membres de l’UE », estime le moteur de recherche.

Google rappelle pour l’occasion que ces zones de flou dans la réglementation l’ont déjà conduit à cesser la diffusion de publicités politiques dans plusieurs pays européens, dont la France, depuis juin 2021.

Le moteur de recherche opère pour mémoire un portail dédié à la publicité politique, qui permet de naviguer ou de rechercher parmi les campagnes politiques diffusées au travers des outils de Google, avec une indication du nombre de vues et de la fourchette de budget associés (exemple ci-dessous).

Pegasus a bien infecté environ 1 400 smartphones via WhatsApp en 2019

NS0 click
Pegasus a bien infecté environ 1 400 smartphones via WhatsApp en 2019

En 2019, WhatsApp a attaqué l’entreprise d’espionnage israélienne NSO devant la Justice américaine. Des documents du procès encore en cours d’instruction révèlent que le spyware Pegasus a utilisé des exploits dans WhatsApp pour infecter environ 1 400 smartphones rien que pendant cette année-là. De son côté, l’entreprise israélienne défausse la responsabilité sur ses clients.

Il y a maintenant cinq ans, WhatsApp, qui fait désormais partie du groupe Meta, a porté plainte (PDF) contre l’entreprise israélienne NSO, bien connue maintenant pour son logiciel d’espionnage des smartphones Pegasus. L’entreprise de messagerie instantanée l’accusait d’avoir utilisé ses serveurs pour infecter « approximativement 1 400 téléphones mobiles et appareils » avec son spyware.

Des documents de l’instruction en cours publiés jeudi 14 novembre et repérés par le média The Record confirment que Pegasus a été utilisé pour infecter ces 1 400 appareils. Dans un premier document [PDF], les avocats de Meta expliquent que « NSO a admis qu’Eden [un vecteur d’attaque qu’elle a développé, ndlr] est responsable des attaques décrites dans la plainte ».

Le CEO de NSO a confirmé l’utilisation de ses outils

Cette affirmation fait référence à la déposition de Yaron Shohat, actuel CEO et ancien directeur des opérations de NSO. Dans un second document [PDF], ils citent plus particulièrement la phrase qu’ils considèrent comme un aveu : « NSO a développé la technologie qui a été utilisée lors de l’événement auquel la plainte fait référence ».


Il reste 68% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ DeepL Voice fournit des sous-titres traduits en temps réel

La société allemande, spécialisée dans la traduction, manquait depuis plusieurs années d’un service permettant d’afficher immédiatement des sous-titres traduits à partir de sources audio. Alors que de nombreuses entreprises s’y sont mises, dont Google et Microsoft, DeepL comble enfin cette absence.

Dans son billet de blog, DeepL cite plusieurs études pour étayer son propos. Ainsi, selon le NBER (National Bureau of Economic Research), 33,8 % du temps passé en réunion serait perdu à cause de problèmes de compréhension entre les participants. Pour Axios HQ, il en coûte aux entreprises jusqu’à 54 860 dollars par employé et par an, toujours à cause des incompréhensions et du temps perdu.

DeepL se propose bien sûr de réduire cette f(r)acture avec son nouveau produit. À TechCrunch, la société explique qu’il s’agissait de la demande la plus fréquente des clients depuis 2017. Pourquoi avoir mis tout ce temps ? Parce qu’elle a développé son propre modèle de langage, plutôt que de s’appuyer sur un modèle existant, comme GPT.

DeepL Voice se destine donc avant tout aux entreprises. Le nouveau service est divisé en deux versions : l’une pour les réunions, l’autre pour les conversations. Dans la première, des cadres apparaissent près des participants pour traduire ce qu’ils disent. DeepL met largement en avant les gains de temps quand les réunions réunissent des personnes d’un peu partout dans le monde.

Dans la seconde, c’est le téléphone qui sert d’interface entre deux personnes. Là encore, les cas d’usages envisagés se font toujours dans un cadre professionnel, par exemple quand un employé s’adresse à un client étranger.

Par TechCrunch, on apprend aussi plusieurs éléments importants. D’abord, que DeepL Voice n’est pas disponible sous forme d’API que les applications peuvent intégrer comme elles le souhaitent. DeepL travaille spécifiquement avec d’autres entreprises pour intégrer sa technologie. Dans le cadre des réunions, le seul produit à en bénéficier est pour l’instant Teams de Microsoft. Il n’est pas non plus question pour l’instant d’une intégration par exemple dans les navigateurs sous forme d’extension.

DeepL indique également que rien n’est sauvegardé. Les données vocales sont bien envoyées vers les serveurs, mais rien n’y serait stocké, ni pour des questions d’archivage ni pour l’entrainement des modèles. Il est possible, comme le notent nos confrères, que tout le monde ne soit pas à l’aise à l’idée que tous ses propos soient envoyés à une entreprise pour analyse. DeepL a cependant cherché à rassurer en indiquant que la question du RGPD ou de toute autre réglementation du même acabit était travaillée avec ses clients.

Avec les PC Copilot+, Microsoft propose de la traduction automatique, mais vers une poignée de langues pour l’instant. Cette solution, qui exploite le NPU des machines, a néanmoins l’avantage d’être locale.

OpenAI lance son ChatGPT à l’assaut des autres applications sur ordinateur

Le confort, c'est le pouvoir
OpenAI lance son ChatGPT à l’assaut des autres applications sur ordinateur

OpenAI a annoncé coup sur coup deux évolutions importantes pour ses applications de bureau. D’abord, une disponibilité générale de la version pour Windows, y compris pour les utilisateurs gratuits. Ensuite, la possibilité sur Mac de puiser du contexte dans plusieurs environnements de développement.

L’application Windows disponible pour tous

L’application a évolué durant la période de test. Elle dispose d’un plus grand nombre de fonctions, comme la possibilité d’utiliser la webcam de l’ordinateur pour prendre une photo et l’envoyer dans la conversation. De nouvelles options sont également apparues, comme le choix du raccourci pour appeler la fenêtre de l’application (Alt + Space par défaut) ou encore la possibilité de faire varier la taille du texte via les raccourcis Ctrl + et Ctrl -. On trouve aussi dans les paramètres un bouton pour vérifier la disponibilité d’une mise à jour.

Parmi les autres ajouts importants de ces derniers mois, l’application a reçu une barre latérale dans laquelle on peut fouiller l’historique de ses interactions avec ChatGPT. On peut bien sûr utiliser les derniers modèles de l’entreprise (dont 4o), mais de manière limitée. Même chose pour le mode vocal, apparu pendant la bêta : tout le monde peut l’utiliser, mais il y a une limite en version gratuite, qui disparait avec l’abonnement.

Les versions pour ordinateurs de bureau se récupèrent depuis le site officiel d’OpenAI.

Sur Mac, ChatGPT peut fouiller les IDE

Parallèlement, la version Mac de ChatGPT s’ouvre aux autres applications. Elle était sortie avant celle pour Windows et explore donc de nouveaux horizons. Comme OpenAI l’annonce dans un tweet, cette ouverture commence par plusieurs environnements de développement intégrés : VS Code, Xcode, Terminal et iTerm2.

La société montre quelques exemples dans une courte vidéo publiée sur X. On peut voir l’application ChatGPT aller puiser directement dans le code dans Xcode et s’en servir comme contexte. Il faut cependant cliquer sur l’onglet Xcode dans l’application pour qu’elle passe dans ce mode spécifique. Cliquer sur l’onglet permet à ChatGPT d’aller « lire » l’environnement de développement et de récupérer des informations.

Dans une autre démonstration faite à TechCrunch, une fenêtre Xcode contenait le code d’un programme modélisant le système solaire, mais avec des trous. Depuis ChatGPT, le développeur a demandé à ce que le code manquant soit ajouté pour modéliser les planètes absentes, ce que l’application a réussi à faire. Selon les cas, tout le code contenu dans la fenêtre principale est envoyé, ou seulement les 200 dernières lignes. On peut aussi surligner la partie du code que l’on estime intéressante pour que ChatGPT la priorise pour son contexte.

Uniquement du texte pour l’instant

Il y a cependant plusieurs limites actuellement, dont la plus importante : le code fourni par ChatGPT ne peut pas être envoyé dans l’environnement. Il faut donc le copier puis le coller pour le tester. Difficile donc pour l’instant de le comparer à des modules beaucoup plus intégrés comme le Copilot de GitHub ou Cursor. En outre, il n’est pas toujours possible pour ChatGPT d’aller lire directement dans un environnement. Dans le cas de Visual Studio Code, il faut installer une extension.

La « faute » au mécanisme que l’application ChatGPT utilise pour lire les informations sur Mac : le propre lecteur d’écran de macOS, une fonction d’accessibilité du système servant de base à VoiceOver. Comme l’indique TechCrunch, la fonction est généralement fiable, mais n’arrive parfois pas à lire les informations. En outre, elle est limitée au texte. ChatGPT, dans ses interactions avec les autres applications, ne peut donc puiser du contexte que dans l’écrit.

La fonction est nommée « Work with Apps » et doit à terme fonctionner avec n’importe quel type d’application. Les environnements de développement sont les premiers visés car ils sont l’un des scénarios les plus courants d’utilisation avec l’IA générative.

L’agent polyvalent, nouvelle frontière ?

Les interactions avec les autres applications semblent être la prochaine grande étape. Plusieurs approches sont possibles. OpenAI semble davantage s’orienter vers des agents, mais cela signifie travailler la compatibilité au cas par cas.

Mercredi, Bloomberg indiquait ainsi qu’OpenAI préparait un agent polyvalent nommé Operator. Il serait prévu pour 2025 et aurait pour mission de s’interfacer avec d’autres applications pour devenir une sorte d’aide pour de nombreuses activités. Un touche-à-tout qui entrerait alors en compétition avec d’autres tentatives dans ce domaine, notamment le dernier Claude 3.5 Sonnet, qui dispose d’un nouveau mécanisme en bêta nommé Computer Use. Ce dernier, passant par des captures temporaires, veut comprendre les demandes en analysant ce qui est présent dans l’écran, pour ensuite simuler des frappes au clavier ou des clics de souris.

Les avantages et inconvénients varient selon les approches. Celle d’Anthropic avec son dernier Claude est plus générale. Mais selon les données publiées par l’entreprise, même son dernier modèle n’est pas encore capable de prouesses dans la réalisation des tâches, puisque seuls 49 % des actions demandées sur l’écran ont abouti.

OpenAI ne donne pas de chiffre, mais il est probable qu’il soit bien plus élevé. Le mécanisme Work with Apps ne passe pas en effet par des captures et n’est donc pas tributaire d’une analyse d’images pour comprendre le contexte : les informations lui sont fournies par une API système. En contrepartie, OpenAI doit se contenter du texte, et uniquement à partir des applications dont la compatibilité a été spécifiquement travaillée, là où Anthropic peut « agir » sur tout ce qui est présent dans l’écran. En outre, OpenAI ne dit rien sur la disponibilité de Work with Apps sur Windows.

Sur ce dernier, Microsoft a d’ailleurs étrangement supprimé des capacités dans son application Copilot, comme nous l’avions noté dans notre article sur la mise à jour majeure 24H2. Il est probable que l’éditeur ait des plans en réserve

☕️ Le redémarrage automatique des iPhone inactifs est bien une fonctionnalité d’iOS 18

La semaine dernière, 404 Media relatait une histoire surprenante : des iPhone saisis par les forces de l’ordre américaines et stockés en toute sécurité redémarraient mystérieusement, sans aucune intervention humaine. Problème pour les autorités : après un redémarrage, les smartphones sont généralement plus sécurisés et donc plus difficiles à « craquer ».

AFU sans activité= reboot après 72 h

Nous en parlions cet été avec le cas de Cellebrite. Avant le premier déverrouillage (BFU ou Before First Unlock), l’appareil ne peut déchiffrer les données. On parle ensuite d’AFU (After First Unlock) après le premier déverrouillage (avec le code PIN), quand l’appareil enregistre la clé de déchiffrement afin de pouvoir y accéder.

Depuis l’annonce par 404 Media, des chercheurs se sont évidemment attelés à essayer de comprendre pourquoi des iPhone redémarraient. Les yeux étaient tournés vers iOS 18, et c’est confirmé comme le rapporte TechCrunch.

Nos confrères se font notamment l’écho de la chercheuse Jiska Classen qui a laissé un iPhone sous iOS 18.2 bêta 2 inactif (après un premier déverrouillage bien sûr) pendant plusieurs jours, en le filmant en continu. Au bout de 72 h, le smartphone a redémarré de lui-même.

See the latest iOS inactivity reboot in action!

iOS 18 comes with improved anti-theft measures. Three days w/o unlock, the iPhone will reboot, preventing thieves from getting your data. (1/4) pic.twitter.com/H24Tfo1cSr

— Jiska (@naehrdine) November 13, 2024

C’était 7 jours dans iOS 18.0

La société Magnet Forensics confirme dans un billet de blog le délai de 72 h. Elle affirme aussi, comme la chercheuse, qu’aucun autre paramètre (réseau, batterie…) n’est pris en compte : seul le délai de 72 h détermine le reboot.

Magnet Forensics précise que le smartphone n’affiche aucun compte à rebours (ce que l’on peut aussi voir sur la vidéo de Jiska Classen) et qu’il n’y a pas de « bouton » pour annuler la procédure. « Il convient de noter que si la minuterie est de 72 heures (3 jours) dans iOS 18.1, elle était à l’origine de 7 jours dans iOS 18.0 ».

Voici le message affiché après un reboot (en état BFU) :

☕️ Bluesky : 1 million de nouveaux utilisateurs en 24h, malgré une petite panne

Bluesky : 1 million de nouveaux utilisateurs en 24h, malgré une petite panne

Alors qu’en début de semaine Bluesky revendiquait 14,5 millions d’utilisateurs, dont « 700 000 nouveaux utilisateurs au cours de la semaine dernière », le réseau social concurrent de X revendique cette fois-ci un million de nouveaux utilisateurs en 24 h seulement et dépasse les 16 millions.

Et ce million a été atteint malgré une panne hier, jeudi 14 novembre, chez Bluesky. Un des développeurs de Bluesky explique que le problème avait plusieurs sources : une fibre coupée chez un de ses fournisseurs d’accès, l’un de leurs FAI, des problèmes de réseau au niveau du datacenter et des problèmes DNS chez Cloudflare.

Quelques heures auparavant, Adam Mosseri (patron d’Instagram) annonçait que Threads dépassait les « 15 millions d’inscriptions rien qu’en novembre, et plus d’un million d’inscriptions par jour depuis trois mois ».

Comme le rappelle TechCrunch, Threads ne joue pas dans les mêmes sphères avec 275 millions d’utilisateurs actifs. Selon Jay Graber, CEO de Bluesky, son réseau social aurait un engagement bien supérieur à celui de son concurrent direct X : « Le nombre d’abonnés peut être trompeur. L’engagement est plus élevé sur Bluesky », affirme-t-il en partageant une publication du scientifique Andrew Dessler qui faisait une expérience en publiant le même message sur X et Bluesky.

Bluesky récupère des vagues d’utilisateurs au gré des annonces/déboires de X et de l’actualité. L’interdiction de X au Brésil lui avait donné un coup de boost, comme le résultat des élections américaines avec la victoire de Donald Trump et de son soutien Elon Musk, patron de X.

Bluesky était à 10 millions mi-septembre, 13 millions fin octobre et aujourd’hui plus de 16 millions.

IA : la Défenseure des droits veut plus de transparence des administrations publiques

Vous avez le droit de ne pas savoir
IA : la Défenseure des droits veut plus de transparence des administrations publiques

Dans un rapport sur l’usage de systèmes algorithmiques par le service public, la Défenseure des droits appelle à renforcer les contrôles humains là où ils doivent être opérés, et à obliger les administrations à respecter leurs obligations de transparence.

En France, la prise de décision individuelle entièrement automatisée a été interdite dans le domaine administratif par la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. En 2018, la loi relative à la protection des données personnelles ouvrait « plus largement la possibilité pour l’administration de recourir à des décisions automatisées ».

Six ans plus tard, la Défenseure des droits s’inquiète des effets du déploiement croissant de systèmes algorithmiques dans les services publics. Dans un rapport intitulé « Algorithmes, systèmes d’IA et services publics : quels droits pour les usagers ? », l’autorité dresse un premier bilan des déploiements opérés au fil des ans.


Il reste 90% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ La FTC va enquêter sur des pratiques de Microsoft sur le cloud

Selon le Financial Times, l’autorité de la concurrence américaine Federal Trade Commission (FTC) va lancer une enquête sur les pratiques de Microsoft pour maintenir sa position sur le marché du cloud.

L’agence américaine va notamment se pencher sur des accusations contre l’entreprise de Redmond, qui imposerait des contrats de licences punitifs pour empêcher les clients de transférer leurs données hors de ses outils. La FTC cible en particulier les logiciels dits « de productivité » tels que la suite bureautique Office 365.

Sont également visés l’augmentation des frais lors de la résiliation et l’incompatibilité de sa suite avec celles de ses concurrents.

Le journal économique américain souligne que l’ouverture de cette enquête marquerait encore un peu plus la patte de la dirigeante de l’agence Lina Khan sur une limitation plus agressive des monopoles des géants du numérique.

☕️ QDlight : la recherche française se regroupe autour du photonique quantique

Dans un communiqué commun, la start-up Quandela, le CNRS, l’Université Paris-Saclay et l’université Paris Cité annoncent l’inauguration d’un « laboratoire commun QDlight dédié à la recherche en photonique quantique, ou l’art de maîtriser la lumière dans le régime quantique au sein de dispositifs à l’échelle nanométrique ».

Les chercheurs veulent « développer des émetteurs et protocoles pour générer de nouveaux états de lumière quantique, dans la perspective de réaliser un ordinateur quantique photonique tolérant aux erreurs et permettant de démontrer des protocoles de communication quantiques ».

Les photons sont pour rappel une des manières de créer des qubits, les bits quantiques utilisés dans les ordinateurs quantiques. Ils sont d’ailleurs au cœur de MosaiQ, l’ordinateur quantique à deux qubits installé chez OVHCloud.

Comme le rappelait encore IBM cette semaine, il n’y a pas que les qubits dans la vie. Pour avoir un système complet, il faut également des portes quantiques et surtout la possibilité aux qubits de les traverser par millions, voire par milliards, sans perdre leur état quantique. Le tout sans générer trop d’erreurs.

☕️ L’Europe inflige une amende de 798 millions d’euros à Meta pour les petites annonces Facebook

L’Europe inflige une amende de 798 millions d’euros à Meta pour les petites annonces Facebook

La Commission européenne annonce avoir infligé à Meta une amende de 798 millions d’euros pour avoir intrinsèquement lié Facebook et sa Marketplace dédiée aux petites annonces. L’exposition systématique du service aux yeux des utilisateurs d’un réseau social en position dominante constitue selon l’Europe un avantage déloyal, auquel Meta doit mettre un terme.

« Meta a lié son service d’annonces publicitaires en ligne, Facebook Marketplace, à son réseau social personnel, Facebook, et a imposé des conditions commerciales déloyales à d’autres fournisseurs de services d’annonces publicitaires en ligne. Elle a cherché par là à conférer à son propre service Facebook Marketplace des avantages que d’autres fournisseurs de services d’annonces publicitaires en ligne ne pouvaient égaler », affirme Margrethe Vestager, vice-présidente exécutive chargée de la politique de concurrence au sein de la Commission européenne, dans un communiqué.

Dans sa communication, la Commission européenne indique en premier lieu avoir constaté que tous les utilisateurs de Facebook ont automatiquement accès aux annonces de la Marketplace, et qu’ils y sont régulièrement exposés, « qu’ils le souhaitent ou non ». Elle estime de ce fait que les concurrents risquent d’être évincés du réseau social, « étant donné que le lien confère à Facebook Marketplace un avantage substantiel en matière de distribution que les concurrents ne peuvent égaler ».

Elle argue par ailleurs que Meta utilise les données relatives aux publicités générées par d’autres annonceurs, sur Facebook ou sur Instagram, au profit de Facebook Marketplace, ce qui constituerait là encore un avantage déloyal.

Cette condamnation fait suite à une enquête formelle ouverte en juin 2021.

Meta a rapidement réagi jeudi, par l’intermédiaire d’un communiqué qui entreprend de démonter l’argumentaire de la Commission européenne. Le groupe affirme que la création de Marketplace répond à un besoin exprimé par les utilisateurs de Facebook, et souligne que ces derniers avaient créé plus de 400 000 groupes en Europe précisément dédiés à l’achat/vente de produits d’occasion, avant la mise en ligne de l’espace dédié en 2016.

Elle dénonce par ailleurs tout lien déloyal : « cet argument ignore le fait que les utilisateurs de Facebook peuvent choisir d’interagir, ou non, avec Marketplace, et beaucoup ne le font pas ». Meta récuse par ailleurs l’accusation selon laquelle ses outils bénéficieraient des données publicitaires de concurrents : « Nous n’utilisons pas les données des annonceurs à cette fin et nous avons déjà mis en place des systèmes et des contrôles pour le garantir ». L’entreprise de Mark Zuckerberg reproche par ailleurs à la Commission de ne pas démontrer le préjudice éventuel subi par ses concurrents et souligne que des plateformes comme eBay ou Leboncoin ont continué à croître sur le marché européen depuis 2016.

« Il est décevant que la Commission ait choisi de prendre des mesures réglementaires à l’encontre d’un service gratuit et innovant conçu pour répondre à la demande des consommateurs, en particulier lorsque des personnalités politiques européennes de premier plan appellent l’UE à être plus compétitive, innovante et tournée vers l’avenir », tacle en conclusion Meta. La maison mère de Facebook précise sans surprise qu’elle interjettera appel de cette décision.

UK : une association de consommateurs réclame 3,6 milliards d’euros à Apple

Which apple is rotten?
UK : une association de consommateurs réclame 3,6 milliards d’euros à Apple

L’association britannique de défense des consommateurs Which? annonce le lancement d’une action collective à l’encontre d’Apple. Elle invoque un abus de position dominante relatif à l’intégration d’iCloud dans l’ensemble des produits équipés d’iOS, et réclame 3 milliards de livres sterling au nom de 40 millions de clients supposément lésés.

Les utilisateurs d’iPhone, d’iPad ou de feu l’iPod Touch sont-ils contraints par Apple au moment de choisir un service de stockage en ligne sur leur appareil ? C’est la thèse défendue par l’association de consommateurs britannique Which?, qui annonce jeudi le lancement d’une action collective en justice contre la société américaine.

« Which? pense que les utilisateurs d’iOS sur iPhone ou iPad n’ont eu d’autre choix que d’utiliser le service iCloud D’Apple, et par conséquent Apple peut facturer les utilisateurs plus cher que si elle avait à concurrencer des services de stockage en ligne rivaux », indique l’association.

Partant du principe que le nombre des consommateurs lésés est connu, et qu’ils ont subi un préjudice équivalent, l’association s’appuie sur le Consumer Rights Act de 2015 pour lancer une action au nom de tous les utilisateurs de produits mobiles Apple résidant ou ayant résidé au Royaume-Uni depuis 2015, soit environ 40 millions de personnes, selon Which?.

Un préjudice moyen estimé à 70 livres sterling par utilisateur

« En collaboration avec une équipe d’experts externes, Which? a estimé qu’Apple pourrait devoir aux consommateurs britanniques qui ont eu accès aux services iCloud à partir du 1er octobre 2015 un paiement moyen de 70 £ », affirme encore l’association. L’enveloppe totale nécessaire aux réparations se monterait ainsi à près de 3 milliards de livres sterling, soit 3,6 milliards d’euros.

Dans son argumentation, l’association fait valoir qu’Apple propose une formule gratuite d’accès à iCloud, avec une limite à 5 Go, au-delà de laquelle l’utilisateur est invité à basculer vers un abonnement payant. « Mais il est peu probable que les clients aient pris en compte la nécessité de payer pour les mises à niveau lorsqu’ils ont commencé à utiliser le stockage », estime Which?. L’association ajoute qu’à cet instant du parcours, Apple ne propose aucune offre alternative à iCloud. Elle y voit une pratique anticoncurrentielle visant à « enfermer » le consommateur.

« Nos utilisateurs ne sont pas obligés d’utiliser iCloud et bon nombre d’entre eux s’appuient sur un large éventail de solutions alternatives tierces pour le stockage de données », a immédiatement répondu Apple, qui soutient « travailler dur pour rendre le transfert de données aussi simple que possible ». « Nous rejetons toute suggestion selon laquelle nos pratiques sur iCloud sont anticoncurrentielles et nous nous défendrons vigoureusement contre toute procédure en justice affirmant le contraire », ajoute l’entreprise.

Opt-out, Opt-in

Sur le site dédié à sa procédure, l’association précise la façon dont les consommateurs peuvent rejoindre ou au contraire quitter la procédure. Par défaut, Which? indique représenter l’ensemble des consommateurs éligibles, qui seront automatiquement intégrés à la plainte, à moins qu’ils ne choisissent d’en sortir (procédure d’opt-out). Dans le même temps, l’association propose un formulaire de déclaration d’intérêt (opt-in), pour les utilisateurs d’iOS qui auraient vécu au Royaume-Uni après le 1er janvier 2015 mais n’y résident plus.

Les consommateurs intéressés sont invités à vérifier leur éligibilité et à renseigner leurs coordonnées pour suivre de plus près la suite de la procédure. Which? s’appuie pour ce faire sur les services d’un éditeur spécialisé dans les outils juridiques, le géant Epiq Systems.

L’affaire devrait quant à elle être traitée par une juridiction spécialisée, le Competition Appeal Tribunal.

Une nouvelle épée de Damoclès pour Apple ?

Elle constitue une nouvelle charge contre Apple qui, comme la plupart des géants américains de la tech, fait actuellement l’objet de nombreuses procédures soutenues par des accusations de concurrence déloyale ou d’abus de position dominante. La firme fait d’ailleurs l’objet d’une action collective similaire à celle lancée par Which? aux Etats-Unis. Déposée en mars dernier devant le tribunal de San José (Californie), la plainte, signalée par Reuters, estime qu’Apple a des pratiques coercitives avec iCloud, et cherche à obtenir réparation pour « des dizaines de millions de consommateurs ».

Apple fait également l’objet d’attaques régulières relatives à l’App Store. La firme a par exemple été condamnée en mars dernier à une amende de 1,8 milliard d’euros, infligée par la Commission européenne pour la façon dont son App Store est supposé entraver la concurrence, notamment en matière de streaming musical.

☕️ GOG lance un programme de préservation pour « faire vivre des jeux pour toujours »

La plateforme s’engage « pour que les titres classiques restent jouables, maintenant et à l’avenir », avec une centaine de titres pour commencer. D’autres seront ajoutés dans les prochains mois.

Si un jeu fait partie de ce programme, GOG mettra à disposition toutes les ressources nécessaires pour maintenir sa compatibilité avec les systèmes futurs. Si vous achetez un jeu éligible, cela signifie donc qu’il « fonctionnera sur les configurations PC populaires actuelles et futures ». Cela concerne le jeu, mais aussi les manuels, les bonus et DLC.

« En conservant ces titres emblématiques, GOG vous aide à protéger et à revivre les souvenirs qui vous ont façonné, sans DRM et avec une assistance technique dédiée », ajoute la plateforme. On retrouve dans la liste des jeux comme The Witcher, Worms, Fallout, Wing Commander, Populous, Caesar 3, etc. Une page dédiée a été mise en ligne.

Dans la même idée de sauvegarder une partie de notre patrimoine numérique, Internet Archive propose lui aussi des jeux vidéo jouables en ligne. Envie de vous refaire un Rick Dangerous (oui, c’est ma madeleine de Proust), c’est possible !

GOG a publié trois billets de blog pour expliquer son ambition sur trois jeux : Diablo sorti en 1996, Heroes of Might and Magic III en 1999 et la trilogie Resident Evil.

La boutique en ligne termine avec une pique bien placée contre Steam : « GOG est la seule plateforme à engager ses propres ressources pour s’assurer que les jeux que vous achetez restent jouables ».

Valve expliquait il y a quelques semaines qu’on n’achète pas vraiment un jeu et que le paiement ne donne droit qu’à une licence d’utilisation : « L’achat d’un produit numérique accorde une licence pour le produit sur Steam ».

☕️ #Flock : Amazon Haul of flemme

Dans la série « il y en avait déjà beaucoup trop, mais je vous le mets quand même »… Daria résumerait parfaitement la situation d’un « triste monde tragique ».

Note de service : comme avec l’ancien nouveau président Trump ou Lina Khan récemment, Flock s’autorise désormais quelques incartades en réaction à l’actualité du moment, mais il vous donne toujours – et même plus que jamais ! – rendez-vous le samedi à 13h37 pour sa chronique hebdomadaire, à retrouver dans la rubrique dédiée.

Wi-Fi vs 6G : la « lutte acharnée » continue sur les 6 GHz

Il ne peux en rester qu’un… ou deux !
Wi-Fi vs 6G : la « lutte acharnée » continue sur les 6 GHz

Dans un communiqué, l’Agence nationale des fréquences revient sur l’avenir de la « bande 6 GHz haute », un dossier qu’elle qualifie de « brûlant ». Deux prétendants sont en lice : le Wi-Fi et la téléphonie mobile. Un partage des ressources est envisagé, mais il faudra résoudre certains problèmes. Explications.

Cela fait maintenant quatre ans que la bande supérieure des 6 GHz – des fréquences comprises entre 6 425 et 7 125 MHz – fait l’objet « d’une lutte acharnée entre la communauté réseaux mobiles et Wi-Fi ». Les deux camps veulent profiter de cette manne de 700 MHz, chacun avec ses propres arguments… qui sont finalement assez proches.

En Europe et en France, le Wi-Fi 6E a été uniformisé par la Commission européenne en 2021, avec une bande de fréquence allant de 5 945 à 6 425 MHz. Cela donne donc 480 MHz de large, soit 24 canaux. On est loin des États-Unis avec 1 200 MHz accordé par la FCC (de 5,925 à 7,125 GHz).

Réponse de Normand à la CMR

Lors de la conférence mondiale des radiocommunications de 2023 (alias la CMR-23), « cette bande a finalement été identifiée pour les mobiles (IMT), tout en reconnaissant l’usage du Wi-Fi dans certains pays, laissant ainsi ouverte la question de l’harmonisation de cette bande en Europe », explique l’ANFR.

À défaut de trancher entre les deux, la décision prise permet de déterminer « les conditions de partage avec les autres usages internationaux du spectre, en définissant notamment les caractéristiques permettant d’assurer la protection des satellites qui reçoivent dans cette bande ».

En effet, « en France, mais également dans de très nombreux pays européens, des faisceaux hertziens sont largement déployés dans cette bande pour des liaisons longue distance et à forte capacité ». Il faut en tenir compte.

Mobile vs Wi-Fi : fight !

D’un côté, nous avons donc le Wi-Fi en quête de spectre pour augmenter sa bande passante et proposer toujours plus de canaux (permettant aussi au passage d’en désengorger certains dans les grandes villes). Ce doublement des fréquences dans les 6 GHz permettrait aussi de profiter pleinement du Wi-Fi 7, capable de prendre en charge des blocs de 320 MHz.

« La communauté Wi-Fi plaide pour un accroissement de ses ressources en fréquences afin que la transmission Wi-Fi ne soit pas entravée par un goulot d’étranglement », résume l’Agence nationale des fréquences.

De l’autre, les arguments de la partie mobile sont… les mêmes : « pouvoir répondre à l’accroissement continuel du trafic sur les réseaux mobiles ». Cette bande dans les 6 GHz est dite « intermédiaire » et elle offre un bon compromis entre débits et couverture.

La guerre des fréquences, une ressource limitée

Pour rappel, plus les fréquences sont basses (dans les 700 et 800 MHz, on parle même de fréquences en or), plus le signal porte loin. Néanmoins, il est difficile, pour ne pas dire impossible, de trouver de nouvelles bandes disponibles. Pour laisser de la place à la téléphonie mobile, la télévision numérique terrestre (TNT) a dû se réorganiser.

À contrario, de larges bandes de spectres sont disponibles dans les fréquences élevées (il est plus facile de trouver 500 MHz libre quand on est dans les dizaines de GHz), mais elles portent bien moins loin. Dans le cas des 26 GHz (des expérimentations sont en cours en France), le signal ne passe même pas des obstacles. Il faut donc avoir l’émetteur en visuel.

Acceptabilité sociétale, environnement, 6G

Sans identifier de nouvelles fréquences pour la téléphonie mobile, « accroître la capacité des réseaux mobiles ne pourrait passer que par l’ajout de stations de base supplémentaires, mais ce maillage resserré se heurte à la difficulté à trouver de nouveaux sites dans les zones denses, ainsi que par son acceptabilité sociétale, environnementale et économique », explique l’ANFR.

Depuis que les générations de téléphonie mobile s’enchainent (3G, 4G, 5G), chaque nouvelle technologie s’accompagne de nouvelles fréquences. C’étaient les 3,5 GHz pour la 5G. Qu’en sera-t-il pour la 6G en 2030 ? L’ANFR n’a pas la réponse.

Programme de travail et rapport en approche

L’Agence rappelle que le « RSPG (groupe européen pour la politique du spectre regroupant les États membres) s’est mis en ordre de bataille en adoptant en février un programme de travail prévoyant un avis sur la bande 6 GHz haute en juin 2025 ».

De son côté, la Commission européenne devrait demander dans les prochaines semaines à la CEPT (Conférence européenne des administrations des postes et télécommunications) d’étudier « les possibilités de partage de cette bande entre le Wi-Fi et les réseaux mobiles », et de proposer un calendrier d’harmonisation.

Wi-Fi en intérieur, téléphonie mobile en extérieur ?

La CEPT n’a pas attendu et s’intéresse à la question depuis l’année dernière. Elle se penche sur une approche permettant une cohabitation : « du Wi-Fi à faible puissance et limité à l’intérieur, en présence de réseaux mobiles dans la même bande, à forte puissance et en extérieur ».

Même si les 6 GHz passeront moins à travers les habitations et les obstacles, le partage du spectre « nécessiterait des restrictions sur les conditions d’utilisation des stations de base 5G ou 6G, et notamment une forte réduction de puissance ». Si cette approche fait consensus, des divergences existent sur les conséquences d’une telle séparation.

« Pour certains, l’impact essentiel serait d’empêcher la couverture mobile à l’intérieur des bâtiments, qui pourrait être ainsi dévolue à d’autres moyens (Wi-Fi) ou à d’autres bandes, par exemple à la 5G dans la bande 3,5 GHz. Pour d’autres, l’usage des terminaux mobiles à l’intérieur des bâtiments, qui représente d’ores et déjà une part importante du trafic, continuera à croître et devrait être accompagné directement par les réseaux mobiles. En outre, les restrictions diminueraient substantiellement la capacité des stations de base pour la communication avec des terminaux en extérieur comme en intérieur ».

En cas de partage, le Wi-Fi aussi devra mettre de l’eau dans son vin en améliorant « le seuil de détection des émissions des stations de base » et, si besoin, changer de fréquences « afin de limiter le risque de brouillage sur les réseaux mobiles ». Autant de questions qui soulèvent des inquiétudes sur la faisabilité d’une « compatibilité à long terme avec l’évolution des technologies Wi-Fi et mobiles ».

Pour l’ANFR, « les prochains mois seront critiques pour progresser au niveau européen sur une compréhension commune des possibilités concrètes de partage et des besoins réalistes des deux applications ».

❌