Red Hat Enterprise Linux se destine au monde professionnel et dispose d’une nouvelle version majeure tous les trois ans en moyenne. La distribution peut se baser sur les tests réalisés par Fedora, qui sert de laboratoire à ciel ouvert pour Red Hat.
Dans son communiqué, Red Hat présente d’emblée les trois grands points forts de son nouveau système. D’abord, l’introduction de Lightspeed, un service dopé à l’IA générative. Il doit fournir des conseils contextuels et des recommandations via une interface exploitable en langage naturel. La fonction « aide à accomplir des tâches allant du dépannage de problèmes courants aux meilleures pratiques de gestion de parcs informatiques complexes », selon Red Hat. Lightspeed a été formée sur la documentation et les connaissances spécifiques à RHEL.
Ensuite, le chiffrement post-quantique. L’entreprise se dit « consciente des implications à long terme de l’informatique quantique en matière de sécurité ». RHEL serait la première distribution Linux d’entreprise à intégrer les normes du NIST (National Institute of Standards and Technology) sur la cryptographie post-quantique. Des algorithmes résistants ont donc été intégrés, pour mieux lutter contre les attaques de type « harvest now, decrypt later ». Même chose pour les schémas de signatures qui doivent contrôler l’intégrité et l’authenticité des paquets et certificats TLS.
Enfin, un « mode image » ambitionnant d’unifier la construction, le déploiement et la gestion du système. On peut en fait conteneuriser davantage de parties de RHEL, en plus des applications. Ce mode permet notamment de déployer d’une traite un même système sur tous les serveurs et revenir en arrière en cas de problème. Ce mécanisme fonctionne également pour les mises à jour majeures.
Dans une moindre mesure, on note pour la première fois une préversion du système pour l’architecture RISC-V. Une annonce qui suit de près celle d’Ubuntu, dont la prochaine version aura aussi pour la première fois une version RISC-V. On trouve également dans RHEL 10 d’autres améliorations, notamment pour la console Cockpit, de nouveaux rôles système et une mise à jour généralisée des paquets. Le système est livré avec le noyau Linux 6.12 (LTS).
Dans le premier épisode d’Écosystème, le fondateur de GreenIT Frédéric Bordage détaille les enjeux environnementaux que pose le numérique.
109 milliards d’euros, tel était le montant des investissements dans l’intelligence artificielle annoncés par Emmanuel Macron en février dernier. En parallèle, le gouvernement indiquait avoir identifié 35 sites industriels où installer de futurs centres de données dédiés à l’IA.
Ce 19 mai, lors du Sommet Choose France, le constructeur Mistral AI et le fonds émirati MGC annonçaient la création d’un complexe d’une puissance d’1,4 gigawatt, équivalente à celle de la centrale nucléaire (EPR) de Flamanville (1, 6 GW).
Le même jour, au micro de France Inter, le fondateur du Shift Project Jean-Marc Jancovici lançait : « Quand je vois 109 milliards pour l’IA, alors que pour gérer 10 % du territoire français, l’Office national des forêts a un milliard par an, alors que la forêt est en train de crever, moi ce que je me dis, c’est qu’on n’est peut-être pas en train de gérer les priorités dans le bon ordre. » Et de préciser : « Dans un monde aux ressources finies, que l’on fasse des gadgets à la place des trucs essentiels, ça m’ennuie. »
Le grand écart souligne une interrogation, qui monte à la faveur de l’explosion de l’intelligence artificielle générative comme de la multiplication des crises environnementales : quel est le rôle du numérique dans tout cela ? C’est sur ce sujet que nous allons nous pencher dans les 7 épisodes de la série audio Écosystème.
Dans le premier d’entre eux, disponible ici ou sur votre plateforme d’écoute habituelle, l’informaticien Frédéric Bordage revient sur les 20 ans d’exercice de GreenIT, association précurseur dans la prise en compte de ces questions. « En 2004, se remémore-t-il, on était tous seuls dans le monde. Vraiment, c’était Sancho Panza sur son âne avec sa lance et qui se battait contre des moulins à vent. » Au fil des années, à mesure que le collectif est rejoint par des projets de recherches et diverses autres initiatives, le nom de « Green IT » finit néanmoins par s’imposer pour évoquer certaines dimensions du numérique responsable.
Mais le numérique responsable, qu’est-ce que c’est, au juste ? L’idée, explique Frédéric Bordages, est « d’appliquer la démarche de développement durable au numérique. C’est-à-dire avoir un numérique qui soit le plus respectueux possible du vivant, voire qui contribue à réparer le vivant, tout en sachant que dès lors qu’on fabrique un équipement numérique, on a des impacts environnementaux directs négatifs. On s’intéresse donc autant à la dimension environnementale qu’à la dimension sociale ou sociétale, et même sanitaire. »
Au fil du temps, GreenIT met au point une démarche que Frédéric Bordage qualifie de « slow tech » : « créer des services numériques qui s’appuient sur de la high-tech là où c’est indispensable, mais qui remplace la partie numérique indispensable par de la low tech. » En exemple, il cite le projet KDOG, de l’institut Curie.
« Google a une intelligence artificielle très à la mode, pour détecter des cancers. Mais dans le projet KDog, des chiens parviennent à détecter plus tôt les cancers du sein, et avec moins de faux positifs. Faut-il opposer l’IA de Google et les chiens ? Non, mais quand les chiens savent faire ce que fait l’IA de Google, gardons la puissance de calcul de l’IA de Google pour quelque chose qu’un être humain ou un chien ne sait pas faire, modéliser le climat par exemple. »
Ressources abiotiques, radiations ionisantes, gaz à effets de serre
Avant d’en arriver à ces débats, cela dit, il faut mesurer les impacts environnementaux du numérique. Pour cela, la méthodologie reconnue à l’international consiste en une « Analyse du cycle de vie », qui distingue quatre étapes principales : « quand on fabrique nos engins numériques, nos smartphones, ordinateurs, etc. Ensuite, la distribution, quand l’objet sort d’usine et arrive jusque chez nous. Ensuite, la phase d’utilisation, et puis la quatrième étape : la fin de vie ».
Pour Frédéric Bordage, « c’est essentiel de penser les impacts environnementaux du numérique au travers de ce cycle de vie complet, puisqu’il y a à peu près 16 crises environnementales et sanitaires majeures. » Chacune des étapes permet d’analyser la mesure dans laquelle l’industrie numérique contribue à chacune. En l’espèce, en France, l’expert explique que l’industrie pèse principalement sur :
« l’épuisement de ressources abiotiques, c’est-à-dire des ressources naturelles non renouvelables, les métaux, les minéraux, le fossile. Tout cela est essentiellement lié à la fabrication de nos équipements. Un deuxième impact concerne les radiations ionisantes. C’est lié à l’utilisation : quand on produit de l’électricité dans une centrale nucléaire, on a un potentiel d’émission de radiations ionisantes qui auront un impact sur la santé des êtres humains et des écosystèmes. Et puis on a à peu près 11% des impacts du numérique en France qui sont des émissions de gaz à effet de serre, qui vont contribuer au réchauffement global qui lui-même aura un impact sur le changement des climats locaux. »
Et de souligner que la fabrication des équipements représente à peu près « deux tiers à trois quarts » des impacts environnementaux du numérique, tandis qu’un tiers à un quart concerne leur usage.
« Quand on comprend cette répartition, il est évident que les clés fondamentales pour réduire notre empreinte numérique, c’est fabriquer moins d’équipements, faire en sorte que ce qui existe dure plus longtemps et enfin être plus sobre dans nos usages, c’est-à-dire arbitrer ce qu’on fait avec le numérique qui reste sur terre. »
Junkies du numérique
Une gageure, admet-il, dans la mesure où « vous êtes des accros. Je suis un junkie. Bienvenue à la réunion, non pas des alcooliques, mais du numérique anonyme. »
Pour Frédéric Bordage, prendre la mesure de cette dépendance et réfléchir dès maintenant aux priorisations est essentiel : « Est-ce qu’on souhaite permettre à nos enfants de passer des IRM, de se soigner grâce au numérique, de modéliser le climat grâce au numérique ? Ou est-ce qu’on souhaite augmenter indéfiniment la taille de l’écran qui trône au milieu de notre salon, changer nos smartphones tous les deux ans ? C’est un choix de société que l’on devrait faire. »
Et d’appeler les Français – individus comme régulateurs – à œuvrer pour la réduction du nombre d’équipements numériques et pour l’allongement de la durée de vie de chacun de ces objets. « Un français de plus de 15 ans a aujourd’hui a plus de 15 équipements numériques à sa disposition. C’est pas par foyer, c’est par Français ! » s’exclame-t-il, citant les chiffres de l’ADEME et de l’ARCEP.
Derrière « les smartphones, les ordinateurs portables, les montres connectées, les capteurs quand on va courir, les enceintes connectées, les airpods ou toutes autres oreillettes, la box, les télévisions… », il y a « toute l’infrastructure sous-jacente qu’on ne voit pas en tant qu’utilisateur final, tous les réseaux, tous les centres informatiques ». Ceux-là commencent à arriver dans le débat public, à la faveur de canicules qui rendent les conflits d’usages de l’eau plus évidents. Plus récemment, l’explosion de l’IA joue aussi, alors que ses besoins énergétiques tirent la consommation globale du numérique.
« Si on n’est pas totalement responsable puisque les GAFAM et autres fournisseurs de services numériques poussent des nouvelles solutions qu’on n’a pas demandées, il faut à la fois qu’on prenne notre responsabilité en tant qu’utilisateur du numérique, mais aussi qu’on encadre, qu’on légifère sur ce qu’on fait avec les dernières réserves de numérique », estime Frédéric Bordage.
Outre sur l’allongement de la durée de vie des équipements, l’informaticien milite pour la promotion de l’écoconception des services numériques du côté des développeurs et constructeurs de services numériques. Celle-ci « consiste à faire en sorte que pour accéder aux services X ou Y, trouver l’horaire d’un train, prendre rendez-vous chez le médecin, derrière, il y ait moins de serveurs dans le data center, qu’on consomme moins de bande passante et qu’on puisse utiliser ces services sur des smartphones ou des ordinateurs vieillissants ».
« Pour des raisons psychologiques, on a encore du mal à le mettre en œuvre parce que les pistes d’éco-conception les plus radicales, les plus efficaces, sont souvent perçues comme un retour à l’âge des cavernes. » Chez GreenIT, pourtant, « on a des retours d’expérience qui montrent que quand on est un peu radical dans l’éco-conception, ça satisfait beaucoup les utilisateurs. »
Frédéric Bordage illustre avec un exemple de circonstance : un service de prévision pluviométrique pour agriculteur, « qui reposait sur un smartphone 4G » — les prévisions, elles, étaient réalisées « par un supercalculateur toulousain ».
« Pour réduire les impacts environnementaux d’un facteur 4, on a remplacé ce smartphone 4G par des simples SMS envoyés à l’agriculteur, avec l’information « il va pleuvoir tant de millimètres sur telle parcelle à tel moment ». Il se trouve qu’une partie des utilisateurs se trouvent dans des pays émergents, où le taux d’illettrisme reste important. Dans ces cas-là, on a remplacé le SMS par un tableau noir et une craie, ou un tableau blanc et un Veleda, et c’est l’instituteur du village ou le comptable de la coopérative qui dessine les prévisions qu’il a reçues. C’est radical, mais ç’a permis à l’entreprise de conquérir tous les pays émergents. »
En France, le fondateur de GreenIT compare les réseaux de transports urbains : « Quand vous sautez dans un tramway, dans de nombreuses villes françaises, vous avez besoin d’un smartphone dernière génération pour flasher un QR Code, acheter votre ticket, et éviter d’être en infraction. Moi, quand je saute dans le tram de Grenoble, j’ai juste à envoyer un SMS. Dans un cas, il me faut un nouveau téléphone, dans l’autre, je peux garder mon vieux Blackberry. »
Innovation ≠ technologie
« Aujourd’hui, on a trop l’habitude de résumer l’innovation et le progrès à la technologie, regrette l’informaticien. Or, le progrès, l’innovation, les leviers qui sont à notre disposition pour atteindre un monde plus durable, c’est d’abord des leviers sociaux, d’organisation, de changement de modèle économique, etc. »
Parmi les freins, Frédéric Bordage estime que les « décideurs marketing ou certains producteurs » ont un rôle à jouer, alors qu’ils restent persuadés que « l’innovation est nécessairement synonyme de plus de technologies, de dernière génération ».
Le tunnel carbone, une approche qui limite la compréhension des bouleversements en cours
Dans une référence au « tunnel carbone », il souligne : « il y a un intérêt économique et politique dans les pays occidentaux à ne regarder que le climat et à ne pas adresser les autres problématiques. » Pourtant, pour lui, c’est évident : « le numérique est une ressource non renouvelable qui s’épuise à très grande vitesse. Et ce n’est pas en siècle qu’il faut compter pour trouver le moment où on aura épuisé le numérique, c’est en décennies. »
Quand on demande à Frédéric Bordage comment il va, après 20 ans à travailler sur ces questions, il ne nie pas les difficultés : « Quand on a créé GreenIT, on pensait qu’il était encore temps d’agir sur les grandes crises environnementales et sanitaires majeures et qu’on pouvait les infléchir suffisamment pour revenir au monde d’avant. 20 ans plus tard, on se rend compte qu’il y a une inertie complètement folle de l’humanité. » Mais il n’en est pas moins enjoué : l’adaptation, explique-t-il, « c’est formidable en termes intellectuels. Il va falloir qu’on redevienne des MacGyver, qu’on soit ingénieux. Donc ce sera très intéressant. »
D’ici là, il le précise : « La sobriété ou la frugalité, quand on les pratique au quotidien, les moments de déconnexion numérique, quand on les pratique, on se rend compte à quel point c’est jouissif. On peut être indépendants de ces outils, avoir du temps libre pour faire autre chose. » Et d’appeler à ce que les gens « redécouvrent le bonheur de ne pas être connectés ». Une piste pas si improbable, quand on sait que plus de 50 % des répondants de 16 à 21 ans à un récent sondage britannique se déclarent favorables à des « couvre-feux numériques », pour minimiser l’impact de ces outils sur leur santé mentale.
Vous avez 45 Po qui trainent ? QNAP à une solution !
Au Computex, les trois principaux fabricants de NAS « grand public » étaient présents pour dévoiler leurs nouveautés. Synology reste dans la lignée des précédentes annonce : du recyclage de vieux matériel, sans monter en débit. QNAP tire comme d’habitude tous azimuts. Enfin, Asustor passe un NAS au 5 Gb/s et lance surtout son ADM 5.0, qui rattrape la concurrence sur certains points.
Il y a quelques jours, Synology présentait trois nouveaux NAS dans la série DSx25+ : les DS925+, DS1625+ et DS1825+. Problème, tous les trois exploitent partagent le même CPU de 2020 – un AMD Ryzen V1500B – et aucun ne propose nativement du 10 Gb/s. Il faut se contenter du 2,5 Gb/s. Et il ne faut pas oublier l’obligation d’acheter des disques « Synology » pour une nouvelle installation.
DS225+, DS425+ et DS725+ : Synology recycle encore de vieux CPU
Au Computex, trois nouveaux NAS sont présentés : les DS225+, DS425+ et DS725+, comme le rapporte TechPowerUp. Les deux premiers avec un Intel Celeron J4125 avec 4C/4T (processeur de fin 2019), le troisième avec un AMD Ryzen R1600 avec 2C/4T (CPU de début 2020).
Le Celeron J4125 était déjà présent dans les DS720+ et DS920+, tandis que le Ryzen R1600 se trouvait au cœur des DS1522+, DS723+ et DS923+ pour ne citer qu’eux. À l’époque, l’évolution de ces x23+ était de passer du Celeron J4125 au Ryzen R1600.
Il reste 93% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En moyenne, les foyers français détiendraient 3,2 abonnements numériques à des services prodiguant du contenu, de la vidéo à la demande à la presse en ligne, pour un panier mensuel moyen de 49 euros. S’il existe des disparités importantes en fonction de l’âge des utilisateurs, la vidéo à la demande se taille la part du lion dans les souscriptions. L’étude révèle par ailleurs un intérêt certain des consommateurs pour les offres couplées.
Les diverses hausses de tarifs mises en œuvre ces dernières années n’ont semble-t-il pas entravé l’appétit des internautes français pour Netflix. Le service américain de vidéo à la demande (VOD) reste en effet de loin l’abonnement à dimension culturelle ou informative le plus largement souscrit dans l’Hexagone en 2025, d’après une étude annuelle conduite par BearingPoint.
Réalisée sous forme de sondage en ligne auprès de 2 078 personnes en février dernier, elle révèle que le nombre d’abonnements numériques moyen souscrit reste stable sur un an, à 3,2 par foyers. L’inflation se traduit toutefois par une augmentation des dépenses associées : elles atteignent, sur l’échantillon sondé, une moyenne de 49 euros par foyers, soit 4 euros de plus qu’en 2024 et 12 euros de plus qu’en 2022, remarque le quotidien Les Échos.
SVOD, TV payante, musique et info
L’extrait public de l’étude (accessible après un formulaire aux modalités de consentement discutables, puisqu’il impose d’accepter de recevoir des communications de BearingPoint) résume l’évolution récente du paysage concurrentiel. En France, où 65 % des foyers détiendraient un abonnement SVOD, Netflix conserve donc sa place de leader. Canal+ reste puissant sur le segment de la télévision payante (notamment soutenu par l’accord de distribution passé avec BeIN Sports) et Disney+ connait un plateau, après l’ascension rapide de ses débuts.
« Dans le monde de la musique, Spotify creuse l’écart avec Deezer, confirmant ainsi sa position de leader dans les usages des personnes interrogées », notent par ailleurs les auteurs. L’étude souligne par ailleurs un certain attachement à la presse, notamment locale : la PQR (presse quotidienne régionale) ferait ainsi office d’abonnement « essentiel » pour 35 % des sondés.
Les abonnements considérés comme essentiels ou indispensables en 2025 d’après les sondés, en France et en Allemagne
Les jeunes actifs plus enclins à s’abonner
Si le nombre d’abonnements et le panier moyen varient selon les tranches d’âge, la vidéo sur abonnement affiche un taux de pénétration significatif même chez les 65 ans et plus, dont 40 % sont abonnés à Netflix, contre 39 % à Amazon Prime Video et 33 % à une offre Canal+.
Les dépenses moyennes se situent aux alentours de 42 euros chez les 18 - 24 ans. Elles connaissent un pic chez les 25 - 34 ans, à 58,90 euros, avant de redescendre à 38 euros pour les 35 - 49 ans, qui semblent les plus enclins à vouloir rationaliser leur budget.
Sur cette tranche, « 82 % des répondants participant au paiement de leurs abonnements se montrent intéressés par un service regroupant plusieurs abonnements à un prix global inférieur (29 % le font déjà) », note l’étude, validant ainsi une tendance de marché déjà bien engagée.
La tranche des 35 - 49 ans semble la plus encline à rationaliser ses abonnements
Les bundles ont le vent en poupe
Sur un marché des contenus numériques touché à la fois par l’inflation et par une forte concurrence, bon nombre d’éditeurs ou de services tablent en effet sur les abonnements couplés pour soutenir leur conquête commerciale.
En France, le phénomène s’incarne notamment au niveau des fournisseurs d’accès à Internet, qui associent maintenant leurs forfaits les plus haut de gamme à des offres de contenus. Il prend aussi parfois des formes plus inattendues, comme quand le journal Le Monde couple son abonnement à celui de la plateforme de streaming Max (fusion de HBO Max et Discovery+, lancée en France en juin dernier).
« 21 % des répondants en France préfèrent systématiquement gérer leurs abonnements individuellement, un chiffre inchangé entre 2024 et 2025 », note tout de même l’étude.
Et si on (re-)faisait un petit check-up partage de données ?
Les publicités personnalisées diffusées sur les plateformes de Meta généreraient 213 milliards d’euros de valeur en Europe, d’après la maison mère de Facebook, Instagram et Threads. C’est super, mais ces fonds, ce ne sont pas les internautes qui les récupèrent.
Si, donc, vous vouliez minimiser la pertinence des publicités qui vous sont envoyées, dans un effort pour minimiser leur capacité à happer votre attention. Ou si, vu le contexte politique, vous vouliez minimiser la valeur des informations que vous cédez aux acteurs numériques implantés aux États-Unis, ce tuto est fait pour vous.
Il s’intègre dans une série d’articles dédiés à passer en revue quelques bonnes pratiques pour éviter le suivi à long terme de plateformes numériques du quotidien.
L’essentiel des captures d’écran utilisées ici ont été prises sur un smartphone, en partant d’un compte Instagram – plateforme d’où Meta devrait tirer la moitié de son revenu publicitaire en 2025. La plupart des paramètres de Threads (à l’exception du passage du profil en privé ou en public, ou des choix spécifiques aux publications, mentions et comptes restreints) sont gérés de manière conjointe avec ceux d’Instagram.
Pour commencer nos paramétrages, il faut donc trouver notre Espace Comptes (accountscenter.instagram.com), accessible depuis les paramètres de votre compte Facebook ou Instagram.
Sur Facebook, dans un navigateur : cliquez sur votre photo de profil, puis paramètres et confidentialité, puis paramètres. Sur Instagram, cliquez sur le menu burger (les trois barres), en bas à gauche de toutes les pages si vous êtes dans un navigateur, en haut à droite de votre profil si vous êtes sur l’application. Vous arrivez sur une page qui vous annonce « Espace Comptes » et liste les comptes connectés.
Choisissez les préférences publicitaires.
La page vous donne une série de possibilités : choisir de vous abonner pour utiliser sans publicité (de mon côté, je me suis inscrite à Facebook à l’époque où la page d’accueil annonçait« c’est gratuit et ça le restera toujours ». Comme je crois aux promesses, je suis dans l’incapacité d’envisager un paiement.)
Une fois votre choix fait, toujours depuis la page « Préférences publicitaires », vous pouvez vérifier votre activité publicitaire récente et les annonceurs que vous avez vus. Si vous avez interagi avec des publicités dans les 90 derniers jours, elles devraient s’afficher ici, et Meta vous proposer des boutons de gestion. De même, dans l’onglet du dessous, vous pourrez décider de masquer des annonceurs que vous auriez vus et dont vous voudriez faire disparaître les messages.
Vous venez de faire un petit tour d’horizon de vos paramétrages passés, et des éventuelles conséquences qu’ils ont eues sur les messages qui vous ont été diffusés.
Dans l’encart du dessous, « Sujets publicitaires », vous pouvez changer les sujets qui vous sont affichés – ce qui aura un impact plus directement visible sur les publicités que vous verrez dans le futur. Personnellement, je poursuis le paramétrage radical que j’amorçais dans le tuto précédent : je choisis de « voir moins » tous les sujets qui me sont avancés. Je limite aussi tous les sujets spéciaux (dont plusieurs sont, par ailleurs, sensibles : alcool, enjeux sociaux, contrôle du poids corporel…)
Des publicités moins personnalisées… qui aident à se désintoxiquer ?
Le cœur de notre sujet se trouve dans le tout dernier encart : « paramètre de publicités ». Par défaut, Meta devrait vous montrer des publicités personnalisées – c’est ce qui lui permet de fournir les services les plus efficaces à ses clients annonceurs.
Si vous choisissez les « publicités moins personnalisées », alors, comme l’indique le programme, les publicités qui vous seront envoyées devraient être moins alignées avec vos intérêts. En retour, Meta indique que « moins d’informations vous concernant seront utilisées pour les publicités ».
Effet de bord : cette option ajoute des « pauses publicitaires ». Celles-ci consistent en des écrans publicitaires qui coupent votre scroll infini dans les publications des comptes que vous suivez, ou dans les stories que, personnellement, je tends à un peu trop enchaîner. C’est une friction, c’est désagréable au premier abord… mais de mon côté, ça m’a plutôt bien servi pour prendre conscience de mes comportements addictifs, et fermer plus rapidement l’application.
Exemple d’écrans publicitaires post-minimisation de la précision du ciblage, sur Instagram. En bas, le décompte des 5 secondes obligatoires de pause (qui peuvent aider à fermer l’application).
Cookies et actions en dehors de Meta
Une dernière action pour limiter vos partages de données à Meta et ses annonceurs : quittez l’espace « préférences publicitaires » et choisissez « vos informations et autorisations ».
Ici, vous pouvez vérifier les informations que vous avez partagées avec l’entreprise, les télécharger, éventuellement limiter l’historique de recherche. Je découvre ainsi que toutes mes recherches Facebook de l’année sont stockées. Je passe au paramétrage minimal de 3 jours de sauvegarde, et j’en profite pour vider mon historique.
Surtout, vous pouvez vérifier vos activités « en dehors des technologies Meta », c’est-à-dire « les informations que des entreprises et organisations » transmettent à l’entreprise, relatives à vos actions sur leur site web ou leur application. Dans de prochains tuto, on verra comment minimiser ces partages dans des navigateurs, mais du côté des services de Meta lui-même, vous pouvez : dissocier certains sites de vos comptes Meta, effacer l’activité passée enregistrée, et dissocier l’activité future.
La logique derrière tout ça ? Si vous dissociez les traces numériques que vous laissez sur chacun des sites ou services numériques que vous visitez, vous limitez (autant que possible) les croisements intempestifs de données, donc la possibilité de créer des profils trop précis de vos habitudes en ligne.
Faites aussi un tour du côté de l’onglet « partenaires publicitaires spécifiques », pour vérifier qui s’y trouve, et voir si vous voulez les y garder, ou les supprimer.
Dans l’onglet « Gérer les cookies », vous avez la possibilité de supprimer les cookies de Meta sur d’autres applications et sites web (attention, si vous le faites, cela signifie que vous ne pourrez plus vous connecter à ces sites en utilisant votre compte Facebook ou Instagram). Vous pouvez aussi y supprimer les cookies d’autres entreprises que Meta utilise pour vous montrer des publicités et « pour vous fournir des fonctionnalités comme les visualiseurs de cartes, les services de paiement et les lecteurs vidéo. » Cet article sera mis à jour si leur suppression, faite quelques minutes avant publication, entraîne des problèmes imprévus.
Alors que Microsoft confirme vouloir imposer Recall sous Windows 11, Signal annonce une fonctionnalité bloquant, par défaut, l’archivage des conversations de sa messagerie. Mais la fondation a dû passer par une « une astuce bizarre » pour y arriver.
L’application de messagerie chiffrée annonce une fonctionnalité de « sécurité d’écran » sur sa version Windows. Elle est spécifiquement réfléchie pour « empêcher votre propre ordinateur de faire des captures d’écran de vos chats Signal sous Windows », dans l’objectif « de protéger vos messages Signal de Microsoft Recall ».
Le mois dernier, Microsoft a décidé pour de bon de déployer Recall sous Windows 11. L’installation se fait par défaut via une mise à jour pour les PC Copilot+ uniquement. En outre, la fonction ne s’active pas d’elle-même. Un assistant de configuration impose de choisir si l’on veut s’en servir.
« La course à l’intégration de l’IA dans tous les domaines constitue une menace importante pour la vie privée, comme nous l’avons dit. Le fait que MS Recall fasse des captures d’écran de tout et de rien est un très bon (mauvais) exemple de cette menace », estime Meredith Whittaker, la présidente de la fondation.
Recall archive les fenêtres d’applications sensibles
Car, si la nouvelle mouture de la fonctionnalité développée par Microsoft disponible dans les préversions de Windows 11 bloque la capture d’écran des fenêtres de navigation privée des navigateurs, l’entreprise semble avoir oublié qu’il existait d’autres logiciels sensibles à exclure automatiquement.
En effet, la désactivation de Recall n’est, par exemple, pas mise en place pour les logiciels de messagerie comme Signal ou WhatsApp. Recall prend donc, comme pour tout ce qui s’affiche à l’écran, des captures d’écrans de vos conversations dans l’idée de pouvoir s’en souvenir et apporter une base de recherche centralisée sur le système d’exploitation. C’est pratique, mais en contradiction avec l’esprit dans lequel a été pensé Signal, à savoir la protection des échanges privés et la prise en charge de leur protection (par chiffrement) au sein même de l’application.
« Bien que Microsoft ait procédé à plusieurs ajustements au cours des douze derniers mois en réponse aux commentaires critiques, la version remaniée de Recall met toujours en péril tout contenu affiché dans des applications de protection de la vie privée telles que Signal », explique la fondation.
Les développeurs de cette messagerie ont donc mis en place des garde-fous contre Recall. « Par conséquent, nous activons une couche de protection supplémentaire par défaut sur Windows 11 afin de maintenir la sécurité de Signal Desktop sur cette plateforme, même si cela implique des compromis en termes d’utilisation. Microsoft ne nous a tout simplement pas laissé d’autre choix », se désole Signal.
Utilisation de l’API pour bloquer la capture d’écran d’œuvres protégées par DRM
Et, en effet, Microsoft n’a pas rendu la chose facile. La fondation explique qu’elle n’a pas pu faire dans la dentelle puisque la société de Redmond « a lancé Recall sans paramètres de granularité pour les développeurs d’applications qui permettraient à Signal de protéger facilement la vie privée ».
Elle indique que sa fonctionnalité bloque toute possibilité pour l’utilisateur de faire une capture d’écran d’une conversation. Pourquoi ? Microsoft n’a mis en place aucune API permettant à un développeur d’empêcher les captures de son application. Dommage, d’autant que Recall possède bon nombre de paramètres, dont celui de pouvoir exclure toute application ou page web indiquée. Mais encore faut-il savoir que la capacité existe. Signal explique donc passer par l’API qui permet de bloquer la capture d’écran de contenu protégé par des DRM.
« Selon la documentation officielle de Microsoft à l’intention des développeurs, le fait de définir le bon indicateur de gestion des droits numériques (DRM) dans la fenêtre de l’application garantit que « le contenu n’apparaîtra pas dans Recall ou dans toute autre application de capture d’écran ». C’est donc exactement ce que Signal Desktop fait désormais par défaut sous Windows 11 », explique Signal. La fondation ajoute que « la mise en œuvre d’un « DRM » qui fonctionne pour vous (et non contre vous) est le meilleur choix que nous ayons eu ».
Ce nouveau paramètre, activé par défaut, ne protège une conversation de Recall évidemment que si les différents protagonistes ne le désactivent pas de leur côté.
Signal tacle encore un peu plus Microsoft en expliquant espérer « que les équipes d’IA qui construisent des systèmes comme Recall réfléchiront plus attentivement à ces implications à l’avenir. Les applications comme Signal ne devraient pas avoir à mettre en œuvre « une astuce bizarre » pour maintenir la confidentialité et l’intégrité de leurs services sans outils de développement adéquats ».
Petit coup de tonnerre, avec une opération surprise : OpenAI a annoncé le rachat de io, entreprise fondée par Jony Ive, qui n’est autre que l’ancien directeur du design chez Apple entre 1996 et 2019. C’est à lui et son équipe que l’on doit, entre autres, le design des ordinateurs Macintosh, des iPod ou encore de l’iPhone. En partant d’Apple, il avait créé le collectif LoveFrom avec d’anciens designers et ingénieurs d’Apple.
Dans le communiqué, on peut lire qu’il y a deux ans, le collectif a commencé à travailler secrètement avec OpenAI. Rapidement, de nombreuses idées auraient été projetées, aboutissant à la création de io l’année dernière par Jony Ive, ainsi que Scott Cannon, Evans Hankey et Tang Tan, trois anciens responsables d’Apple.
Avec ce rachat de 6,5 milliards de dollars, OpenAI récupère ainsi la startup et tous les membres de LoveFrom rejoignent la nouvelle équipe, qui constitue dans les grandes lignes la nouvelle division matérielle de l’entreprise. Selon Bloomberg, l’opération permet le transfert de 55 personnes, regroupement d’ingénieurs matériels, développeurs et experts en fabrication.
Il faut donc s’attendre à l’avenir à une nouvelle gamme de produits matériels chez OpenAI pleinement liés à l’intelligence artificielle.
La vidéo d’annonce, elle, fait en tout cas beaucoup parler, que ce soit sur X ou YouTube. Beaucoup lui reprochent son flou et son absence d’annonces concrètes. Certains suggèrent même qu’elle aurait pu être générée par IA.
L’Agence nationale des fréquences (ANFR) a dans son portefeuille de mission la gestion du signal horaire hertzien terrestre. Le temps légal peut aussi passer par les satellites GNSS (GPS américain, Galileo européen, etc.), Internet (protocole NTP), etc.
Nous avons déjà largement abordé le sujet lors d’une précédente annonce de l’ANFR sur le sujet de la sobriété énergétique. À la fin de l’année dernière, la puissance d’émission du signal était passée de 800 à 675 kW pendant une semaine, puis pendant un mois. Visiblement, les résultats se sont révélés concluants.
Rebelote en 2025, mais sur une période bien plus longue de six mois. « L’expérimentation se déroule du mardi 20 mai 2025, 12h00 jusqu’au mardi 18 novembre 2025, 8h00, la puissance de diffusion sera abaissée de 800 kW à 675 kW », explique l’Agence.
Elle décrit trois objectifs. Une optimisation technique pour commencer, en mesurant « l’impact d’une puissance réduite sur la qualité de réception, tout en maintenant une précision inférieure à la milliseconde ».
Puis la sobriété énergétique évidemment, d’autant que les précédentes expérimentations ont donné de bons résultats. 125 kW de moins, cela donne donc 125 kWh sur une heure, 3 MWh par jour et un peu plus de 1 000 MWh par an.
Enfin, troisième et dernier point, l’ANFR met en avant la préparation à long terme pour anticiper « les évolutions du dispositif et consolider la continuité de ce service stratégique jusqu’en 2034 ».
Comme lors des précédents tests, « l’ANFR invite l’ensemble des opérateurs, partenaires techniques et parties prenantes à vérifier le bon fonctionnement de leurs équipements durant toute la durée de l’expérimentation ».
Pour rappel, la puissance était déjà passée de 1 110 kW à 800 kW en 2020. Des tests à 300 kW ont été menés, mais l’Agence ne semble pas avoir diffusé les résultats de cette expérimentation.
En s’appuyant sur le Digital Services Act, Xavier Brandao a porté plainte contre Meta pour défaut de modération
Constatant le très faible taux de modération de contenus haineux sur Facebook, le cofondateur de l’association #jesuislà et activiste pour les droits numérique Xavier Brandao porte plainte contre Meta au titre du DSA.
Quatre mois de tests, 118 signalements envoyés à Meta pour des propos haineux publiés entre janvier et avril 2025 sur Facebook. Dans le lot, des propos racistes (« encore un mohamed ») sexistes aussi (« le vilain boudin antillais »), des propos antisémites, islamophobes, transphobes…
Au total, Xavier Brandao constate que seulement 8 de ces commentaires, soit 6,8 % de son échantillon, ont été supprimés par Meta. Chaque fois, la première réponse de l’entreprise a été négative – seules les demandes de ré-examen ont permis d’obtenir un semblant de résultats.
Cofondateur de l’association #jesuislà, aujourd’hui consultant et activiste indépendant, Xavier Brandao a finalement déposé plainte contre Meta auprès de l’Arcom ce 19 mai. Auprès de Next, il explique avoir voulu recourir aux nouvelles possibilités offertes par le Règlement sur les services numériques (Digital Services Act, DSA).
Dans sa plainte, il indique aux autorités « que Facebook viole probablement ses obligations au DSA en termes de risques systémiques ». L’article 35 du texte européen oblige en effet les grands acteurs du numérique à adopter des mesures d’atténuation des risques en matière de haine et de violence en ligne, de mise en dangers des droits fondamentaux, de discours civiques, de santé publique, etc.
« Il y a besoin de plus de plaintes, que l’on fasse remonter au régulateur ce que l’on constate sur le terrain, estime Xavier Brandao. Le but, c’est de donner des indices d’un problème large, structurel, de contribuer au travail du régulateur pour lever le voile sur le fonctionnement de nos systèmes numériques. »
Nettoyer les commentaires sous les publications des médias
La haine en ligne, Xavier Brandao connaît. En 2019, il co-fonde #jesuislà, un collectif – matérialisé par un groupe Facebook – bientôt transformé en association, dont l’objet consiste à « répondre à la haine sur les pages Facebook de médias ».
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Handoff est une fonctionnalité populaire de la galaxie Apple. Introduite il y a longtemps sur iOS 8, elle permet d’utiliser le Bluetooth, le Wi-Fi et la proximité des appareils pour synchroniser les applications. Une session sur Safari débutée sur iPhone provoque l’apparition d’une icône du navigateur dans le Dock de macOS. Un clic permet alors de reprendre où on s’est arrêté.
En 2016, Microsoft avait déjà évoqué son projet Rome, qui ambitionnait le même mécanisme. Pourtant, ce dernier est tombé dans l’oubli. Mais comme l’a repéré sur X phantomofearth, habitué de ce genre de trouvaille, Microsoft a manifestement relancé l’idée.
Dans une vidéo publiée à l’occasion de la Build, on peut voir en effet Spotify lancé sur un smartphone et l’icône correspondante apparaitre dans la barre des tâches, avec la mention « Continue where you left », c’est-à-dire une reprise de la lecture là où elle s’était arrêtée.
Windows Central indiquait cette nuit que la vidéo avait été modifiée pour supprimer la référence à Spotify, mais d’une manière ou d’une autre, c’est bien la version non modifiée que l’on peut voir. La référence à Spotify commence à partir de 16min45. Cette technologie peut également être utilisée pour faire apparaitre l’icône sur le PC alors que l’application correspondante n’est pas installée. Dans ce cas, cliquer peut amener sur la fiche correspondante dans le Microsoft Store.
Après la suppression de la modération et la promotion de l’ « énergie masculine » dans l’entreprise, Mark Zuckerberg aligne aussi ses activités philanthropiques sur la politique de Donald Trump.
Les élèves de The Primary School, école privée gratuite fondée par la Chan Zuckerberg Initiative (CZI) en 2016, ont appris que l’établissement fermerait à l’été 2026. À l’heure actuelle, il accueille 400 élèves du CP à la 6ᵉ, dont 61 % de latinos, 7 % de noirs et 7 % originaires des îles du Pacifique, rapporte Le Monde. Les élèves et leurs familles bénéficient de soins médicaux et dentaires, difficiles d’accès aux États-Unis.
Depuis février, la CZI, que Mark Zuckerberg a fondée avec sa femme Priscilla Chan, pédiatre, a modifié nombre de ses activités. La fondation a notamment cessé de financer toute association étant liée de près ou de loin à des questions de justice sociale.
Avec 6,3 milliards de dollars d’actifs en 2023, la CZI est une des principales organisations philanthropiques de la baie de San Francisco. Elle a indiqué focaliser ses activités dans la recherche biomédicale.
Comme on s’y attendait, la quasi-totalité des annonces de la Google I/O sont en lien avec l’IA. Plusieurs étaient particulièrement importantes, comme le lancement d’un abonnement Ultra, la bascule de Google vers une recherche alimentée par l’IA ou encore l’arrivée de Gemini dans Chrome. Cette édition 2025 de la conférence était davantage axée vers les utilisateurs finaux.
Google lance son abonnement AI Ultra à 250 dollars
La nouvelle formule Google AI Ultra est conçue pour les utilisateurs intensifs des modèles et fonctions proposés par l’entreprise. C’est la réponse de Mountain View à OpenAI et son ChatGPT Pro, ainsi qu’à Anthropic et son Claude Max, tous deux proposés à 200 dollars. On se souvient que Sam Altman avait indiqué que même à ce prix, l’abonnement n’était pas rentable quand il était pleinement exploité.
La formule proposée par Google s’articule légèrement différemment. D’abord, elle est plus chère : 249,99 dollars par mois, même si une promotion de lancement abaisse le ticket d’entrée à 124,99 dollars sur les trois premiers mois. De plus, l’offre est pour l’instant réservée aux seuls États-Unis.
Ensuite, Google réunit dans son offre un grand nombre de produits. On y retrouve tous les derniers modèles bien sûr, ainsi que le générateur Veo 3 pour les vidéos, l’application de montage Flow, le nouveau Deep Think Mode pour Gemini 2.5 Pro (nous y reviendrons), des crédits supplémentaires pour NotebookLM et Whisk, le chatbot Gemini dans Chrome (préversion), des outils agentiques (Project Mariner) ainsi que la traduction vocale en temps réel dans Meet. Et pour faire bonne mesure, Google ajoute YouTube Premium et 30 To de stockage pour Drive, Gmail et Photos.
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Nathalie Loiseau veut que la Commission européenne accélère sur le dossier des ingérences étrangères via les réseaux sociaux et notamment X et TikTok, explique La Lettre.
La députée européenne Renew est aussi présidente de la commission spéciale « Bouclier européen pour la démocratie » à Bruxelles. Et, à ce titre, elle a pointé « directement la passivité de l’exécutif européen sur le dossier », expliquent nos confrères.
Dans un communiqué co-rédigé avec l’autre député Renew Helmut Brandstätter que La Lettre cite, elle exige « la mise en œuvre des outils juridiques existants », en précisant que « les récentes enquêtes sur des géants de la technologie comme TikTok mettent en évidence le besoin urgent d’une application rapide de la loi pour protéger l’intégrité électorale ».
C’est une critique, en creux, de la faible réponse de la Commission après les soupçons d’ingérence exprimés lors de l’élection en Roumanie en fin d’année dernière.
La Commission avait ouvert une enquête mi-décembre. Mais La Lettre explique que les deux élus reprochent un manque d’assiduité et un « rapport fourre-tout » au rapporteur de la Commission de Nathalie Loiseau, Tomas Tobé (Parti populaire européen).
Celui-ci plaide aussi pour la création d’une agence européenne de lutte contre la désinformation, à laquelle les élus Renew sont opposés, notant le risque d’un doublonnage de structures déjà existantes.
De passage à Taipei à l’occasion du Computex, le patron de NVIDIA Jensen Huang a ouvertement regretté les restrictions à l’export mises en place par les États-Unis à l’encontre de la Chine autour des puces dédiées à l’IA. « Si les États-Unis veulent rester en tête, nous devons maximiser et accélérer notre diffusion, et non la limiter. »
Déjà soumis à condition sous la présidence de Joe Biden, l’export de puces dédiées à l’IA fait l’objet de nouvelles restrictions, à la fois techniques et tarifaires, depuis le retour de Donald Trump à la Maison-Blanche. Une erreur stratégique selon Jensen Huang, CEO et cofondateur de NVIDIA, selon qui les États-Unis ont ainsi pavé la voie d’une concurrence chinoise exacerbée.
De 95 % à 50 % de parts de marché
« Il y a quatre ans, NVIDIA détenait 95% de parts de marché en Chine. Aujourd’hui, nous ne sommes plus qu’à 50% », a déclaré le patron de NVIDIA lors d’un événement organisé dans le cadre du salon Computex de Taipei.
« Les chercheurs chinois en IA utiliseront leurs propres puces. Ils utiliseront du second choix. Les entreprises locales sont très déterminées, les contrôles à l’exportation leur ont donné le mental, et le soutien du gouvernement a accéléré leur développement », a-t-il encore commenté selon le Financial Times.
Un récent tour d’horizon des avancées réalisées par les industriels en matière de développement et de production de composants dédiés à l’IA semble donner raison à Jensen Huang. Huawei, Baidu ou le fondeur SMIC progressent de façon significative en la matière, et trouvent de multiples voies détournées pour alimenter leurs capacités de production, en dépit des mesures de protection mises en place par les États-Unis ou l’Europe. En parallèle, le gouvernement chinois encourage ouvertement les géants locaux du Web, tels Bytedance, Alibaba ou Tencent, à s’approvisionner sur le marché national.
Des milliards de manque à gagner
Émanant d’une entreprise devenue l’une des premières capitalisations boursières mondiales grâce à l’IA, le discours n’est évidemment pas désintéressé. Sous Biden, NVIDIA pouvait encore exporter vers la Chine des versions limitées en performance de ses puces dédiées à l’IA, dont un modèle dédié, le H20.
Donald Trump a, depuis son retour aux affaires présidentielles, donné un tour de vis supplémentaire, en imposant à NVIDIA l’obtention d’une licence préalable pour exporter les puces H20 vers la Chine. L’entreprise avait alors réagi de façon indirecte, via une déclaration à la SEC, d’une provision sur charge de l’ordre de 5,5 milliards de dollars sur le premier trimestre de son exercice (en sachant que NVIDIA a réalisé 130,5 milliards de dollars de chiffre d’affaires sur son dernier exercice). Une façon de signaler aux marchés et à ses investisseurs le manque à gagner découlant de cette décision.
Au-delà de l’impact sur ses propres activités, Jensen Huang semble estimer que Donald Trump fait fausse route quand il explique que ces restrictions à l’export visent à renforcer la compétitivité des États-Unis face à la Chine. « Si les États-Unis veulent rester en tête, nous devons maximiser et accélérer notre diffusion, et non la limiter. »
Soutenue par la France, l’idée d’une taxation spécifique aux milliards de petits colis qui arrivent chaque année sur le Vieux continent fait son chemin à Bruxelles. La Commission européenne prépare la mise en place d’un droit de douane spécifique, qui se monterait à 2 euros pour les colis envoyés directement au client final, et 0,5 euro pour les paquets acheminés vers des plateformes de stockage intermédiaires.
Officiellement, il ne s’agirait pas de droits de douane tels que les envisage Donald Trump dans sa guerre commerciale avec le reste du monde, mais de « frais de gestion » (handling fees). La Commission européenne se prépare tout de même à étudier la mise en œuvre d’une taxation spécifique à tous les petits colis venus d’Asie, qui échappent aujourd’hui aux droits de douane traditionnels.
C’est ce qu’a confirmé mardi le commissaire européen au Commerce, Maroš Šefčovič, lors d’une audition au Parlement européen. Il a dans le même temps révélé les montants envisagés, qui seraient donc de 2 euros pour un colis en circulation libre (adressé à un client final) et de 0,5 euro pour un paquet acheminé en direction d’un lieu de distribution intermédiaire (entrepôt ou plateforme logistique) afin d’y être stocké avant sa mise en vente.
4,6 milliards de colis par an
Dans une communication dédiée, datée du 5 février dernier, la Commission européenne évaluait à 4,6 milliards le nombre de colis d’une valeur déclarée inférieure à 150 euros entrés sur le sol européen, majoritairement depuis la Chine.
« C’est deux fois plus qu’en 2023 et trois fois plus qu’en 2022, et nombre de ces produits se sont révélés non conformes à la législation européenne. Cette croissance exponentielle suscite de nombreuses inquiétudes », soulignait alors la Commission, expliquant qu’il était impossible, sur de tels volumes, de contrôler la conformité des produits importés.
D’où cette idée d’une taxation spécifique, dont le produit serait utilisé pour outiller et renforcer les services de douane des différents états-membres afin, notamment, de lutter plus efficacement contre les produits dangereux ou contrefaits.
Qu’elle soit collectée par les douanes ou acquittée par les plateformes, la taxe serait probablement répercutée sur le consommateur européen et c’est pour répondre à cette inquiétude que Maroš Šefčovič a précisé mardi les modalités de mise en œuvre envisagées.
« Je ne regarderais pas ces frais de gestion comme une taxe, c’est simplement fait pour compenser les coûts et ça devrait être payé par les plateformes, a-t-il déclaré. Nous parlons de deux euros par colis, payés par les plateformes et pour les services offerts par les entrepôts, ce serait plus modeste, à 50 cents, donc c’est vraiment juste pour compenser le travail des officiels des douanes ».
Une idée soutenue par la France
Le ministre de l’Économie, Eric Lombard, et la ministre chargée des Comptes publics, Amélie de Montchalin, avaient déjà annoncé, fin avril, leur intention de porter au niveau européen cette idée de frais de gestion appliqués aux colis chinois échappant aux droits de douane.
Ils évoquaient alors un volume de l’ordre de « 800 millions de petits articles » arrivant chaque année en France en provenance de plateformes comme Shein, Temu ou Aliexpress, et arguaient de la nécessité de mieux contrôler ces produits. « Quand les douaniers ouvrent aujourd’hui les colis, 94% des produits sont non conformes, dont 66% pour dangerosité », avait notamment déclaré Eric Lombard.
Les ministres français exprimaient alors la volonté de créer une coalition européenne pour arriver à la mise en œuvre, dès 2026, de frais de gestion forfaitaire, sans attendre le projet de réforme de l’Union douanière (qui prévoit la suppression de la franchise de 150 euros pour les droits de douane).
Maroš Šefčovič n’a pour l’instant précisé aucun calendrier.
Une filiale de Solocal (anciennement Pages Jaunes) écope de 900 000 euros d’amende administrative de la CNIL pour « avoir démarché des prospects sans leur consentement et transmis leurs données à des partenaires sans base légale valable ».
La CNIL explique que la société Solocal Marketing Services « acquiert des données de prospects principalement auprès de courtiers en données, éditeurs de sites de jeux-concours et de tests de produits ». Elle démarche ensuite par SMS ou email des personnes pour le compte de ses clients annonceurs, mais peut aussi leur transmettre des données clients pour qu’ils réalisent eux-mêmes les prospections.
« Plusieurs millions » de personnes concernées
Problème, lors de son enquête, la Commission a relevé que la société avait manqué à ses obligations « en matière de recueil et de preuve du consentement ». La formation restreinte de l’Autorité condamne donc Solocal Marketing Services à une amende publique de 900 000 euros.
La CNIL justifie notamment ce montant par le nombre de personnes concernées, qui se chiffre à « plusieurs millions ». Solocal Marketing Services est une filiale dédiée à l’activité de marketing direct de Solocal, qui est pour rappel anciennement Pages Jaunes.
Concernant la publication de la décision, Solocal était contre « compte tenu notamment de la faible gravité des manquements relevés », alors que la CNIL, au contraire, a considéré que cela s’imposait au regard de la « gravité des manquements en cause ».
L’amende est assortie d’une « injonction de cesser de procéder à des opérations de prospection commerciale par voie électronique en l’absence d’un consentement valable, assortie d’une astreinte de 10 000 euros par jour de retard à l’issue d’un délai de neuf mois ».
« Apparence trompeuse des formulaires »
La CNIL détaille ses griefs et revient sur « l’apparence trompeuse » de certains formulaires qui ne permettent pas de recueillir un consentement libre et univoque, comme l’exige pourtant le RGPD depuis plusieurs années.
« La mise en valeur des boutons entraînant l’utilisation de ses données à des fins de prospection commerciale (par leur taille, leur couleur, leur intitulé et leur emplacement), comparée aux liens hypertextes permettant de participer au jeu sans accepter cette utilisation (d’une taille nettement inférieure et se confondant avec le corps du texte) pousse fortement l’utilisateur à accepter », explique la CNIL.
L’Autorité rappelle que Solocal Marketing Services « est utilisatrice des données recueillies par les courtiers. En conséquence, elle doit s’assurer que les personnes ont exprimé un consentement valide avant de mener ses campagnes de prospection ». Problème, ses exigences contractuelles avec ses partenaires « étaient manifestement insuffisantes ».
Selon l’entreprise, il n’y a « aucun caractère de gravité »
La société « estime en effet qu’à considérer les manquements établis, ces derniers ne présentent aucun caractère de gravité », explique la CNIL dans sa délibération. Solocal considère que « le rapporteur n’a pas pris en considération l’ensemble des critères […] et relève notamment que les traitements visés ne revêtent aucune sensibilité particulière, qu’ils sont mis en œuvre uniquement à l’échelle nationale et que les personnes concernées n’ont subi aucun dommage ».
Solocal déclare « n’avoir commis aucune négligence et s’être montrée suffisamment diligente, mettant en lumière les mesures prises avant et après le contrôle ainsi que sa pleine coopération avec les services de la CNIL. Elle souligne n’avoir jamais été condamnée pour manquement à ses obligations relatives au consentement ou à la transmission des données et indique avoir collaboré pleinement avec la CNIL ».
La CNIL affirme au contraire que les manquements constatés « sont susceptibles d’être sanctionnés par l’amende la plus élevée prévue par le législateur européen, soit 20 millions d’euros ou, dans le cas d’une entreprise, jusqu’à 4 % de son chiffre d’affaires ». Enfin, la Commission ajoute que « la société a tiré des violations commises un avantage financier certain ».
Depuis des mois, des discussions se déroulent en coulisse autour d’une vente de tout ou partie de SFR, déjà bien divisée par Altice. La situation serait amenée à évoluer si l’opérateur était placé en procédure de sauvegarde accélérée, ce qui pourrait arriver dès le mois prochain.
Les rumeurs autour d’une vente de SFR ne sont pas nouvelles, mais l’étau se resserre autour de Patrick Drahi, de la marque au carré rouge et de sa maison mère Altice. Dernier élément en date, selon BFM Business : « l’opérateur sera placé en procédure de sauvegarde accélérée début juin ».
Sa durée est de quatre mois maximum, précise le site officiel d’information administrative pour les entreprises. Mais de quoi parle-t-on exactement ? Que reste-t-il de SFR avec la vente à découpe des derniers mois ? Qu’en pense l’autorité de la concurrence ? On vous explique.
Au 31 décembre 2024, SFR revendiquait 19,403 millions de clients sur le mobile et 6,133 millions de clients sur le fixe (dont 5,082 millions en fibre optique). De quoi intéresser ses trois concurrents que sont Bouygues Telecom, iliad et Orange, mais ce dont personne ne veut, c’est l’immense dette de SFR.
Dans le dernier bilan comptable, le « total des obligations et des prêts des institutions financières » est de plus de 25 milliards d’euros, pour une dette nette consolidée de 21,2 milliards d’euros. Au début de l’année, SFR trouvait un accord avec ses créanciers pour la réduire à 15,5 milliards d’euros.
Selon des sources de Bloomberg, cette possible vente de SFR pourrait valoriser l’entreprise à 30 milliards d’euros, dette comprise. Nos confrères ajoutent que dans la liste des potentiels repreneurs, on retrouve évidemment les opérateurs français qui pourraient se partager des morceaux de la carcasse de SFR (principalement sa base client et ses licences pour les fréquences), mais selon d’autres sources des opérateurs du Moyen-Orient comme Emirates Telecommunications et des fonds d’investissement pourraient aussi être de la partie.
« Il n’y a rien de nouveau, cette valorisation n’est qu’une extrapolation avec un premium plutôt faible par rapport à la valorisation connue en début de l’année », affirme un « protagoniste des discussions » aux Échos. Rien n’est fait pour le moment, les discussions sont encore à un stade précoce. Néanmoins, si SFR était bel et bien placée en procédure de sauvegarde accélérée début juin, les choses pourraient bouger rapidement.
Altice de son côté se contente de préciser via un porte-parole que l’entreprise « se concentre sur la mise en œuvre de l’accord de dette, envisageant la vente d’actifs non stratégiques et poursuivant la relance commerciale de SFR et l’amélioration de la qualité de service ».
La vente à la découpe d’Altice
Altice s’est déjà séparé d’une bonne partie de ses actifs, notamment ses pylônes pour les télécoms, sa branche médias, ses datacenters, sa participation dans l’opérateur La Poste Mobile à Bouygues Telecom (avec quelques bisbilles sur la vente avec son ex-partenaire La Poste).
XpFibre, la branche dédiée au déploiement de la fibre optique est aussi mise en vente, mais rien n’est acté pour l’instant. Altice ne détient pour rappel que 50,01 % de XpFibre, « le solde étant entre les mains d’Allianz, d’Axa Investment Managers et d’Omers, le fonds de retraite des employés municipaux de l’Ontario », rappelait l’Informé en février.
Concernant la vente de SFR, Bouygues Telecom et Free seraient intéressés, mais les conditions d’un tel rachat seraient forcément scrutés de près par les différentes autorités, notamment celle de la concurrence. Aucun des trois concurrents ne pourrait racheter l’intégralité de l’opérateur au risque de devenir trop gros, mais une répartition est possible. Cela pourrait aussi relancer un peu la concurrence dans le monde de l’entreprise, où Orange et SFR dans une moindre mesure occupent une place très importante.
Qu’en dit l’Autorité de la concurrence ? « Ça dépend du projet »
Benoît Cœuré, président de l’AdlC, n’était pas fermé à l’idée, mais n’avait aucun élément sur les modalités d’une telle opération. Faute de projet concret, il lui est actuellement impossible de se prononcer : « Pour le moment, je n’ai aucune idée de la réponse », expliquait-il à BFM Business fin avril.
« S’il y avait un tel projet, on regarderait marché par marché, ce n’est pas très compliqué. Ce qui est compliqué, c’est de mesurer. Conceptuellement, ce n’est pas très compliqué ». Ça paraît jouable, demande notre confrère ? « Ça dépend du projet […] il y a une discussion à avoir. Je ne viens pas vous dire il n’en est pas question, ce n’est pas possible […] Ça dépendra des mérites des projets, mais je n’ai vu aucun de ces projets ».
Putain… 10 ans !
Remontons le temps en 2014, quand Numéricable rachetait SFR à Vivendi. Une opération à 13 milliards d’euros financée avec une très importante levée de dette (qui est aujourd’hui au cœur du problème), au nez et à la barbe de Bouygues Telecom qui s’était aussi positionné.
Le ministre de l’Économie de l’époque – un certain Emmanuel Macron – était peu favorable à cette opération : « Je dis et répète que la consolidation n’est pas aujourd’hui souhaitable pour le secteur […] Le temps n’est pas à des rapprochements opportunistes auxquels plusieurs peuvent trouver un intérêt qui ne retrouve pas ici l’intérêt général ».
L’année suivante, Altice se proposait même de racheter Bouygues Telecom… avec l’aide d’iliad. Cela fait donc déjà 10 ans que l’on parle d’un possible retour à trois opérateurs, et seulement trois ans après le lancement de Free Mobile. Aujourd’hui, c’est donc Bouygues Telecom et iliad qui seraient partenaires pour croquer SFR.
Dernier problème et pas des moindres, ce n’est pas vraiment l’entente cordiale entre les trois milliardaires à la tête de ces trois opérateurs. Les passes d’armes durant les conférences et devant la justice sont monnaie courante.
Lundi soir, Google a annoncé l’arrivée en bêta d’une fonction attendue : la possibilité de manipuler les documents Word quand le chiffrement côté client est activé sur les comptes en entreprise. Une compatibilité qui devrait aider à gérer les situations hybrides, les documents Word étant monnaie courante.
La bêta suppose que les administrateurs intéressés s’inscrivent sur un formulaire pour demander l’accès. La fonction devra ensuite être activée, elle ne l’est pas automatiquement.
Il y a quelques limitations à prendre en compte. Le support ne se fait que sur les fichiers .docx, donc enregistrés au format OOXML (contre lequel la Document Foundation pestait encore récemment). La taille d’un fichier ne peut pas dépasser 20 Mo. Des incompatibilités peuvent également survenir, si les documents contiennent des éléments non pris en charge. Auquel cas, ils seront préservés. Enfin, l’édition au sein de Google Docs pourrait altérer certaines fonctions du document, mais le service préviendra avant toute modification.
La fonction ne sera proposée que pour les comptes Enterprise Plus, Education Standard et Plus, ainsi que Frontline Plus.
Nous n’allons pas refaire toute l’histoire, qui a débuté en 2020, mais Fortnite est bien de retour dans la boutique officielle d’Apple aux États-Unis, ainsi que dans la boutique alternative AltStore en Europe.
Les derniers épisodes étaient intenses. Epic Games relançait le processus de validation de Fortnite le 9 mai, puis l’avait retiré faute de réponse d’Apple, avant de le relancer le 14 mai. Fortnite nécessite, selon Tim Sweeny (fondateur et CEO d’Epic Games), des mises à jour toutes les semaines, avec une synchronisation sur toutes les plateformes.
Le 16 mai, Fortnite annonce qu’« Apple a bloqué notre soumission, nous ne pouvons donc pas la publier sur l’App Store américain ni sur l’Epic Games Store pour iOS dans l’Union européenne. Malheureusement, Fortnite sur iOS est désormais hors ligne dans le monde entier jusqu’à ce qu’Apple le débloque ». C’est visiblement chose faite depuis cette nuit.
Le patron d’Epic Games avait partagé lundi une nouvelle injonction de la juge Yvonne Gonzalez Rogers affirmant qu’« Apple est tout à fait capable de résoudre ce problème sans autre procès ou audience ». Néanmoins, dans le cas contraire, Apple avait jusqu’au 21 mai pour déposer son mémoire en opposition, Epic Games jusqu’au 23 mai pour répondre et une audience devait avoir lieu le 27 mai.
Tim Sweeny ne cache pas sa joie sur X et en profite pour distribuer des remerciements à ceux qui ont soutenu son combat depuis le début et… « ceux qui ont initialement soutenu Apple, puis se sont rangés du côté des gagnants, en défendant les droits des développeurs d’applications et des consommateurs ».
« Le retour dans l’App Store est une victoire symbolique. La véritable victoire se trouve dans les décisions de justice rendues dans l’affaire Epic vs Apple », explique Engadget. Quoi qu’il en soit, la saga judiciaire n’est toujours pas terminée.