Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 20 mai 2024Next.ink

☕️ Blue Origin envoie six astronautes dans l’espace

20 mai 2024 à 09:47

Ce week-end, la société fondée par Jeff Bezos a envoyé sa septième fournée d’astronautes dans l’espace. Il s’agit pour rappel d’un vol suborbital de quelques minutes au total, avec six personnes à bord.

La société met en avant l’histoire de l’un d’entre eux – Ed Dwight – qui avait « été sélectionné par le président John F. Kennedy en 1961 comme le premier candidat astronaute noir du pays, mais n’a jamais eu l’occasion de voler ».

La capsule est venue se poser sur la terre ferme à l’aide de ses parachutes, tandis que le corps principal de la fusée (le premier et seul étage) est revenu se poser en douceur sur sa base de lancement.

Comme son nom l’indique, NS-25 (NS pour New Shepard) était la 25ᵉ mission de Blue Origin. Cela faisait près de deux ans que la société n’avait pas envoyé d’humains dans l’espace. La dernière fois, c’était en août 2022.

Entre temps, la mission NS-23 était un échec avec la perte du lanceur lors du décollage. La capsule avait activé son système de sécurité et était venue se poser sur la terre ferme sans dommage. En décembre 2023, NS-24 n’avait pas d’équipage à bord.

Ubuntu 24.10 : destination Wayland et chiffrement intégral du disque

20 mai 2024 à 09:17
Une histoire de piaf et de prophétie
Fond d'écran par défaut d'Ubuntu 24.04

Dans sa dernière communication, l’équipe de développement d’Ubuntu a donné plusieurs informations importantes sur la prochaine version de la distribution Linux. La mouture 24.10 devrait être nettement plus riche en nouveautés que la 24.04 LTS du mois dernier.

Ubuntu 24.04, alias Noble Numbat, n’était pas dénuée d’apports. Mais on ne peut pas dire qu’elle ait révolutionné l’informatique, ce qui convient d’ailleurs à une bonne part des utilisateurs. Il s’agissait en fait d’un contexte particulier : l’activation par défaut des framepointers et d’autres éléments, ainsi que le gros problème de sécurité engendré par l’affaire XZ Utils ont entrainé une révision des plans et une compilation de toute la distribution.

Le temps « perdu » a limité le nombre de nouveautés à inclure dans la bêta publique, qui ne dure que deux ou trois semaines. Les plans pour Ubuntu 24.10 – qui s’appellera Oracular Oriole – sont de rattraper le retard et de lisser les nouveautés introduites dans Noble Nombat. Des apports significatifs sont prévus.

Chiffrement intégral du disque et Wayland

Canonical compte réactiver la télémétrie sur les problèmes de configuration rencontrés sur les périphériques. La société ambitionne en effet d’utiliser par défaut le chiffrement intégral du disque basé sur la puce TPM. L’annonce fait étrangement suite à celle de Microsoft, qui s’avance dans la même direction.

Ce retour d’informations interviendra dès l’installation du système. L’installeur, intégralement revu pour Ubuntu 23.10 et amélioré dans la version 24.04 LTS, sera donc à nouveau renforcé. Les informations captées devraient aider Canonical à mieux cerner certains soucis techniques, notamment ceux liés aux pilotes NVIDIA.

L’éditeur compte ainsi préparer le terrain au chiffrement intégral du disque (qui n’interviendra peut-être pas dans la prochaine version) et activer par défaut Wayland pour les possesseurs de GPU NVIDIA.

« Il y a encore quelques problèmes connus avec cette combinaison et en raison de la forte utilisation d’Ubuntu Desktop dans l’IA/ML, VFX et d’autres industries, nous avons conclu qu’il était trop tôt pour faire ce changement dans Ubuntu 24.04 LTS », ajoute Canonical.

L’activation par défaut va, là aussi, permettre la remontée d’informations. L’éditeur évoque une liste de problèmes réduite, qui devrait permettre la même activation par défaut dans Ubuntu 26.04, la prochaine édition LTS du système. Avec Ubuntu 24.10, Wayland devrait donc être actif sur la totalité des configurations, l’ancien serveur graphique X restant disponible en solution de secours.

De multiples autres nouveautés

GNOME 47 sera de la partie. Sa version finale devrait être prête quelques semaines avant la publication de la bêta d’Ubuntu 24.10. Canonical va d’ailleurs profiter de l’intégration renforcée de Wayland dans GNOME à cette occasion.

L’assistant de bienvenue va également être révisé. Canonical poursuit son travail de réécriture pour ses applications intégrées en les passant à la moulinette Flutter. L’assistant va donc être remanié en tenant compte des changements intervenus dans l’installeur, pour donner une continuité dans l’expérience utilisateur. De nouvelles fonctions doivent y être ajoutées, dont la création de comptes utilisateurs.

Puisque l’on parle de Flutter, Canonical ajoute que le travail de migration de GTK3 vers GTK4 continue. Les bénéfices attendus sont de meilleures performances ainsi qu’une prise en charge améliorée de l’accessibilité. Sur ce dernier point, rappelons que l’un des apports d’Ubuntu 24.04 est la possibilité d’activer les options d’accessibilité dès le début du processus d’installation.

Le Centre d’applications sera enrichi lui aussi. La découverte sera facilitée sur un plus grand nombre de catégories. On y trouvera aussi le support des installations tierces de paquets DEB. Enfin, une amélioration est prévue pour les messages de mises à jour pour les snap en cours d’exécution.

Version immuable et embauches massives

Enfin, deux nouvelles d’importance. D’abord, le travail continue sur Ubuntu Core Desktop, la première version immuable du système pour les machines de bureau.

Ensuite, Canonical va embaucher. Dans l’année qui vient, l’entreprise compte faire grandir l’équipe Ubuntu Desktop « d’au moins 50 % ». « Si vous avez la passion et les compétences nécessaires pour être à la pointe de la performance, de la sécurité, de l’immuabilité et de l’accessibilité, alors nous voulons vous connaître », indique l’entreprise.

☕️ IA générative : le ton monte entre l’Europe et Microsoft

20 mai 2024 à 08:03
Drapeau de l'Europe

La Commission européenne n’est pas satisfaite. Bing, en tant que contrôleur d’accès désigné par le DSA, est soumis à un certain nombre d’obligations. Le 14 mars, l’Europe avait ainsi demandé à Microsoft des informations portant sur les risques liés à l’IA, « notamment Copilot in Bing et Image Creator by Designer ».

Selon la Commission, dans une note du 17 mai, les réponses étaient incomplètes. Une nouvelle demande a été envoyée, cette fois juridiquement contraignante.

« La demande d’informations repose sur le soupçon que Bing pourrait avoir enfreint le DSA en ce qui concerne les risques liés à l’IA générative, tels que les “hallucinations”, la diffusion virale de “deepfakes”, ainsi que la manipulation automatisée de services susceptibles d’induire les électeurs en erreur. »

La Commission précise que l’amende pourrait aller jusqu’à 1 % du revenu annuel ou du chiffre d’affaires mondial, assortie d’une sanction périodique pouvant grimper jusqu’à 5 % du revenu journalier moyen ou du chiffre d’affaires annuel mondial du prestataire, si Microsoft ne répond pas dans les temps. Si les informations fournies se révèlent « incorrectes, incomplètes ou trompeuses », la même amende pourra être appliquée.

L’Europe rappelle toutefois qu’une telle demande d’information est un acte d’enquête « qui ne préjuge pas des éventuelles autres mesures que la Commission pourrait ou non décider de prendre ». Selon les éléments fournis, une procédure formelle pourrait être ensuite ouverte.

☕️ iFixit démonte l’iPad Pro 13 et le Pencil Pro, qui en prend pour son grade

20 mai 2024 à 07:09

Nos confrères pointent du doigt une amélioration intéressante dans la conception de la nouvelle tablette d’Apple (avec une puce M4) : « Pour la première fois sur un iPad Pro, nous sommes en mesure de retirer la batterie immédiatement après avoir retiré l’écran ». Et ce, malgré la finesse du produit, largement mise en avant par Apple dans sa communication.

Ils ajoutent rapidement qu’ « immédiatement est relatif ici. Il y a encore des vis et des supports, mais il s’agit d’une amélioration majeure par rapport aux iPad de la génération précédente ». La victoire n’est pas totale : Apple utilise encore massivement de la colle, « tout simplement pas assez de place pour les vis ».

Quant au Pencil Pro, iFixit résume sa pensée en une courte phrase : « c’est une merde jetable une fois que la batterie est morte ». Une vidéo du démontage a aussi été mise en ligne :

☕️ Winamp va devenir open source

20 mai 2024 à 06:00
Winamp

Winamp, c’est le symbole d’une époque pratiquement révolue, où l’on organisait des centaines, voire des milliers de MP3 (ou autres codecs sonores) pour se constituer une vaste médiathèque musicale. Avec l’arrivée de YouTube et des plateformes de streaming, l’usage a changé et Winamp a été relégué à l’arrière-plan.

L’application est devenue une plateforme centrée sur les radios et la distribution intégrée. Il n’y a plus grand-chose à voir avec le petit lecteur des débuts, léger et si riche en fonctions, même si un lecteur est toujours présent dans l’ensemble. La plateforme est surtout conçue pour faciliter la publication de titres par les artistes sur les plateformes de streaming.

L’ancien lecteur avait été abandonné en 2013 (une décision d’AOL à l’époque), avant d’être repris en main en 2018. Mais Llama Group, qui en possède les droits, désire se concentrer sur ses services web et ses applications mobiles. L’application Windows classique va donc passer en open source le 24 septembre. La licence n’est cependant pas encore connue.

Il est probablement déjà trop tard pour Winamp. Seule la version Windows est concernée (la version Mac a été abandonnée il y a des années) et des initiatives ont depuis longtemps pris le relai sur Linux. Sans parler de VLC.

À partir d’avant-hierNext.ink

666e édition des LIDD : Liens Intelligents Du Dimanche

18 mai 2024 à 22:00
Le voilà, le tant attendu 666e !

Comme tous les dimanches (après une petite pause ces dernières semaines), voici notre sélection des liens les plus intéressants de ces derniers jours. Ils proviennent des commentaires les plus intéressants, utiles et/ou originaux de la semaine, mais aussi de nos recherches.

Le floutage de demain passe dès aujourd’hui par l’IA

Dans sa revue des médias, l’INA propose un article très intéressant sur la nécessité d’inventer « le floutage de demain » : « Pendant longtemps, la télé a flouté les personnes qui souhaitaient témoigner de façon anonyme. Ces floutages sont désormais contournables grâce à l’intelligence artificielle. Pour trouver des solutions qui permettent de continuer à assurer la protection de ces témoins, une course contre la montre s’est engagée à France Télévisions ».

Nos confrères se sont posés la question de savoir si les méthodes d’anonymisation des visages étaient suffisantes, d’autant que cela soulève des questions déontologiques sur la nécessaire et obligatoire protection des sources. Résultat des courses : « le floutage tel qu’il existe aujourd’hui risque d’être compromis ». Une trentaine de sujets ont déjà été dépubliés.

Et si la solution venait de l’intelligence artificielle qui placerait un nouveau visage à la place de l’ancien, avec un autre intérêt que l’anonymisation : « L’IA permet d’envisager l’émotion qu’on nous partage, mais sans révéler le témoin. Le visage, c’est souvent la part d’humanité qui reste dans les zones du monde où il y a des conflits ou de la répression ».

Il y a déjà une utilisation concrète avec le documentaire Nous, jeunesse(s) d’Iran, cité par la Revue des médias. Il a été diffusé sur France 5 : « six récits de jeunes de moins de 25 ans donnent vie aux transformations en cours dans la société iranienne ».

Pour ce film, les réalisateurs ont « fait le choix de générer des visages via intelligence artificielle pour anonymiser ses témoins (au centre). Créer une simple mosaïque présente dorénavant trop de risques. Quant au carré noir, difficile de l’utiliser durant tout un film », explique l’INA.

Neurone et IA : la bonne connexion ?

France Culture propose un podcast sur l’histoire de l’IA : « Aux origines de l’intelligence artificielle, il y a la volonté de plusieurs chercheurs de décrypter les mécanismes de la pensée humaine. Quel rôle ont joué les premiers réseaux de neurones artificiels dans cette histoire à rebondissements ? ». L’invité du jour est Alban Leveau-Vallier, docteur en philosophie à Sciences Po Paris.

C’est quoi être « identifiable » au sens du RGPD ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

#Flock tease son strip

Par : Flock
18 mai 2024 à 11:37
VRAAAAA en surround onomatopéerama 7.1

Nous voilà bien.

J’avais dit que je teasais mon strip, mais je suis nul en pub et j’ai surtout bien d’autres choses à vous raconter cette semaine, notamment ces histoires de “Choose France“,
de parts de gâteaux culturels, de poisse de fusée, ou même encore de self-control.

En parlant de self-control, vu que j’en ai manqué, faut quand même que je vous raconte pour ce strip. J’étais au carrefour de la fin de semaine avec le weekend, quand voilà que déboule comme une furie un strip, sans crier gare, ni même claxonner. Il me semblait évident de devoir lui laisser la priorité. Du coup j’ai dû accélérer. Pardonnez les couleurs de signalisation et les traits en pointillé, au moins je n’ai quasiment pas dépassé les lignes blanches.

Mais pas d’inquiétude, j’étais en règle, ce strip est réglo, j’avais bien mes papiers : les voici, ici et ici.

Merci m’sieur l’agent !

Cette chronique est financée grâce au soutien de nos abonnés. Vous pouvez retrouver comme toutes les précédentes publications de Flock dans nos colonnes.


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le Conseil de l’Europe adopte sa Convention-cadre sur l’intelligence artificielle

17 mai 2024 à 15:30
Premier traité international contraignant
IA Act

Les 46 États membres du Conseil de l’Europe ont adopté la Convention-cadre sur l’intelligence artificielle, premier traité international juridiquement contraignant en la matière.

Respect de l’autonomie personnelle, obligations de transparence et contrôles adaptés au contexte, obligation de rendre des comptes en cas d’impacts négatifs des systèmes d’intelligence artificielle sur les droits humains, la démocratie ou l’État de droit… Le Conseil de l’Europe a adopté ce 17 mai sa Convention-cadre « sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit ».

Il s’agit, en matière d’intelligence artificielle, du premier texte d’ampleur internationale qui soit juridiquement contraignant. Le texte a été adopté pendant la réunion ministérielle annuelle du Comité des ministres du Conseil de l’Europe, qui rassemble les ministres des Affaires Étrangères des 46 États membres (parmi lesquels les 27 pays de l’Union, mais aussi des États comme la Suisse, la Norvège ou la Turquie).

Plus de 50 pays réunis


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Linux 6.9 améliore encore le support matériel, surtout les processeurs AMD récents

17 mai 2024 à 15:04
Droit au cœur
Photographie retouchée de Long Ma pour Unsplash

Nouvelle mouture pour le noyau Linux, qui passe en version 6.9. Les améliorations sont nombreuses, particulièrement pour le support matériel. On note aussi un meilleur support des écrans 4K et un démarrage plus rapide dans certains cas.

Les noyaux Linux fournissent l’essentiel du support matériel dans les distributions. On peut bien sûr installer des pilotes dédiés (c’est même souvent le cas avec les GPU NVIDIA), mais c’est bien au « kernel » d’assurer l’exploitation du matériel dans l’immense majorité des cas. Aussi, l’arrivée d’un nouveau noyau permet souvent le support de matériels récents.

Le noyau 6.9 ne fait pas exception et ajoute de nouveaux éléments, notamment pour Intel et AMD.

Du côté des processeurs

L’une des principales améliorations concerne les processeurs Zen et la fonction Preferred Core. Celle-ci permet d’orienter certaines tâches vers les cœurs les plus puissants du processeur, le système communiquant avec l’ordonnanceur pour répartir la charge.

Ce support était attendu pour le noyau 6.8 mais n’avait pas eu le temps d’être finalisé. Pour en profiter, il faut que le pilote P-State d’AMD soit installé. Cet ajout est d’autant plus important qu’AMD fournit un nombre croissant de processeurs comprenant des cœurs performants (Zen4) et des cœurs efficaces (Zen4c).

Restons chez AMD avec deux autres nouveautés. D’abord, une meilleure prise en compte de SEV-SNP, l’une des fonctions dévolues à la sécurité cryptographique dans le pack SEV, qui comprend également SEV-ES. Ces fonctions sont présentes dans les puces EPYC et devraient être toutes gérées dans le noyau 6.10. Ensuite, le support du FRU Memory Poison Manager, qui permet aux informations sur les erreurs en mémoire vive de persister entre les redémarrages.

Côté Intel, on note une série de correctifs pour les processeurs Meteor Lake destinés aux ordinateurs portables. Les paramètres Energy Performance Preference ont été ajustés, avec à la clé de meilleures performances. Signalons aussi l’intégration d’Intel FRED (Flexible Return and Event Delivery), dont la mission est de permettre des transitions entre les niveaux de privilèges avec une latence faible.

Enfin, un support plus étendu des instructions x86S, lancées pour rappel il y a un an pour simplifier l’architecture x86 et supprimer le support des systèmes 16 et 32 bits.

Améliorations graphiques

L’un des plus gros apports du noyau Linux 6.9 est la prise en charge de polices plus grandes dans FBDEV (frame-buffer device). La largeur maximale passe à 64 et la hauteur à 128. Cela ne vous évoque peut-être rien, mais ce changement permet un bien meilleur support des écrans haute définition, notamment 4K, en cas d’utilisation de la console.

Plusieurs autres améliorations sont présentes, notamment pour le pilote i915 d’Intel, le support du tunneling DisplayPort, ou encore celui de fastboot pour les anciennes plateformes.

Processeurs ARM, stockage et autres

Comme toujours, le nouveau noyau propose des ajouts significatifs dans le support de certaines architectures ARM et autres. C’est le cas de RISC-V qui y gagne entre autres la prise en charge des routines cryptographiques à accélération vectorielle.

L’architecture LoongAarch reçoit certaines attentions, elle aussi, dont le support d’objtool, du live-patching (pour appliquer les correctifs du noyau sans redémarrer la machine) ainsi que des fonctions supplémentaires pour la configuration du noyau. Plusieurs nouveautés aussi pour ARM64, dont le support de la compilation Rust dans le noyau.

Côté stockage, signalons l’arrivée d’une grosse nouveauté : la gestion du mode FUSE passthrough. En clair, les opérations de lecture et écriture sont transmises directement par le noyau au système de fichiers de l’espace utilisateur, avec à la clé une amélioration des performances du FS, en évitant de surcharger le daemon. On note aussi des améliorations significatives dans le support de l’exFAT, dont une nette augmentation des performances quand l’option dirsync est activée.

Disponibilité du noyau 6.9

La récupération du nouveau noyau diffère selon la distribution utilisée. Dans la plupart des cas, les distributions classiques (Ubuntu, Fedora…) attendant la version majeure suivante pour livrer une évolution importante du noyau. Dans ce genre de cas, il est conseillé d’attendre, même si des outils permettent le téléchargement et l’installation du nouveau noyau dans sa version générique.

Les autres distributions, en rolling release, proposent déjà ce noyau ou vont le faire très prochainement.

☕️ Le blocage de TikTok en Nouvelle-Calédonie attaqué en justice par la Quadrature et la LDH

17 mai 2024 à 14:39

L’association a déposé ce vendredi 17 mai un référé-liberté (pdf) demandant la suspension du blocage de TikTok en Nouvelle-Calédonie décidé par le Premier ministre Gabriel Attal.

Elle estime que « le gouvernement porte un coup inédit et particulièrement grave à la liberté d’expression en ligne, que ni le contexte local ni la toxicité de la plateforme ne peuvent justifier dans un État de droit ».

Comme nous l’évoquions, le décret du 15 mai interdisant TikTok sur le territoire de la Nouvelle-Calédonie s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence. Elle prévoit que le ministre de l’Intérieur puisse « prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ».

Dans son communiqué, la Quadrature du Net estime que « personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter ».

L’association précise dans son référé qu’elle « lutte de manière ancienne et constante contre le modèle incarné notamment par le service de communication au public en ligne “TikTok”, qu’elle considère comme particulièrement nocif à bien des égards, et qui s’oppose aux valeurs qu’elle entend défendre ».

La Ligue des droits de l’Homme a aussi annoncé sur Twitter attaquer « en référé-liberté l’interdiction et le blocage de TikTok sur le territoire de la Nouvelle-Calédonie pour défendre la liberté de communication des idées et des opinions ».

Depuis 2020, les émissions de Microsoft ont augmenté de 29 %

17 mai 2024 à 14:14
IA très soif
consommation de l'ia

En 2020, l’entreprise de Redmond planifiait une empreinte « carbone négative » à partir de 2030 et même « effacer », d’ici 2050, l’ensemble de son empreinte carbone depuis 1975. Depuis, notamment à cause de ses investissements dans l’IA, Microsoft a de fait augmenté ses émissions de CO2 de 29 %.

C’est dans le rapport sur le développement durable 2024 de Microsoft (pdf) que le chiffre de l’augmentation de 29,1 % des émissions de CO2 de l’entreprise entre 2020 et 2023 se cache parmi de nombreuses photos de champignons, d’arbres, de roches, d’éoliennes et de panneaux solaires.

La construction de data centers pour l’IA en cause

S’il est répété trois fois dans le rapport, ce chiffre n’est pas mis en exergue du rapport, contrairement aux « 5 millions de tonnes de carbone éliminées pendant l’année 2023 », par exemple. Il a pourtant été repéré par Bloomberg.

Dans son rapport, Microsoft ne fait pas non plus le décompte total de ses émissions de CO2. En parcourant le rapport, The Verge calcule que « l’entreprise a rejeté 15,357 millions de tonnes de dioxyde de carbone au cours de l’exercice fiscal précédent, ce qui est comparable aux émissions d’Haïti ou de Brunei ».

L’entreprise divise ses émissions entre trois catégories de « scopes ». Le Scope 1 désigne les émissions « directes » créées par les activités internes à l’entreprise. Le Scope 2 vise les émissions « indirectes » venant de l’électricité ou du chauffage que Microsoft utilise. Et la troisième représente les émissions « indirectes » venant de toutes les autres activités « dans lesquelles nous sommes engagés », explique l’entreprise dans son rapport.

Si cette catégorisation reste assez vague, on peut voir sur le schéma ci-dessous, tiré du rapport, que ce sont les activités du Scope 3 qui représentent la plupart des émissions de CO2 de Microsoft. Pour l’année 2023, elles en représentent même 96 %.

Donc même si Microsoft explique que les émissions des catégories des scope 1 et 2 ont diminué de 6 % depuis 2020, ces efforts n’ont que peu de poids dans le bilan de l’entreprise.

D’autant que les activités du scope 3 ont augmenté, elles, de 30,9 %. Celles-ci englobent, entre autres, l’énergie de sa chaine d’approvisionnement, et les matériaux de constructions et notamment ceux de ses data centers.

Et la bascule effectuée par Microsoft vers la mise en place de plus en plus importante de l’intelligence artificielle l’a poussée à créer d’autant plus de data centers ces dernières années.

Un objectif cinq fois plus loin qu’en 2020

Interrogé par le média américain, le président de Microsoft, Brad Smith, explique qu’ « en 2020, nous avons dévoilé ce que nous avons appelé notre “carbon moonshot” [objectif carbone dont l’ambition est comparable à celle d’un lancement vers la lune]. C’était avant l’explosion de l’intelligence artificielle ».

Si, dans son rapport, l’entreprise insiste sur son utilisation de l’IA pour « accélérer les solutions de développement durable », Brad Smith est bien obligé d’ajouter qu’ « à bien des égards, la lune est cinq fois plus éloignée qu’elle ne l’était en 2020, si l’on pense seulement à nos propres prévisions concernant l’expansion de l’intelligence artificielle et ses besoins en électricité ».

De plus, comme l’explique le Financial Times, cette concurrence sur la création d’infrastructures de data centers pour l’IA soulève des questions sur la capacité des réseaux énergétiques nationaux à faire face à la hausse attendue de la demande d’électricité. Le média économique américain se demande également si la production d’énergies renouvelables est suffisante sur ces marchés pour répondre aux besoins de l’IA.

☕️ Firefox 126 est là, le RTX Video Super Resolution de NVIDIA pris en charge

17 mai 2024 à 13:39
Logo de Firefox

La nouvelle mouture du navigateur est en ligne depuis hier. On y trouve plusieurs nouveautés intéressantes, comme une amélioration de la fonction « Copier sans le pistage du site », rajoutée en novembre et qui prend maintenant en compte les URL imbriquées.

Firefox 126 supporte également le standard de compression zstd et le décodage matériel de l’AV1 pour les Mac équipés de puces M3.

Mais le plus gros ajout est sans conteste la prise en charge de deux fonctions de NVIDIA : RTX Video Super Resolution et RTX Video HDR. La première fonctionne comme un DLSS pour les vidéos, pour en améliorer la qualité. L’autre retravaille les vidéos pour les convertir en HDR10.

Dans les deux cas, ce support n’est présent que sous Windows (10 ou 11). Il faut une GeForce RTX de la série 2000 ou plus récente, ainsi qu’un pilote en version 550 au moins. Les options liées à la vidéo doivent être activées dans le panneau de contrôle NVIDIA et le HDR doit être coché dans les paramètres de Windows. Il faut donc un écran compatible.

Côté sécurité, Firefox 126 colmate 17 failles, dont deux critiques.

Copie privée : des reconditionneurs font condamner Copie France pour procédure abusive

17 mai 2024 à 13:10
Un droit de Rogard
La culture avec la copie privée

La société chargée de collecter la redevance au profit des ayants-droit leur avait réclamé un paiement rétroactif de 14 € par terminal reconditionné vendu depuis 2015. Le tribunal l’a condamnée à 12 000 euros d’amendes et au remboursement de 105 000 € de frais de justice.

Dans un communiqué (.pdf) en date du 7 mai, le Pôle activité économique et commerciale de la présidence du tribunal judiciaire de Paris revient sur ce pourquoi les reconditionneurs n’auront pas à payer de redevance copie privée pour les téléphones vendus avant le 1er juillet 2021, comme le réclamait initialement Copie France.

Le communiqué fait suite à trois décisions relatives à la « rémunération pour copie privée » appliquée aux téléphones reconditionnés prises la 3e chambre du tribunal judiciaire de Paris le 26 avril dernier, et révélées par L’Informé.

La société Copie France, chargée de percevoir la redevance au profit des ayants-droit via leurs organismes de gestion collective de droits d’auteur et de droits voisins (et dont Pascal Rogard, directeur général de la SACD depuis 2004, est le rapporteur général), avait en effet engagé des procès contre « un grand nombre » de vendeurs de produits reconditionnés à partir de 2020, de sorte d’obtenir le paiement de redevances « égales à celle des produits neufs », souligne le communiqué.

La loi ne réclame de redevance qu’aux fabricants et importateurs


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Contenus extrémistes : la France et la Nouvelle-Zélande créent la Fondation de l’Appel de Christchurch

17 mai 2024 à 12:47

Près de cinq ans après l’appel de Christchurch, la France et la Nouvelle-Zélande ont annoncé la création d’une Fondation dédiée à la coordination des travaux de la société civile, de l’industrie et des acteurs publics sur l’élimination des contenus extrémistes et violents en ligne.

En 2019, l’appel contre l’utilisation d’internet comme arme de propagande terroriste, ou appel de Christchurch, avait été créé deux mois après les attentats terroristes qui ont frappé la ville néo-zélandaise.

Marrainée par l’ancienne première ministre de Nouvelle-Zélande, la Fondation aura son siège dans la ville de Wellington. Elle déclare avoir déjà reçu des promesses de dons.

L’IGN lance son application mobile Cartes, Google Maps et Apple Plans taclés au passage

17 mai 2024 à 12:33
À l’Arcep ou à l’IGN, Sébastien Soriano distribue des baffes
Cartes IGN

L’Institut national de l’information géographique et forestière explique que sa nouvelle application mobile (gratuite) permet « à tous les citoyens de découvrir le territoire, ses évolutions et de s’y repérer ». Elle se veut différente des Google Maps et Apple Plans, à qui l’IGN reproche des « représentations biaisées » et une « vision commerciale » de notre territoire.

Dans son communiqué, l’IGN explique que son application « lève ainsi le voile sur les 90 % du territoire (terres agricoles, forêts, plages…) invisibilisés par les applications des géants du numérique ». Sébastien Soriano (directeur général de l’IGN et ex-président de l’Arcep), détaille le propos sur France Culture.

92 % de Maps « c’est juste du coloriage »

Lorsque notre confrère lui demande ce qu’il reproche à Google Maps, il répond : « c’est assez simple, si vous dézoomez un petit peu (les cartes sont souvent faites pour les aires urbaines) et que vous regardez le paysage de manière générale […] on a compté que 92 % de la superficie du territoire qui est de la même couleur […] Il n’y a pas de données, c’est juste du coloriage. Ces cartes ont invisibilisé la richesse de notre territoire pour se concentrer sur des enjeux commerciaux ».

Sébastien Soriano parle d’une « économie de l’attention, comme les réseaux sociaux », pour ensuite la monétiser vis-à-vis de commerces que vous allez ensuite pouvoir visiter. « Avec Cartes IGN, il est possible de connaître le type de culture d’un champ, les essences d’une forêt ou la composition d’une plage (sable ou galets) », explique l’Institut.

Date de construction, hauteur, étages des batiments

Laurent Toustou, chef du service données produits et usages à l’IGN, ajoute sur France Inter que, contrairement aux Google Maps et Apple Plans, Cartes IGN permet d’accéder à davantage d’informations : « On peut cliquer sur les bâtiments, comme ici, pour avoir des informations sur la date de construction, la hauteur, le nombre d’étages ».

« Il ne s’agit pas de faire la même chose qu’eux [les géants du Net, ndlr]. Si c’est pour pomper des données personnelles et présenter où sont les fast-foods, ils le font déjà […] on ne peut pas laisser les grands acteurs décider la manière de nous présenter notre propre territoire », ajoute Sébastien Soriano.

Niveau fonctionnalités, l’application permet de calculer, enregistrer, exporter et partager un itinéraire en mode piéton et voiture, mais également de voyager dans le temps et de comparer des cartes ou des vues aériennes à différentes périodes : « comment a évolué mon territoire en 30 ans ? en 200 ans ? qu’est-ce qu’il y a à découvrir à 15 minutes ou 1 heure autour de moi ? ».

On peut ainsi observer l’évolution du territoire à travers différents prismes, tels que la dé- ou reforestation, les effets des incendies ou des crues, le recul du trait de côte, l’émergence d’énergies nouvelles, l’évolution du bati, etc.

Elle propose aussi une sélection de plusieurs fonds carto et photographiques sur lesquels on peut superposer des données thématiques « inédites » (zones protégées, environnement et risques naturels, foncier, services publics/administratifs, hydrographie, culture, transports, etc.).

Cartes IGN permet également de contribuer à l’amélioration des données et d’effectuer un signalement sur des objets signalisés.

La provenance des données est très variée : ministères en charge de l’écologie, de l’agriculture et de la forêt, collectivités territoriales, OpenStreetMap, Services départementaux d’incendie et de secours (SDIS), Office national des forêts (ONF), Parcs régionaux et nationaux, etc.

IGN Cartes prend la place de l’application Géoportail

L’application s’appuie sur Géoplateforme, lancée cette année : « cette infrastructure de référence de la donnée géographique publique héberge environ 1 Péta octet de données et répond à 300 millions de requêtes par jour », ajoute IGN. D’ailleurs, l’application IGN Cartes « vient se substituer à l’application Géoportail lancée en 2015 et téléchargée un million de fois ».

Les notes de versions sur Google Play et l’App Store expliquent les changements entre Géoportail et IGN Cartes : afficher des légendes, calculer une isochrone, isodistance, créer, enregistrer, partager, exporter des points de repère, partager votre position, calculer un itinéraire (mode piéton et motorisé), tracer un itinéraire (mode de saisie libre ou guidé), enregistrer, exporter, partager un itinéraire et enfin comparer deux cartes ou photos aériennes.

De plus amples informations sont disponibles par ici.

☕️ Rover martien Rosalind Franklin : l’ESA et la NASA officialisent un nouvel accord

17 mai 2024 à 07:42

Les agences spatiales européenne et américaine ont annoncé avoir signé un nouvel accord de collaboration à propos du rover Rosalind Franklin qui doit finalement être lancé en 2028 pour arpenter la surface de Mars.

Le lancement du rover a été reporté plusieurs fois, d’abord en 2011 avec l’abandon du partenariat par la NASA, puis en raison de problèmes de parachutes et de la pandémie de Covid-19.

En 2022, l’invasion de l’Ukraine par la Russie a mis fin à la collaboration qu’avait signé l’ESA avec l’agence spatiale russe Roscosmos en 2012. Quelques semaines auparavant, Pietro Baglioni, chef de l’équipe chargée du rover ExoMars, lachait : « Le rover est prêt ».

En novembre 2022, la NASA avait donné un avis favorable à la reprise de la collaboration, sans pour autant que celui-ci soit formel. C’est désormais chose faite.

Récemment, nous avions appris que Thales Alenia Space sera responsable de la conception d’une bonne partie du rover : module de rentrée, descente et atterrissage EDLM, du développement de l’altimètre-radar, de l’intégration de l’ALD (Analytical Laboratory Drawer) sur le rover, et du développement de l’ordinateur de bord.

L’entreprise sera aussi responsable de son assemblage, de la partie intégration et test (AIT), et de la supervision de la campagne de lancement.

Écoconception des services numériques : le référentiel est là, avec ses ambitions et limites

17 mai 2024 à 07:00
Et maintenant ?
Une bouteille à la mer numérique par Flock

Le référentiel général de l’écoconception des produits est désormais en ligne. Ce document, très attendu, constitue un premier jet et a la mission délicate de faire bouger les lignes. Il n’est cependant pas contraignant et ambitionne surtout, pour l’instant, la collecte des connaissances et des retours d’expérience.

Ces dernières années, en France, plusieurs agences mettent l’accent sur la sobriété énergétique. Par extension, la sobriété numérique devient un sujet prégnant, nos usages augmentant continuellement.

L’Arcep et l’Arcom, en lien avec l’ADEME, publient donc ce référentiel, après la consultation publique d’octobre dernier. L’objectif est clair : intégrer dès la conception des pratiques vertueuses en matière de minimisation de l’empreinte environnementale. La rédaction du document a également bénéficié du concours de la CNIL, de la DINUM et d’Inria.

Écoconception : de quoi parle-t-on ?

Avant de plonger dans le référentiel, son périmètre et ses objectifs, il faut s’arrêter un instant sur l’écoconception proprement dite. La définition courante – et reprise par le document – est « l’intégration des caractéristiques environnementales dans la conception du produit en vue d’améliorer la performance environnementale du produit tout au long de son cycle de vie ».

Une définition qui résume à elle seule l’objectif général du référentiel : minimiser autant que possible la consommation d’énergie et de ressources. Le Graal devient alors un service ayant nécessité le strict minimum à son fonctionnement et n’envoyant que la juste quantité d’informations.

Tout le monde est concerné (ou presque)

Le périmètre du référentiel est vaste. Les serveurs, terminaux, box internet, réseaux d’opérateurs, centres de données, les infrastructures logicielles et plus généralement les services numériques sont concernés. On trouve donc aussi bien des sites web que des API (Application Programming Interface), des systèmes d’exploitation, des systèmes d’intelligence artificielle (SIA), tout le SaaS (Software as a Service), les registres de blockchains, plateformes vidéo et autres services en ligne.

En d’autres termes, tout ce qui touche de près ou de loin au numérique. Mais le référentiel ne se veut pas une bible parée à toutes les utilisations. Comme indiqué, il ne fait « pas obstacle à l’existence de documents d’écoconception complémentaires, plus exhaustifs ou spécifiques à certaines catégories de produits ou services numériques ». Par exemple, un référentiel dédié aux objets connectés (IoT).

Le document se voulant généraliste et un « socle commun de bonnes pratiques », tous les métiers liés au numérique sont concernés. Tout ce qui touche à la gestion des projets, à la maîtrise d’ouvrage, à l’UX (user experience), aux éléments graphiques, au marketing, à l’ingénierie logicielle ou système, ou encore à la publication de contenus est visé.

Quatre axes majeurs

Pour parvenir à maitriser la consommation des services numériques, les trois agences proposent quatre axes principaux d’action.

D’abord, en soulageant les terminaux. Si la fabrication de ces derniers n’entre pas dans le périmètre du texte, il est possible d’influer sur ce qu’ils utilisent. Par exemple, en veillant à ce que les services aient une consommation mesurée de ressources, pour s’assurer que des appareils anciens puissent continuer à les utiliser.

Les autres idées comprennent l’adaptation du service au contexte (par exemple, optimiser la vidéo pour la taille de l’écran, pour éviter la 4K sur un smartphone), la possibilité d’utiliser le service sur le plus grand nombre possible d’appareils (interfaces tactiles et claviers physiques), l’usage de l’open source « comme levier de prolongation de la durée des services » (et donc des terminaux et des objets connectés), ainsi que la disponibilité des mises à jour essentielles pendant toute la durée de vie des terminaux. Le référentiel souhaite également que les services puissent être utilisés sur des versions antérieures des systèmes d’exploitation et navigateurs.

Deuxième axe, la promotion de la sobriété face à la captation de l’attention. Et c’est là un vaste chantier qui s’ouvre pour les agences, car elles souhaitent la restriction des murs de contenus infinis, du déclenchement automatique des vidéos, des notifications intempestives et autres. Le référentiel milite pour des informations claires, la fin des dark patterns (appelés « procédés manipulatoires »), des fonctions telles qu’un bouton ou un mode économie d’énergie. Il est également question de limiter la captation des données et métadonnées à des fins publicitaires.

Troisième axe, la diminution des ressources mobilisées pendant tout le cycle de vie du service. Les pistes avancées sont nombreuses : interroger les appareils pour adapter les ressources consommées aux besoins réels, réduire le poids des contenus multimédias, limiter les requêtes aux serveurs, minimiser les ressources nécessaires aux calculs asynchrones, favoriser les hébergeurs efficients et limiter l’utilisation de technologies énergivores. La blockchain et l’apprentissage automatique (donc les IA) sont citées.

Enfin, pour son dernier axe, le référentiel veut promouvoir la transparence, essentiellement avec une approche « par la donnée ». Par exemple, « a minima » par la publication de chiffres sur les émissions de gaz à effet de serre, la consommation énergétique, ainsi que la consommation en eau et en ressources abiotiques minéraux/métaux. Il n’est cependant pas toujours facile d’avoir des chiffres fiables sur lesquels se baser. De même, par la sélection d’un hébergeur transparent sur ses performances environnementales. Enfin, par la publication des objectifs environnementaux.

Comment s’articule le RGSEN pour les structures intéressées ?

Puisque l’on parle d’un référentiel non contraignant, les structures intéressées par son contenu doivent le prendre en main, via un kit d’autoévaluation, en vue d’une déclaration d’écoconception. Celle-ci, si validée, permet alors à l’entreprise (ou autre) d’en faire la communication, notamment à des fins d’image publique, voire dans sa publicité.

Le référentiel propose ainsi 78 critères (91 dans le document soumis à consultation en octobre), présentés sous forme de questions. Chacun est accompagné d’une fiche pratique pour en expliquer les tenants et aboutissants. Un indice de priorisation est également présent pour chaque critère. Il tient compte de l’impact estimé sur l’empreinte environnementale, de sa portée systémique, de ses éventuels effets indirects sur d’autres secteurs et du niveau d’ambition de sa mise en œuvre. Le référentiel, dans sa première édition finalisée, comprend trois niveaux : Prioritaire, Recommandé et Modéré.

L’ensemble permet de calculer un score. Le calcul tient compte des niveaux, puisque chacun possède un facteur de pondération : 1,5 pour Prioritaire, 1,25 pour Recommandé et 1 pour Modéré. L’obtention du score se calcule en divisant les points obtenus par le nombre maximal de points, puis en multipliant le résultat par 100.

Comme le reste, ces niveaux se présentent comme très généralistes. Le document précise même qu’il s’agit d’informations données « à titre indicatif », puisque la difficulté d’implémentation peut fortement varier d’un service à l’autre et selon le contexte.

Il fallait cependant que le référentiel tienne compte de cette mise en œuvre et donne des pistes.

Des critères nombreux et variés

Le référentiel propose une liste de 78 critères répartis entre les trois niveaux de priorité. Chaque élément est accompagné d’un degré de difficulté : Faible, Modéré ou Fort.

Les 30 premiers éléments sont prioritaires et sont mis en avant car les plus à même d’avoir un impact significatif sur la sobriété numérique. Certains sont directement liés à la stratégie et posent la question de l’intérêt même du service, surtout après pondération de ses impacts environnementaux. Certaines modifications sur un service peuvent en effet amener à revoir intégralement son fonctionnement, voire sa conception. Des objectifs ont-ils été fixés pour réduire ces impacts ? A-t-il été conçu avec des technologies ouvertes et interopérables ?

Une partie des éléments a trait à la conception-même du produit et semblent « évidents », dans la mesure où ces questions interviennent presque à chaque fois : lister les profils matériels pouvant servir à accéder au service, la possible utilisation sur d’anciens modèles de terminaux ou versions d’un système d’exploitation, le type de maintenance prévue, etc. Ou, pour deux éléments classés « Fort », une garantie de démarche de réduction des impacts environnementaux imposée aux fournisseurs et la prise en compte des impacts dans la sélection des services tiers.

Après la stratégie et les spécifications, on trouve six autres rubriques : architecture, expérience et interface utilisateur (UX et UI), contenus, frontend, backend, hébergement et algorithmie. Selon le niveau de priorité, certaines rubriques sont d’ailleurs vides. Par exemple, il n’y a rien pour le frontend en « Prioritaire », aucun critère « Modéré » pour l’algorithmie, etc.

Certaines rubriques attirent également l’attention au regard de l’actualité. L’algorithmie, justement, parce qu’elle renvoie directement à l’IA. Les questions posées par le référentiel ne sont donc pas étonnantes : une phase d’entrainement est-elle réellement nécessaire ? Le niveau de complexité est-il minimisé et proportionnel à l’usage effectif ? La quantité de données a-t-elle été limitée au strict nécessaire ? La stratégie d’inférence est-elle optimisée ?

L’hébergement est également un point important. Les questions posées sont classiques et portent sur la mise en place d’une démarche de réduction de l’empreinte, la gestion durable des équipements ou encore d’un PUE minimisé.

Autre exemple, la vidéo. Le référentiel revient sur l’idée courante d’une adaptation de la qualité selon l’usage, avec mise en avant d’un mode sobriété qui enverrait par exemple du 480p sur smartphone. Les questions posées concernent aussi bien la qualité que la technologie de compression utilisée, la capacité à moduler le flux selon l’appareil visé, etc.

Autant de fiches pratiques que de critères

Dans le document, on remarque vite que la partie la plus intéressante se trouve dans les annexes. Ce sont elles qui contiennent les questions et surtout les fiches pratiques qui les accompagnent.

Ces fiches sont essentielles, car elles détaillent ce qui se cache derrière chaque question : les enjeux, la mise en œuvre, les moyens de tests et de contrôle et une rubrique pour « aller plus loin ».

Pour reprendre le cas de la vidéo, la fiche technique commence par rappeler qu’elle représentait 66 % du trafic internet en 2023 et rappelle les principaux objectifs. Les codecs AV1, VP9 et HEVC sont mis en avant pour leur efficacité, mais peuvent entrainer une consommation supplémentaire d’énergie si leur décodage n’est pas pris matériellement en charge par la puce, le CPU devant alors s’en occuper.

Côté mise en œuvre, le codage à débit variable doit être préféré, selon la fiche, éventuellement avec un plafond maximal pour que « les contenus plus complexes restent lisibles avec une connexion internet à bas débit ». On retrouve bien sûr l’idée d’adaptation de la qualité visuelle en fonction du support, quitte à tenir compte de la présence de texte pour augmenter le début, afin d’en préserver la netteté.

Viennent ensuite plusieurs points à valider afin de remplir le critère : le débit variable, la présence des vidéos dans une définition inférieure à 720p, l’utilisation de codecs accélérés matériellement par la majorité du parc existant et le résumé de tous les choix techniques dans la déclaration d’écoconception.

Il s’agit bien sûr d’un exemple, mais toutes les fiches sont bâties sur le même modèle. Elles sont plus techniques et concrètes que le reste du document et en constituent d’ailleurs la vraie matière.

Derrière l’évidente volonté, les vœux pieux ?

Le document donne de très nombreuses pistes et propulse sous les feux de la rampe une thématique destinée à prendre de l’ampleur. Ne serait-ce que parce que le coût de l’énergie, même si actuellement en baisse, ne reviendra sans doute plus aux anciens niveaux. L’écologie fonctionne mieux quand elle signifie une baisse de la facture. Mais l’énergie n’est qu’une partie du problème, puisque la consommation des matériaux tient également une bonne place dans le référentiel.

On en revient ainsi à l’idée première : n’utiliser que ce qui est réellement nécessaire. Et là, certaines idées peuvent devenir des vœux pieux, à moins de déclencher un sursaut mondial et d’accorder l’ensemble des violons. Reprenons l’exemple des services qui devraient être disponibles sur les anciens systèmes d’exploitation et appareils. Ce seul point ouvre une cascade d’autres.

Il faudrait en effet décider les constructeurs de terminaux à entretenir leurs produits sur une durée bien plus longue qu’actuellement. Si Apple fournit en général au moins cinq ans de mises à jour à ses iPhone, le monde des smartphones Android ressemble plus à une jungle. On espère d’ailleurs que la décision de Google de fournir sept ans de mises à jour majeures (et donc au moins autant de mineures) à toute sa gamme Pixel 8 fera tache d’huile dans l’industrie. Moins de modèles, plus de support ?

Une équation loin d’être évidente, car la plupart des fournisseurs de terminaux et de services sont étrangers. On voit mal comment la France pourrait par exemple convaincre un Samsung de multiplier par deux ou trois la durée de support de ses appareils mobiles. Un règlement européen entrera en vigueur en juin 2025, justement sur les « exigences en matière d’écoconception — smartphones, téléphones portables autres que smartphones, téléphones sans fil et tablettes ». Il est notamment question de proposer « des mises à jour du système d’exploitation pendant au moins cinq ans après la mise sur le marché du produit ».

Autre problème potentiel, certains services ne peuvent plus fonctionner avec d’anciennes versions de systèmes d’exploitation ou de navigateurs pour des raisons de sécurité. C’est le cas des applications bancaires, qui tolèrent mal par exemple les appareils Android rootés.

Même constat pour les mesures liées à la captation d’attention. Comment motiver Meta à revoir le fonctionnement de ses murs de contenus infinis, alors qu’ils sont l’essence de services tels que Facebook et Instagram ?

Un premier pas

Le référentiel a le mérite de défricher le terrain de l’écoconception. Il n’est pas contraignant et n’aurait pas pu l’être, car valable uniquement pour la France.

Le maître-mot du RGSEN est « sobriété » et, à lui seul, permet d’ancrer un peu la réflexion de l’écoconception dans les consciences. Il entraine des questions comme « A-t-on besoin de ce service ? » ou « Cet usage est-il raisonné ? Approprié ? ».

Le chemin à parcourir est cependant encore bien long. On le sait depuis longtemps, la consommation du numérique est surtout drainée par la fabrication des appareils. Une part importante de l’économie est fondée sur le renouvellement régulier des produits, longtemps considérés comme (presque) jetables.

Le document rappelle cependant que si le numérique ne représente actuellement que 2,5 % de l’empreinte carbone en France, ses usages sont amenés à exploser d’ici 2030. L’ADEME estime ainsi que le trafic sera multiplié par 6 et que le nombre d’appareils bondira de 65 %, porté par l’explosion des objets connectés. L’empreinte carbone du numérique augmenterait alors de 45 % et la consommation de ressources abiotiques (métaux et minéraux) de 14 %.

Comme le dit le référentiel lui-même, il ne s’agit pas de révolutionner l’industrie du numérique, mais d’établir « une base de connaissances et recommandations commune permettant d’accompagner les démarches volontaires d’écoconception ». Dans cette optique, il se veut un « outil d’action et de sensibilisation ».

De la même manière que les rapports de l’Arcep sur la consommation du numérique s’enrichissent à chaque édition, il sera intéressant de suivre l’évolution du référentiel.

Nous reviendrons dans un deuxième temps sur certains aspects du RGSEN, notamment ses limites et défis.

☕️ GTA VI : Rockstar resserre la date de sortie à l’automne 2025

17 mai 2024 à 06:08
GTA VI

En décembre dernier, l’éditeur de jeux vidéo publiait la première bande-annonce d’un des jeux les plus attendus : Grand Theft Auto VI. Le jeu était alors prévu pour 2025, sans plus de détails.

Au détour de ses résultats financiers pour l’année 2024, Take-Two Interactive Software ajuste son calendrier, mais pas pour annoncer du retard pour une fois. « Nos perspectives reflètent un rétrécissement de la fenêtre de lancement précédemment établie par Rockstar Games de l’année 2025 à l’automne 2025 pour Grand Theft Auto VI », explique Strauss Zelnick, CEO de Take-Two.

L’entreprise en profite pour faire le bilan de GTA V : « Les ventes ont dépassé nos prévisions et, à ce jour, le titre s’est vendu à environ 200 millions d’unités dans le monde ».

☕️ L’Europe ouvre une seconde procédure formelle contre Meta

16 mai 2024 à 13:56

Deux semaines après avoir ouvert une procédure formelle contre Meta sur la question des publicités trompeuses et de la désinformation, la Commission européenne double la mise avec la protection des mineurs sur Facebook et Instagram. Cela s’inscrit dans le cadre du DSA (Digital Services Act).

« Nous ne sommes pas convaincus que Meta ait fait suffisamment pour se conformer aux obligations légales sur les services numériques afin de limiter les risques d’effets négatifs sur la santé physique et mentale des jeunes Européens sur ses plateformes Facebook et Instagram », explique Thierry Breton.

La Commission explique en effet être préoccupée par le fait que « les systèmes de Facebook et d’Instagram, y compris leurs algorithmes, puissent stimuler des dépendances comportementales chez les enfants et créer des effets “terrier de lapin” ».

Cette notion renvoie à l’enfermement des jeunes utilisateurs sur une application, pris dans une sombre spirale de contenus nocifs. En février, ce terme avait déjà été utilisé par la Commission lors de l’annonce d’une procédure formelle à l’encontre de TikTok.

En outre, la Commission européenne est également préoccupée par les méthodes d’assurance et de vérification de l’âge mises en place par Meta.

S’ils sont prouvés, « ces manquements constitueraient des violations des articles 28, 34 et 35 de la législation sur les services numériques », explique la Commission. Il faudra attendre le résultat de l’enquête approfondie pour savoir ce qu’il en est.

Sur l’autre versant des règlements européens, le DMA, la Commission européenne a lancé des procédures d’infractions contre plusieurs géants du Net, dont Meta.

❌
❌