Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 23 septembre 2024Flux principal

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

23 septembre 2024 à 07:07
Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

23 septembre 2024 à 07:07
Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

À partir d’avant-hierFlux principal

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

☕️ Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

19 septembre 2024 à 14:16
Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

Comme l’explique la revue Nature, le CERN se prépare à expulser les chercheurs affiliés à des institutions russes le 30 novembre. Pour continuer à travailler avec le centre de recherche européen, ces scientifiques doivent trouver une affiliation qui ne soit pas en lien avec la Russie.

L’institution de recherche européenne avait déjà décidé, dès mars 2022 de suspendre le statut d’observateur de la Russie suite à l’invasion de l’Ukraine. Mais des accords de coopération étaient encore en cours. Le CERN avait déjà prévenu qu’il ne les renouvellerait pas.

Mais Nature explique que la relation du CERN avec la Russie est plus compliquée puisque l’organisation européenne « continuera de travailler avec des scientifiques basés en Russie dans le cadre d’un accord avec le Joint Institute for Nuclear Research (JINR), un centre intergouvernemental situé à Dubna, près de Moscou ». Et cet accord n’est pas le même que celui signé avec la Russie. La revue scientifique raconte que cette décision de continuer de travailler avec le JINR et donc de respecter la date de fin de cet accord divise les chercheurs de l’institution.

Pour le chercheur Borys Grynyov, qui représente l’Ukraine au conseil du CERN, c’est une « grave erreur ». Mais la revue rappelle que le CERN est aussi un symbole de coopération scientifique important, puisqu’il a commencé à collaborer avec l’URSS en 1955 et que de nombreux chercheurs russes ont utilisé le Grand collisionneur de hadrons (LHC).

☕️ Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

19 septembre 2024 à 14:16
Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

Comme l’explique la revue Nature, le CERN se prépare à expulser les chercheurs affiliés à des institutions russes le 30 novembre. Pour continuer à travailler avec le centre de recherche européen, ces scientifiques doivent trouver une affiliation qui ne soit pas en lien avec la Russie.

L’institution de recherche européenne avait déjà décidé, dès mars 2022 de suspendre le statut d’observateur de la Russie suite à l’invasion de l’Ukraine. Mais des accords de coopération étaient encore en cours. Le CERN avait déjà prévenu qu’il ne les renouvellerait pas.

Mais Nature explique que la relation du CERN avec la Russie est plus compliquée puisque l’organisation européenne « continuera de travailler avec des scientifiques basés en Russie dans le cadre d’un accord avec le Joint Institute for Nuclear Research (JINR), un centre intergouvernemental situé à Dubna, près de Moscou ». Et cet accord n’est pas le même que celui signé avec la Russie. La revue scientifique raconte que cette décision de continuer de travailler avec le JINR et donc de respecter la date de fin de cet accord divise les chercheurs de l’institution.

Pour le chercheur Borys Grynyov, qui représente l’Ukraine au conseil du CERN, c’est une « grave erreur ». Mais la revue rappelle que le CERN est aussi un symbole de coopération scientifique important, puisqu’il a commencé à collaborer avec l’URSS en 1955 et que de nombreux chercheurs russes ont utilisé le Grand collisionneur de hadrons (LHC).

Les vidéos TikTok ont de réelles conséquences sur l’image qu’ont les femmes d’elles-mêmes

19 septembre 2024 à 12:41
TikTok Mirror
Les vidéos TikTok ont de réelles conséquences sur l’image qu’ont les femmes d’elles-mêmes

Des chercheuses australiennes ont montré récemment dans un article scientifique que les femmes exposées aux vidéos de TikTok perdent de l’estime pour leur propre corps. Elles expliquent que les vidéos du mouvement pro-anorexie profitent particulièrement de l’algorithme de recommandation « Pour vous » de l’application.

TikTok est souvent critiqué à propos de la toxicité des contenus poussés par ses algorithmes. Les chercheuses de l’Université australienne de Charles Sturt Madison Blackburn et Rachel Hogg ont voulu étudier les conséquences d’une exposition aux vidéos du mouvement « pro-ana » (mouvement qui promeut des régimes extrêmes, l’exercice physique excessif et incite à s’imposer des troubles du comportement alimentaire) qui circulent allègrement sur le réseau social de ByteDance.

Leur article, publié début août dans la revue scientifique PLOS One, conclut à un effet réel des vidéos « pro-ana » sur l’estime des femmes pour leurs propres corps et l’internalisation des standards de beauté. Mais il constate aussi, dans une moindre mesure, que les femmes exposées aux autres vidéos publiées sur TikTok subissent aussi ces problèmes.

TikTok, un réseau où se développent plus facilement les contenus « pro-ana »

Le mouvement « pro-ana », qui s’est développé dans les années 2000, n’a pas eu besoin de l’existence de TikTok pour connaître un certain succès, mais la plateforme de vidéos est maintenant une de ses cibles particulières. « Contrairement à d’autres plateformes de médias sociaux qui présentent implicitement des idéaux corporels, TikTok contient des contenus explicites sur les troubles de l’alimentation », expliquent les chercheuses. Shannon Herrick, Laura Hallward et Lindsay Duncan, trois chercheuses canadiennes, faisaient déjà ce constat fin 2020.

Les chercheuses pointent une autre particularité de TikTok : la page « Pour Vous » est encore plus mise en avant sur l’application de ByteDance et elle met en avant des contenus de tout un chacun. « La page d’exploration d’Instagram continue de mettre l’accent sur la culture d’influence établie et de promouvoir les comptes de personnalités publiques ou d’influenceurs très suivis », expliquent-elles.

Mais elles ajoutent qu’ « à l’inverse, l’algorithme unique de TikTok rend la découverte de contenu équitable, car le contenu de n’importe quel utilisateur a le potentiel d’atteindre un vaste public, indépendamment du nombre de followers ou du statut de célébrité ». Ce qui permet à des comptes « pro-ana » d’influencer beaucoup d’utilisateurs sans être très suivis, même si la plateforme fait des efforts pour censurer les contenus de ce genre.

Exposées pendant 7 à 8 minutes

Elles ont étudié le comportement de 273 utilisatrices de TikTok âgées de 18 à 28 ans (principalement australiennes) réparties en deux : un groupe expérimental et un groupe témoin.

Les membres des deux groupes ont été exposées à un tunnel de vidéos TikTok de 7 à 8 minutes. Les femmes du groupe expérimental ont visionné une compilation de vidéos TikTok contenant des messages explicites sur les troubles de l’alimentation, tels que des jeunes femmes restreignant leur alimentation, faisant de l’humour sur leur comportement alimentaire désordonné, se privant de nourriture et donnant des conseils pour perdre du poids, comme manger des glaçons et mâcher du chewing-gum pour calmer la faim. Les membres du groupe témoin, elles, ont visionné des vidéos TikTok « normales ».

Un effet significatif, même pour le groupe témoin

Résultat, les femmes du groupe expérimental se sont déclarées nettement moins satisfaites de leur image corporelle après avoir été exposées au contenu TikTok pro-ana. Ces effets sont aussi visibles et statistiquement significatifs lorsqu’on compare ce ressenti à celui des femmes qui ont regardé le contenu de contrôle. Mais, comme le soulignent les chercheuses, « il est intéressant de noter que les femmes du groupe de contrôle ont également signalé une diminution statistiquement significative de leur satisfaction à l’égard de leur image corporelle après avoir regardé le contenu neutre de TikTok ».

Les chercheuses expliquent que, sur TikTok les vidéos sont généralement cadrées de manière à ce que le corps entier du sujet soit visible contrairement à ce qu’on voit sur Instagram, en particulier dans les vidéos de danse et dans les contenus #GymTok.

Elles font l’hypothèse que TikTok peut fournir plus de stimulus liés au corps « même lorsque l’intention du contenu n’est pas liée à l’image du corps ou à la #fitspiration (contenus liés au fitness). Elles ajoutent qu’ « il est important de noter que l’algorithme de TikTok fonctionne de telle manière que les personnes qui recherchent activement des contenus positifs pour le corps peuvent également être exposés à des contenus néfastes liés au corps, tels que le body checking, un type de contenu compétitif et d’autosurveillance dans lequel les utilisateurs sont encouragés à tester leur poids en essayant de boire dans un verre d’eau pendant que leur bras entoure la taille d’un autre utilisateur ».

Interrogée par le média PsyPost, Rachel Hogg a déclaré : « j’ai été surprise de constater que la « dose » de moins de 10 minutes de visionnage de contenus TikTok de comportements désordonnés était suffisante pour avoir un effet ».

La chercheuse explique aussi que l’étude excluait toute personne ayant reçu un diagnostic de trouble alimentaire passé ou présent, il ne faut donc pas en tenir compte pour tirer des conclusions sur des populations cliniques. Les autrices de l’étude sont aussi bien conscientes que leur travail n’a évalué que l’impact à court terme des vidéos TikTok en ne mesurant que les changements dans la perception par les femmes de leur corps et l’intériorisation des normes de beauté qu’immédiatement après le visionnage des vidéos.

Les vidéos TikTok ont de réelles conséquences sur l’image qu’ont les femmes d’elles-mêmes

19 septembre 2024 à 12:41
TikTok Mirror
Les vidéos TikTok ont de réelles conséquences sur l’image qu’ont les femmes d’elles-mêmes

Des chercheuses australiennes ont montré récemment dans un article scientifique que les femmes exposées aux vidéos de TikTok perdent de l’estime pour leur propre corps. Elles expliquent que les vidéos du mouvement pro-anorexie profitent particulièrement de l’algorithme de recommandation « Pour vous » de l’application.

TikTok est souvent critiqué à propos de la toxicité des contenus poussés par ses algorithmes. Les chercheuses de l’Université australienne de Charles Sturt Madison Blackburn et Rachel Hogg ont voulu étudier les conséquences d’une exposition aux vidéos du mouvement « pro-ana » (mouvement qui promeut des régimes extrêmes, l’exercice physique excessif et incite à s’imposer des troubles du comportement alimentaire) qui circulent allègrement sur le réseau social de ByteDance.

Leur article, publié début août dans la revue scientifique PLOS One, conclut à un effet réel des vidéos « pro-ana » sur l’estime des femmes pour leurs propres corps et l’internalisation des standards de beauté. Mais il constate aussi, dans une moindre mesure, que les femmes exposées aux autres vidéos publiées sur TikTok subissent aussi ces problèmes.

TikTok, un réseau où se développent plus facilement les contenus « pro-ana »

Le mouvement « pro-ana », qui s’est développé dans les années 2000, n’a pas eu besoin de l’existence de TikTok pour connaître un certain succès, mais la plateforme de vidéos est maintenant une de ses cibles particulières. « Contrairement à d’autres plateformes de médias sociaux qui présentent implicitement des idéaux corporels, TikTok contient des contenus explicites sur les troubles de l’alimentation », expliquent les chercheuses. Shannon Herrick, Laura Hallward et Lindsay Duncan, trois chercheuses canadiennes, faisaient déjà ce constat fin 2020.

Les chercheuses pointent une autre particularité de TikTok : la page « Pour Vous » est encore plus mise en avant sur l’application de ByteDance et elle met en avant des contenus de tout un chacun. « La page d’exploration d’Instagram continue de mettre l’accent sur la culture d’influence établie et de promouvoir les comptes de personnalités publiques ou d’influenceurs très suivis », expliquent-elles.

Mais elles ajoutent qu’ « à l’inverse, l’algorithme unique de TikTok rend la découverte de contenu équitable, car le contenu de n’importe quel utilisateur a le potentiel d’atteindre un vaste public, indépendamment du nombre de followers ou du statut de célébrité ». Ce qui permet à des comptes « pro-ana » d’influencer beaucoup d’utilisateurs sans être très suivis, même si la plateforme fait des efforts pour censurer les contenus de ce genre.

Exposées pendant 7 à 8 minutes

Elles ont étudié le comportement de 273 utilisatrices de TikTok âgées de 18 à 28 ans (principalement australiennes) réparties en deux : un groupe expérimental et un groupe témoin.

Les membres des deux groupes ont été exposées à un tunnel de vidéos TikTok de 7 à 8 minutes. Les femmes du groupe expérimental ont visionné une compilation de vidéos TikTok contenant des messages explicites sur les troubles de l’alimentation, tels que des jeunes femmes restreignant leur alimentation, faisant de l’humour sur leur comportement alimentaire désordonné, se privant de nourriture et donnant des conseils pour perdre du poids, comme manger des glaçons et mâcher du chewing-gum pour calmer la faim. Les membres du groupe témoin, elles, ont visionné des vidéos TikTok « normales ».

Un effet significatif, même pour le groupe témoin

Résultat, les femmes du groupe expérimental se sont déclarées nettement moins satisfaites de leur image corporelle après avoir été exposées au contenu TikTok pro-ana. Ces effets sont aussi visibles et statistiquement significatifs lorsqu’on compare ce ressenti à celui des femmes qui ont regardé le contenu de contrôle. Mais, comme le soulignent les chercheuses, « il est intéressant de noter que les femmes du groupe de contrôle ont également signalé une diminution statistiquement significative de leur satisfaction à l’égard de leur image corporelle après avoir regardé le contenu neutre de TikTok ».

Les chercheuses expliquent que, sur TikTok les vidéos sont généralement cadrées de manière à ce que le corps entier du sujet soit visible contrairement à ce qu’on voit sur Instagram, en particulier dans les vidéos de danse et dans les contenus #GymTok.

Elles font l’hypothèse que TikTok peut fournir plus de stimulus liés au corps « même lorsque l’intention du contenu n’est pas liée à l’image du corps ou à la #fitspiration (contenus liés au fitness). Elles ajoutent qu’ « il est important de noter que l’algorithme de TikTok fonctionne de telle manière que les personnes qui recherchent activement des contenus positifs pour le corps peuvent également être exposés à des contenus néfastes liés au corps, tels que le body checking, un type de contenu compétitif et d’autosurveillance dans lequel les utilisateurs sont encouragés à tester leur poids en essayant de boire dans un verre d’eau pendant que leur bras entoure la taille d’un autre utilisateur ».

Interrogée par le média PsyPost, Rachel Hogg a déclaré : « j’ai été surprise de constater que la « dose » de moins de 10 minutes de visionnage de contenus TikTok de comportements désordonnés était suffisante pour avoir un effet ».

La chercheuse explique aussi que l’étude excluait toute personne ayant reçu un diagnostic de trouble alimentaire passé ou présent, il ne faut donc pas en tenir compte pour tirer des conclusions sur des populations cliniques. Les autrices de l’étude sont aussi bien conscientes que leur travail n’a évalué que l’impact à court terme des vidéos TikTok en ne mesurant que les changements dans la perception par les femmes de leur corps et l’intériorisation des normes de beauté qu’immédiatement après le visionnage des vidéos.

☕️ Qualcomm : l’amende pour abus de position dominante (presque) totalement confirmée

18 septembre 2024 à 15:29
Qualcomm : l’amende pour abus de position dominante (presque) totalement confirmée

Dans un communiqué de presse (PDF), la Cour de justice de l’Union européenne explique que le Tribunal « confirme largement l’amende infligée à Qualcomm » par la Commission européenne en 2019. Celle-ci lui reprochait d’avoir abusé de sa position dominante en vendant ses produits à perte.

À l’époque, la commissaire européenne à la Concurrence, Margrethe Vestager, avait réagi en expliquant : « Qualcomm a vendu ces produits à un prix inférieur aux coûts (de fabrication) à de gros clients dans le but d’éliminer un concurrent ».

L’enquête s’était concentrée sur le marché des puces 3G (UMTS). L’Europe reprochait à Qualcomm de vendre à deux de ses principaux clients (Huawei et ZTE) des puces « à des prix inférieurs à ses coûts, dans l’objectif d’éliminer Icera [une ancienne filiale de NVIDIA, rachetée en 2011, ndlr], sa principale concurrente à l’époque ».

Il rejette, de fait, tous les arguments de l’entreprise contre la décision de la Commission. Le tribunal ne reproche à la Commission que de s’être écartée (un peu mais sans justification) de la méthode de calcul du montant de l’amende prescrite par ses lignes directrices de 2006.

Le Tribunal réajuste l’amende qui passe de 242 042 000 euros à 238 732 659 euros.

Comme le rappelle la CJUE, « un pourvoi, limité aux questions de droit, peut être formé, devant la Cour, à l’encontre de la décision du Tribunal, dans un délai de deux mois et dix jours à compter de sa notification ».

☕️ Qualcomm : l’amende pour abus de position dominante (presque) totalement confirmée

18 septembre 2024 à 15:29
Qualcomm : l’amende pour abus de position dominante (presque) totalement confirmée

Dans un communiqué de presse (PDF), la Cour de justice de l’Union européenne explique que le Tribunal « confirme largement l’amende infligée à Qualcomm » par la Commission européenne en 2019. Celle-ci lui reprochait d’avoir abusé de sa position dominante en vendant ses produits à perte.

À l’époque, la commissaire européenne à la Concurrence, Margrethe Vestager, avait réagi en expliquant : « Qualcomm a vendu ces produits à un prix inférieur aux coûts (de fabrication) à de gros clients dans le but d’éliminer un concurrent ».

L’enquête s’était concentrée sur le marché des puces 3G (UMTS). L’Europe reprochait à Qualcomm de vendre à deux de ses principaux clients (Huawei et ZTE) des puces « à des prix inférieurs à ses coûts, dans l’objectif d’éliminer Icera [une ancienne filiale de NVIDIA, rachetée en 2011, ndlr], sa principale concurrente à l’époque ».

Il rejette, de fait, tous les arguments de l’entreprise contre la décision de la Commission. Le tribunal ne reproche à la Commission que de s’être écartée (un peu mais sans justification) de la méthode de calcul du montant de l’amende prescrite par ses lignes directrices de 2006.

Le Tribunal réajuste l’amende qui passe de 242 042 000 euros à 238 732 659 euros.

Comme le rappelle la CJUE, « un pourvoi, limité aux questions de droit, peut être formé, devant la Cour, à l’encontre de la décision du Tribunal, dans un délai de deux mois et dix jours à compter de sa notification ».

Google AdSense : le Tribunal de l’UE annule l’amende de 1,49 milliard d’euros

18 septembre 2024 à 11:08
10 ans d'enquête et un oubli
Google AdSense : le Tribunal de l’UE annule l’amende de 1,49 milliard d’euros

En 2019, La Commission européenne infligeait une amende de 1,49 milliard d’euros d’amende pour pratiques abusives. Le Tribunal de la Cour de justice de l’Union européenne vient d’annuler cette décision. Le Tribunal considère que la Commission s’est appuyée à tort sur le cumul de durées d’accords de services sans vérifier qu’il était impossible de s’en défaire.

Lancée en 2010, l’enquête sur les accords de services d’Adsense for Search avait pourtant duré neuf ans. En parallèle de l’enquête, plusieurs entreprises comme Microsoft, Deutsche Telekom ou encore Expedia ont déposé plainte contre Google. La Cour de justice de l’Union européenne vient d’annuler la décision de la Commission concernant cette enquête.

Pour la Commission, des accords imposés grâce à une position dominante

La conclusion de la Commission était que Google avait imposé « un certain nombre de clauses restrictives dans les contrats passés avec des sites web tiers, empêchant ainsi ses concurrents de placer leurs publicités contextuelles sur ces sites ». Et ceci pendant plus de 10 ans, affirmait la commissaire européenne Margrethe Vestager. Mais la Cour de justice de l’Union européenne (CJUE) considère que la Commission a pris un raccourci dans ses conclusions et a annulé l’amende.

L’entreprise avait été officiellement prévenue en 2016 des reproches de la Commission : Google imposait des règles d’exclusivité et des contraintes d’affichage et de volume à des partenaires directs via la signature d’accords en s’appuyant sur sa position dominante sur le marché des intermédiaires publicitaires en Europe (80 % de part de marché en Europe).

La Commission avait fixé l’amende à 1,49 milliard d’euros alors que certaines rumeurs évoquaient à l’époque un montant record de 12 milliards d’euros. Mais Google n’était pas pour autant satisfaite et a porté l’affaire devant la Cour de justice de l’Union européenne.

Une prise en compte erronée de la durée cumulée des accords

Le Tribunal de la CJUE confirme la plupart des appréciations de la Commission, mais, comme elle l’explique dans son résumé, elle considère que son analyse est « entachée d’erreurs » sur deux points.

Le principal problème pointé est le fait que la Commission a cumulé la durée des « accords de services Google » (ASG) négociés entre Google et les entreprises voulant utiliser AdSense for Search avec des clauses particulières, sans prendre en compte « la durée de chacun desdits ASG, pris individuellement, ni de la durée de chacune de leurs éventuelles prolongations ».

En conséquence, la Commission n’a pas pris en considération les « conditions réelles et [les] modalités selon lesquelles ces prolongations avaient été convenues ni de la teneur des clauses prévoyant des droits de résiliation unilatérale, dont disposaient certains des partenaires directs tous sites, ou des conditions dans lesquelles ces droits pouvaient être exercés ».

La Cour de justice de l’Union européenne remarque que dans ces conditions, la Commission « ne pouvait […] pas exclure que ces partenaires directs disposaient de la faculté de s’approvisionner auprès d’intermédiaires concurrents de Google au terme de chacun de leurs ASG, ni, partant, constater que lesdits partenaires directs avaient été obligés de s’approvisionner auprès de Google pour la totalité ou une part considérable de leurs besoins pendant l’intégralité de la durée cumulée de leurs ASG ».

Des erreurs entachant l’ensemble de la décision

De façon plus anecdotique, la CJUE remarque que la Commission n’a pas identifié, pour la seule année 2016, la part du marché de l’intermédiation publicitaire liée aux recherches en ligne couverte par la clause d’exclusivité contenue dans les ASG conclus par les partenaires directs tous sites. Rappelons que c’est lors de cette année-là que la Commission a bouclé son enquête préliminaire qu’elle a envoyée à Google.

Pour la CJUE ces différentes erreurs « entachent l’ensemble des restrictions identifiées par la Commission, de sorte qu’elle n’a pas démontré, à suffisance de droit, que les clauses litigieuses avaient eu la capacité de produire l’effet d’éviction constaté dans la décision attaquée ».

Comme le rappelle la Cour de Justice de l’Union européenne dans son communiqué (PDF), « Un pourvoi, limité aux questions de droit, peut être formé, devant la Cour, à l’encontre de la décision du Tribunal, dans un délai de deux mois et dix jours à compter de sa notification ».

Google AdSense : le Tribunal de l’UE annule l’amende de 1,49 milliard d’euros

18 septembre 2024 à 11:08
10 ans d'enquête et un oubli
Google AdSense : le Tribunal de l’UE annule l’amende de 1,49 milliard d’euros

En 2019, La Commission européenne infligeait une amende de 1,49 milliard d’euros d’amende pour pratiques abusives. Le Tribunal de la Cour de justice de l’Union européenne vient d’annuler cette décision. Le Tribunal considère que la Commission s’est appuyée à tort sur le cumul de durées d’accords de services sans vérifier qu’il était impossible de s’en défaire.

Lancée en 2010, l’enquête sur les accords de services d’Adsense for Search avait pourtant duré neuf ans. En parallèle de l’enquête, plusieurs entreprises comme Microsoft, Deutsche Telekom ou encore Expedia ont déposé plainte contre Google. La Cour de justice de l’Union européenne vient d’annuler la décision de la Commission concernant cette enquête.

Pour la Commission, des accords imposés grâce à une position dominante

La conclusion de la Commission était que Google avait imposé « un certain nombre de clauses restrictives dans les contrats passés avec des sites web tiers, empêchant ainsi ses concurrents de placer leurs publicités contextuelles sur ces sites ». Et ceci pendant plus de 10 ans, affirmait la commissaire européenne Margrethe Vestager. Mais la Cour de justice de l’Union européenne (CJUE) considère que la Commission a pris un raccourci dans ses conclusions et a annulé l’amende.

L’entreprise avait été officiellement prévenue en 2016 des reproches de la Commission : Google imposait des règles d’exclusivité et des contraintes d’affichage et de volume à des partenaires directs via la signature d’accords en s’appuyant sur sa position dominante sur le marché des intermédiaires publicitaires en Europe (80 % de part de marché en Europe).

La Commission avait fixé l’amende à 1,49 milliard d’euros alors que certaines rumeurs évoquaient à l’époque un montant record de 12 milliards d’euros. Mais Google n’était pas pour autant satisfaite et a porté l’affaire devant la Cour de justice de l’Union européenne.

Une prise en compte erronée de la durée cumulée des accords

Le Tribunal de la CJUE confirme la plupart des appréciations de la Commission, mais, comme elle l’explique dans son résumé, elle considère que son analyse est « entachée d’erreurs » sur deux points.

Le principal problème pointé est le fait que la Commission a cumulé la durée des « accords de services Google » (ASG) négociés entre Google et les entreprises voulant utiliser AdSense for Search avec des clauses particulières, sans prendre en compte « la durée de chacun desdits ASG, pris individuellement, ni de la durée de chacune de leurs éventuelles prolongations ».

En conséquence, la Commission n’a pas pris en considération les « conditions réelles et [les] modalités selon lesquelles ces prolongations avaient été convenues ni de la teneur des clauses prévoyant des droits de résiliation unilatérale, dont disposaient certains des partenaires directs tous sites, ou des conditions dans lesquelles ces droits pouvaient être exercés ».

La Cour de justice de l’Union européenne remarque que dans ces conditions, la Commission « ne pouvait […] pas exclure que ces partenaires directs disposaient de la faculté de s’approvisionner auprès d’intermédiaires concurrents de Google au terme de chacun de leurs ASG, ni, partant, constater que lesdits partenaires directs avaient été obligés de s’approvisionner auprès de Google pour la totalité ou une part considérable de leurs besoins pendant l’intégralité de la durée cumulée de leurs ASG ».

Des erreurs entachant l’ensemble de la décision

De façon plus anecdotique, la CJUE remarque que la Commission n’a pas identifié, pour la seule année 2016, la part du marché de l’intermédiation publicitaire liée aux recherches en ligne couverte par la clause d’exclusivité contenue dans les ASG conclus par les partenaires directs tous sites. Rappelons que c’est lors de cette année-là que la Commission a bouclé son enquête préliminaire qu’elle a envoyée à Google.

Pour la CJUE ces différentes erreurs « entachent l’ensemble des restrictions identifiées par la Commission, de sorte qu’elle n’a pas démontré, à suffisance de droit, que les clauses litigieuses avaient eu la capacité de produire l’effet d’éviction constaté dans la décision attaquée ».

Comme le rappelle la Cour de Justice de l’Union européenne dans son communiqué (PDF), « Un pourvoi, limité aux questions de droit, peut être formé, devant la Cour, à l’encontre de la décision du Tribunal, dans un délai de deux mois et dix jours à compter de sa notification ».

☕️ Mozilla abandonne son instance Mastodon

18 septembre 2024 à 07:15
Mozilla abandonne son instance Mastodon

Mozilla a annoncé l’arrêt de son instance Mastodon Mozilla.social pour le 17 décembre prochain.

Si la fondation avait mis le pied doucement dans les réseaux sociaux en mai 2023 en lançant son instance, l’expérience semble ne pas l’avoir convaincue. Mozilla.social n’avait pas été ouverte à un large public et est restée, tout au long de sa courte existence, en beta privée accessible après inscription sur liste d’attente.

Comme le permet Mastodon, Mozilla rappelle aux utilisateurs ayant un compte sur Mozilla.social qu’ils peuvent télécharger leurs données et migrer leur compte vers une autre instance avant la fermeture.

☕️ Mozilla abandonne son instance Mastodon

18 septembre 2024 à 07:15
Mozilla abandonne son instance Mastodon

Mozilla a annoncé l’arrêt de son instance Mastodon Mozilla.social pour le 17 décembre prochain.

Si la fondation avait mis le pied doucement dans les réseaux sociaux en mai 2023 en lançant son instance, l’expérience semble ne pas l’avoir convaincue. Mozilla.social n’avait pas été ouverte à un large public et est restée, tout au long de sa courte existence, en beta privée accessible après inscription sur liste d’attente.

Comme le permet Mastodon, Mozilla rappelle aux utilisateurs ayant un compte sur Mozilla.social qu’ils peuvent télécharger leurs données et migrer leur compte vers une autre instance avant la fermeture.

Linus Torvalds, Rust et le futur du noyau Linux

17 septembre 2024 à 14:20
L'avenir : un manchot rouillé ?
Linus Torvalds, Rust et le futur du noyau Linux

Linus Torvalds, premier développeur du noyau Linux, était ce lundi 16 septembre à la version européenne de l’Open Source Summit. C’était l’occasion d’évoquer le futur de la communauté du noyau, dont les tempes de certains commencent à être très grisonnantes, et de revenir sur les discussions autour de l’introduction du langage Rust dans le noyau.

Régulièrement, Dirk Hohndel, responsable du logiciel libre chez Verizon, interroge Linus Torvalds à l’occasion de l’Open Source Summit pour discuter de Linux. Cette année, ils se sont retrouvés à Vienne, en Autriche, comme l’a relaté ZDnet.

Interrogé sur la récente sortie de la version 6.11, le créateur du noyau Linux explique que « les sorties ne sont pas passionnantes et ne sont pas supposées l’être. Elles sont opportunes et, espérons-le, très fiables, mais la passion n’est pas le but visé ». Il met, par contre, en avant la régularité des mises à jour : toutes les neuf semaines depuis presque 15 ans.

La tâche du noyau : l’abstraction du matériel

Décrivant l’évolution actuelle du noyau, il explique que « la plupart du code vient des drivers. Je pense que plus de la moitié du noyau est du support pour les drivers ».

Il ajoute que « c’est littéralement le but d’un noyau. La plupart des gens ne devraient pas y penser. Ce que fait le noyau, c’est abstraire les détails matériels. Évidemment, certains de ces détails sont les architectures CPU et des choses du genre, mais on a seulement 12 architectures (ou quelque chose comme ça) mais nous avons des milliers de drivers ».

Rust contre C, le nouveau vi contre EMACS ?

Mais Linux a vu récemment un nouveau débat tendre les relations entre les différents contributeurs : le langage Rust peut-il prendre une place croissante dans son développement ? Celui-ci a même engendré le départ de Wedson Almeida Filho, l’un des principaux collaborateurs du projet Rust for Linux.

Ce n’est pas le premier débat rugueux de la communauté. Linus Torvalds a même reconnu en 2018 avoir très mal géré ce genre de situations en instaurant un climat brutal dans ses conversations.

Ici, il admet que « certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines  ».

Mais pour lui, ce débat doit être conduit différemment : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave », philosophe-t-il.

Personne ne maitrise entièrement le noyau

Il ajoute que « dans le noyau lui-même, absolument personne ne comprend tout. C’est mon cas. Je m’appuie fortement sur les mainteneurs des différents sous-systèmes. Je pense qu’il en va de même pour Rust et C ».

S’appuyant sur l’historique de Linux, son créateur explique que « c’est l’une de nos forces dans le noyau que de pouvoir nous spécialiser ». Linus Torvalds constate qu’ « il est clair que certaines personnes n’aiment pas la notion de Rust et le fait que Rust empiète sur leur domaine ». Mais il plaide pour donner une chance au langage : « cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».

Real-time Linux intégré dans Linux 6.12

Interrogé par Dirk Hohndel sur le projet « real-time Linux » (un micro-noyau qui fait tourner Linux en un seul processus et dont les bases ont été proposées en 2004), Torvalds a confirmé qu’il devrait intégrer le prochain noyau, Linux 6.12.

Commentant cette longue attente, il déplore que « les gens pensent que le développement du noyau est très rapide parce que tous les trois mois environ, nous avons entre 10 000 et 15 000 commits dans le noyau ». Il ajoute qu’« il y a beaucoup de développement en cours, mais beaucoup de choses ont été développées pendant des mois, des années ou, dans certains cas, des décennies. Ainsi, bien que le développement du noyau soit très actif, cela ne signifie pas nécessairement qu’une nouvelle fonctionnalité, un nouveau système de fichiers ou quoi que ce soit d’autre puisse être intégré au noyau très rapidement ».

« Normal » de voir les anciens s’épuiser

Enfin, Dirk Hohndel est revenu sur un sujet de plus en plus évoqué concernant le noyau de Linux : l’épuisement et le vieillissement des mainteneurs. Mais Torvalds n’a pas semblé préoccupé, répondant que, pour lui, « c’est un peu normal » que certains s’en aillent après épuisement. « Ce qui n’est pas normal, c’est que les gens restent pendant des décennies. C’est ce qui est inhabituel, et je pense que c’est un bon signe », argumente-t-il. Il admet toutefois qu’il peut être difficile et intimidant, pour un jeune développeur, de rejoindre l’équipe de développement du noyau Linux.

L’interview « keynote » est disponible en vidéo :

Linus Torvalds, Rust et le futur du noyau Linux

17 septembre 2024 à 14:20
L'avenir : un manchot rouillé ?
Linus Torvalds, Rust et le futur du noyau Linux

Linus Torvalds, premier développeur du noyau Linux, était ce lundi 16 septembre à la version européenne de l’Open Source Summit. C’était l’occasion d’évoquer le futur de la communauté du noyau, dont les tempes de certains commencent à être très grisonnantes, et de revenir sur les discussions autour de l’introduction du langage Rust dans le noyau.

Régulièrement, Dirk Hohndel, responsable du logiciel libre chez Verizon, interroge Linus Torvalds à l’occasion de l’Open Source Summit pour discuter de Linux. Cette année, ils se sont retrouvés à Vienne, en Autriche, comme l’a relaté ZDnet.

Interrogé sur la récente sortie de la version 6.11, le créateur du noyau Linux explique que « les sorties ne sont pas passionnantes et ne sont pas supposées l’être. Elles sont opportunes et, espérons-le, très fiables, mais la passion n’est pas le but visé ». Il met, par contre, en avant la régularité des mises à jour : toutes les neuf semaines depuis presque 15 ans.

La tâche du noyau : l’abstraction du matériel

Décrivant l’évolution actuelle du noyau, il explique que « la plupart du code vient des drivers. Je pense que plus de la moitié du noyau est du support pour les drivers ».

Il ajoute que « c’est littéralement le but d’un noyau. La plupart des gens ne devraient pas y penser. Ce que fait le noyau, c’est abstraire les détails matériels. Évidemment, certains de ces détails sont les architectures CPU et des choses du genre, mais on a seulement 12 architectures (ou quelque chose comme ça) mais nous avons des milliers de drivers ».

Rust contre C, le nouveau vi contre EMACS ?

Mais Linux a vu récemment un nouveau débat tendre les relations entre les différents contributeurs : le langage Rust peut-il prendre une place croissante dans son développement ? Celui-ci a même engendré le départ de Wedson Almeida Filho, l’un des principaux collaborateurs du projet Rust for Linux.

Ce n’est pas le premier débat rugueux de la communauté. Linus Torvalds a même reconnu en 2018 avoir très mal géré ce genre de situations en instaurant un climat brutal dans ses conversations.

Ici, il admet que « certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines  ».

Mais pour lui, ce débat doit être conduit différemment : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave », philosophe-t-il.

Personne ne maitrise entièrement le noyau

Il ajoute que « dans le noyau lui-même, absolument personne ne comprend tout. C’est mon cas. Je m’appuie fortement sur les mainteneurs des différents sous-systèmes. Je pense qu’il en va de même pour Rust et C ».

S’appuyant sur l’historique de Linux, son créateur explique que « c’est l’une de nos forces dans le noyau que de pouvoir nous spécialiser ». Linus Torvalds constate qu’ « il est clair que certaines personnes n’aiment pas la notion de Rust et le fait que Rust empiète sur leur domaine ». Mais il plaide pour donner une chance au langage : « cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».

Real-time Linux intégré dans Linux 6.12

Interrogé par Dirk Hohndel sur le projet « real-time Linux » (un micro-noyau qui fait tourner Linux en un seul processus et dont les bases ont été proposées en 2004), Torvalds a confirmé qu’il devrait intégrer le prochain noyau, Linux 6.12.

Commentant cette longue attente, il déplore que « les gens pensent que le développement du noyau est très rapide parce que tous les trois mois environ, nous avons entre 10 000 et 15 000 commits dans le noyau ». Il ajoute qu’« il y a beaucoup de développement en cours, mais beaucoup de choses ont été développées pendant des mois, des années ou, dans certains cas, des décennies. Ainsi, bien que le développement du noyau soit très actif, cela ne signifie pas nécessairement qu’une nouvelle fonctionnalité, un nouveau système de fichiers ou quoi que ce soit d’autre puisse être intégré au noyau très rapidement ».

« Normal » de voir les anciens s’épuiser

Enfin, Dirk Hohndel est revenu sur un sujet de plus en plus évoqué concernant le noyau de Linux : l’épuisement et le vieillissement des mainteneurs. Mais Torvalds n’a pas semblé préoccupé, répondant que, pour lui, « c’est un peu normal » que certains s’en aillent après épuisement. « Ce qui n’est pas normal, c’est que les gens restent pendant des décennies. C’est ce qui est inhabituel, et je pense que c’est un bon signe », argumente-t-il. Il admet toutefois qu’il peut être difficile et intimidant, pour un jeune développeur, de rejoindre l’équipe de développement du noyau Linux.

L’interview « keynote » est disponible en vidéo :

❌
❌