Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 26 septembre 2024Actualités numériques

☕️ La Russie bloque la base de données sur la censure OONI

26 septembre 2024 à 15:19

L’Open Observatory of Network Interference est un projet de surveillance de la censure d’Internet au niveau mondial lancé en 2012 dans le cadre du projet Tor. Selon le billet de blog publié par l’organisation, la Russie a décidé le 11 septembre de bloquer une de ses plateformes : OONI Explorer.

Celle-ci rassemble énormément de données sur le blocage de différents sites sur des milliers de sous-réseaux dans 242 pays. Ces données sont récoltées par les internautes via l’application OONI Probe. « Parmi tous les pays, les utilisateurs d’OONI Probe en Russie contribuent au deuxième plus grand volume de mesures (après les États-Unis, où les utilisateurs d’OONI Probe contribuent au plus grand nombre de mesures parmi tous les pays) », explique l’organisation.

Elle ajoute : « cela nous a permis d’étudier différents cas de censure de l’internet en Russie, tels que le blocage de Tor, le blocage de sites web de médias indépendants et la manière dont la censure de l’internet en Russie a évolué au cours de la guerre en Ukraine ».

OONI explique avoir reçu un email du Service fédéral de supervision des communications, Roskomnadzor, l’informant de cette décision de blocage et notamment l’url de la page visée en question : https://explorer.ooni.org/ru/chart/circumvention.

Dans son billet, OONI remercie le Roskomnadzor de l’avoir informé, faisant remarquer que la Chine n’a pas cette délicatesse. L’organisation constate que cette url pointe « vers la traduction russe de notre tableau de bord sur le contournement de la censure ».

« Cette page ne comprend que des mesures sur l’accessibilité de trois outils de contournement (Psiphon, Tor, Tor Snowflake), et nous soulignons même que la présence d’anomalies dans les mesures n’est pas nécessairement indicative d’un blocage, car des faux positifs peuvent se produire. En attendant, le reste de la plateforme OONI Explorer fournit une mine de données sur de nombreuses autres formes de censure de l’internet en Russie et dans le monde », ajoute-t-elle.

Mais, si ce n’est que cette page qui est officiellement ciblée, OONI remarque qu’ « en pratique, toutefois, le blocage n’est pas aussi ciblé, car il n’est pas possible de le limiter à une page web spécifique lorsqu’un site web est hébergé sur HTTPS ». Résultat, tout le site explorer.ooni.org est inaccessible en Russie.

☕️ La Russie bloque la base de données sur la censure OONI

26 septembre 2024 à 15:19

L’Open Observatory of Network Interference est un projet de surveillance de la censure d’Internet au niveau mondial lancé en 2012 dans le cadre du projet Tor. Selon le billet de blog publié par l’organisation, la Russie a décidé le 11 septembre de bloquer une de ses plateformes : OONI Explorer.

Celle-ci rassemble énormément de données sur le blocage de différents sites sur des milliers de sous-réseaux dans 242 pays. Ces données sont récoltées par les internautes via l’application OONI Probe. « Parmi tous les pays, les utilisateurs d’OONI Probe en Russie contribuent au deuxième plus grand volume de mesures (après les États-Unis, où les utilisateurs d’OONI Probe contribuent au plus grand nombre de mesures parmi tous les pays) », explique l’organisation.

Elle ajoute : « cela nous a permis d’étudier différents cas de censure de l’internet en Russie, tels que le blocage de Tor, le blocage de sites web de médias indépendants et la manière dont la censure de l’internet en Russie a évolué au cours de la guerre en Ukraine ».

OONI explique avoir reçu un email du Service fédéral de supervision des communications, Roskomnadzor, l’informant de cette décision de blocage et notamment l’url de la page visée en question : https://explorer.ooni.org/ru/chart/circumvention.

Dans son billet, OONI remercie le Roskomnadzor de l’avoir informé, faisant remarquer que la Chine n’a pas cette délicatesse. L’organisation constate que cette url pointe « vers la traduction russe de notre tableau de bord sur le contournement de la censure ».

« Cette page ne comprend que des mesures sur l’accessibilité de trois outils de contournement (Psiphon, Tor, Tor Snowflake), et nous soulignons même que la présence d’anomalies dans les mesures n’est pas nécessairement indicative d’un blocage, car des faux positifs peuvent se produire. En attendant, le reste de la plateforme OONI Explorer fournit une mine de données sur de nombreuses autres formes de censure de l’internet en Russie et dans le monde », ajoute-t-elle.

Mais, si ce n’est que cette page qui est officiellement ciblée, OONI remarque qu’ « en pratique, toutefois, le blocage n’est pas aussi ciblé, car il n’est pas possible de le limiter à une page web spécifique lorsqu’un site web est hébergé sur HTTPS ». Résultat, tout le site explorer.ooni.org est inaccessible en Russie.

Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

26 septembre 2024 à 14:55
Quelle surprise !
Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

Devant la Commission des lois, le préfet de police de Paris, Laurent Nuñez, s’est dit favorable à la reconduction de la vidéosurveillance algorithmique dans les rues de la capitale après avoir jugé « positif » le bilan de son expérimentation lors les Jeux olympiques et paralympiques, sans pour autant donner de chiffres précis.

Après l’expérimentation de la vidéosurveillance algorithmique autorisée au titre de l’organisation des Jeux olympiques et paralympique, le préfet de police de Paris, Laurent Nuñez a soutenu la reconduction du dispositif devant la commission des lois de l’Assemblée nationale ce mercredi 25 septembre, comme l’a repéré Le Monde, utilisant le fameux effet cliquet qui « empêche le retour en arrière d’un processus une fois un certain stade dépassé ».

« Le gouvernement vous présentera ou pas une reconduction, mais, à titre personnel, et ce sera la proposition que nous allons pousser, nous y sommes très favorables », a appuyé Laurent Nuñez face aux députés.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Meta Llama 3.2 : du modèle multimodal à celui « de poche »

26 septembre 2024 à 10:31

L’entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d’images) chez Meta. En l’occurrence, il s’agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l’IA générative sans avoir à accéder à Internet.

Comme l’entreprise l’avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l’occurrence) ne sont pas disponibles pour l’Europe. Elle évoquait « la nature imprévisible de l’environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l’Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

26 septembre 2024 à 09:41
OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

L’entreprise responsable de ChatGPT a un plan pour se rendre plus attractive pour les investisseurs : enlever tout pouvoir de contrôle à sa structure originelle et non lucrative. Par la même occasion, elle envisage de donner 7 % de participation à son CEO Sam Altman. Dans le même temps, trois nouveaux départs sont annoncés dans sa direction dont la CTO Mira Murati.

C’est un nouveau rebondissement dans la structure d’OpenAI. D’après des sources de l’agence de presse Reuters, le créateur de ChatGPT ferait en sorte de se passer du contrôle du conseil d’administration de sa structure à but non lucratif pour attirer plus facilement les investisseurs.

Cette structure non lucrative ne serait pas pour autant supprimée totalement et garderait une participation minoritaire dans l’entreprise, au risque qu’elle ne soit pas beaucoup plus qu’une coquille vide.

En juin dernier, le CEO Sam Altman envisageait déjà cette possibilité et en avait informé certains actionnaires de l’entreprise.

Changement radical comparé au projet initial

Cœur du projet OpenAI lancé 2015, la structure non lucrative montée par 11 personnes dont Elon Musk et Sam Altman étaient co-présidents, se donnait comme but de « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contraints par la nécessité de générer un rendement financier ».

Elle a ensuite dérivé vers une fonction de contrôle des risques des IA créées par les ingénieurs et chercheurs du projet et vendues par la structure lucrative. Ce nouveau changement devrait donc avoir des conséquences sur la manière dont ces risques sont encadrés au sein d’OpenAI.

Néanmoins, dans un communiqué obtenu par Bloomberg, OpenAI affirme qu’elle reste « concentrée sur la construction d’une IA qui profite à tous » et assure que « l’organisation à but non lucratif est au cœur de [leur] mission et continuera d’exister » sans pour autant qu’on sache quel sera son rôle dans la nouvelle organisation.

Rappelons qu’en novembre 2023, lors d’une semaine de folie, Sam Altman avait été limogé d’OpenAI avant d’être réintégré, avec un nouveau conseil d’administration. Il lui avait fallu attendre mars dernier pour réintégrer ce CA.

7 % pour Altman…

Un autre changement important chez OpenAI pourrait venir. L’entreprise pense aussi donner pour la première fois une part au sein de son capital à son CEO, Sam Altman, expliquait toujours Reuters. Bloomberg parle de 7 % de l’entreprise, ce qui, au vu de la valorisation actuelle de l’entreprise à 150 milliards de dollars, équivaudrait à 10,5 milliards de dollars pour Sam Altman.

… et trois départs dans l’équipe de direction

Enfin, l’entreprise essuie, en parallèle, le départ de trois de ses responsables, dont sa CTO Mira Murati. Celle-ci a annoncé la nouvelle mercredi 25 septembre via un tweet dans lequel elle affirme se retirer « parce qu’ [elle voulait] se donner le temps et l’espace nécessaires » pour ses propres projets, sans s’appesantir sur d’autres raisons. Selon Reuters, elle reste pour l’instant au sein de l’entreprise en prenant le temps de négocier son départ. Dans un long tweet, Sam Altman a fait comprendre que Mira Murati ne l’avait prévenu que le matin même.

Rappelons que, lors de la fameuse semaine de novembre dernier, elle avait été brièvement nommée CEO par intérim avant de signer avec plus de 500 de ses collègues une lettre de soutien à Sam Altman.

Le vice-président Recherche de la structure, Barret Zoph, et le Chief Research Officer Bob McGrew, ont tous deux allongé la longue liste des responsables d’OpenAI qui ont décidé de partir récemment.

☕️ Meta Llama 3.2 : du modèle multimodal à celui « de poche »

26 septembre 2024 à 10:31

L’entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d’images) chez Meta. En l’occurrence, il s’agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l’IA générative sans avoir à accéder à Internet.

Comme l’entreprise l’avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l’occurrence) ne sont pas disponibles pour l’Europe. Elle évoquait « la nature imprévisible de l’environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l’Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

26 septembre 2024 à 09:41
OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

L’entreprise responsable de ChatGPT a un plan pour se rendre plus attractive pour les investisseurs : enlever tout pouvoir de contrôle à sa structure originelle et non lucrative. Par la même occasion, elle envisage de donner 7 % de participation à son CEO Sam Altman. Dans le même temps, trois nouveaux départs sont annoncés dans sa direction dont la CTO Mira Murati.

C’est un nouveau rebondissement dans la structure d’OpenAI. D’après des sources de l’agence de presse Reuters, le créateur de ChatGPT ferait en sorte de se passer du contrôle du conseil d’administration de sa structure à but non lucratif pour attirer plus facilement les investisseurs.

Cette structure non lucrative ne serait pas pour autant supprimée totalement et garderait une participation minoritaire dans l’entreprise, au risque qu’elle ne soit pas beaucoup plus qu’une coquille vide.

En juin dernier, le CEO Sam Altman envisageait déjà cette possibilité et en avait informé certains actionnaires de l’entreprise.

Changement radical comparé au projet initial

Cœur du projet OpenAI lancé 2015, la structure non lucrative montée par 11 personnes dont Elon Musk et Sam Altman étaient co-présidents, se donnait comme but de « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contraints par la nécessité de générer un rendement financier ».

Elle a ensuite dérivé vers une fonction de contrôle des risques des IA créées par les ingénieurs et chercheurs du projet et vendues par la structure lucrative. Ce nouveau changement devrait donc avoir des conséquences sur la manière dont ces risques sont encadrés au sein d’OpenAI.

Néanmoins, dans un communiqué obtenu par Bloomberg, OpenAI affirme qu’elle reste « concentrée sur la construction d’une IA qui profite à tous » et assure que « l’organisation à but non lucratif est au cœur de [leur] mission et continuera d’exister » sans pour autant qu’on sache quel sera son rôle dans la nouvelle organisation.

Rappelons qu’en novembre 2023, lors d’une semaine de folie, Sam Altman avait été limogé d’OpenAI avant d’être réintégré, avec un nouveau conseil d’administration. Il lui avait fallu attendre mars dernier pour réintégrer ce CA.

7 % pour Altman…

Un autre changement important chez OpenAI pourrait venir. L’entreprise pense aussi donner pour la première fois une part au sein de son capital à son CEO, Sam Altman, expliquait toujours Reuters. Bloomberg parle de 7 % de l’entreprise, ce qui, au vu de la valorisation actuelle de l’entreprise à 150 milliards de dollars, équivaudrait à 10,5 milliards de dollars pour Sam Altman.

… et trois départs dans l’équipe de direction

Enfin, l’entreprise essuie, en parallèle, le départ de trois de ses responsables, dont sa CTO Mira Murati. Celle-ci a annoncé la nouvelle mercredi 25 septembre via un tweet dans lequel elle affirme se retirer « parce qu’ [elle voulait] se donner le temps et l’espace nécessaires » pour ses propres projets, sans s’appesantir sur d’autres raisons. Selon Reuters, elle reste pour l’instant au sein de l’entreprise en prenant le temps de négocier son départ. Dans un long tweet, Sam Altman a fait comprendre que Mira Murati ne l’avait prévenu que le matin même.

Rappelons que, lors de la fameuse semaine de novembre dernier, elle avait été brièvement nommée CEO par intérim avant de signer avec plus de 500 de ses collègues une lettre de soutien à Sam Altman.

Le vice-président Recherche de la structure, Barret Zoph, et le Chief Research Officer Bob McGrew, ont tous deux allongé la longue liste des responsables d’OpenAI qui ont décidé de partir récemment.

À partir d’avant-hierActualités numériques

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

24 septembre 2024 à 12:37
Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

24 septembre 2024 à 12:37
Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

Entre fermer et partager le code, est-ce « fair » ?

24 septembre 2024 à 06:31
Entre fermer et partager le code, est-ce « fair » ?

Dans le domaine du logiciel libre, la licence d’ouverture du code peut rapidement faire débat. Rejetées par ce milieu qui considère que leurs logiciels ne sont pas assez libres pour être qualifiés d’ « open », des startups comme Sentry poussent un nouveau terme : « fair source ».

Mise à jour mardi 24 septembre, 10h50 : ajout de la réaction de l’April en fin d’article.

Est-ce qu’un logiciel peut être équitable ? Et qu’est ce que ça veut dire ? Après avoir vu fleurir dans nos magasins des produits « fair trade », va-t-on voir nos logiciels s’afficher « fair source » ? Les histoires de licences dans le logiciel sont toujours délicates.

C’est en tout cas cette expression, « fair source », que certaines startups comme Sentry ou Keygen utilisent pour qualifier leur logiciel. Dans un billet de blog, Sentry, startup qui était valorisée à plus de 3 milliards de dollars en 2022, donne sa définition du terme :

« Un logiciel « Fair source » est un logiciel qui :

  • est lisible publiquement ;
  • permet l’utilisation, la modification et la redistribution avec un minimum de restrictions afin de protéger le modèle commercial du producteur ;
  • et fait l’objet d’une publication Open Source différée (delayed Open Source publication, DOSP) »

L’entreprise cite plusieurs licences qui seraient compatibles avec cette définition. La sienne en première, la Functional Source License (FSL), évidemment, mais aussi la Core License de Keygen et la Business Source License (BSL) de MariaDB.

La FSL, par exemple, convertit automatiquement au bout de deux ans le code publié vers une licence libre Apache 2.0 ou MIT et revendique d’éviter le phénomène du « passager clandestin » (le renvoi vers la page Wikipédia est fait par Sentry sur le site de la licence).

Réponse à un bad buzz de l’année dernière

Sentry est une entreprise qui propose des logiciels de monitoring de code et de diagnostic de bugs. Son logiciel phare, comme l’explique TechCrunch, est notamment utilisé par des entreprises comme Microsoft et Disney. En 2019, elle en a changé sa licence en passant de la 3-Clause BSD à BSL créée par MariaDB.

Sentry a aussi racheté Codecov fin 2022 et, en aout 2023, a utilisé le terme d’ « open source » pour qualifier son code qui était sous Business Source License aussi, récoltant les critiques de la communauté car cette licence n’est pas approuvée par l’Open Source Initiative (OSI). Adam Jacob, créateur du logiciel libre Chef, a suggéré que les entreprises qui voulaient utiliser des licences comme BSL s’associent pour créer une « confédération informelle » d’utilisateurs de licences avec des clauses évitant la concurrence. C’est en le prenant au mot que Sentry propose le terme de « fair source » et sa définition.

Sentry justifie son choix de ne pas utiliser une licence libre. « L’open source n’est pas un modèle commercial – l’open source est un modèle de distribution, c’est avant tout un modèle de développement de logiciels », affirme le responsable « open source » de l’entreprise, Chad Whitacre, à TechCrunch. « De fait, elle limite considérablement les modèles économiques possibles, à cause des conditions de licence », ajoute-t-il.

Le danger de la confusion ?

Mais introduire un nouveau terme peut parfois ajouter de la confusion. Caricaturalement, lorsqu’on demande à Deepl la traduction de « fair source », le service traduit le terme par « logiciel libre ».

Amanda Brock, CEO d’OpenUK, répondait en mai dernier à Adam Jacob qu’il n’y avait pas besoin de compliquer les choses et expliquait que ce que qualifie Sentry de « fair code », « c’est n’importe quelle licence non approuvée par l’OSI qui partage la source ». On peut aussi se poser la question de l’utilisation du terme « fair ». Un code qui n’est pas dans une licence « fair code » serait-il injuste ?

Interrogé par Next, le lobby des entreprises du logiciel libre CNLL, nous fait part de son attachement « aux définitions précises de l’OSI (pour « open source ») et de la Free Software Foundation (pour le « logiciel libre »), tout en notant qu’elles varient justement dans leur degré de précision et la latitude qu’elles laissent à l’interprétation » dont il considère les définitions comme équivalentes « en pratique ».

Pour son co-président, Stéphane Fermigier, « des acteurs qui appartiennent à l’écosystème open source / du logiciel libre peuvent effectivement proposer des définitions différentes qui répondent à leur besoin de créer des licences spécifiques à leur business ou alors leurs choix éthiques. Pour moi il n’y a pas de mal à cela tant que cela ne crée aucun risque de confusion. De ce point de vue, « Fair Source » semble respecter ce principe qui me semble fondamental, à condition que personne n’aille impliquer qu’il s’agit de la nouvelle définition de l’open source, par exemple. Il est possible que de nombreux éditeurs open source adoptent cette définition et l’une des nouvelles licences qui la respectent, ce qui aura forcément un impact négatif sur l’écosystème open source « strict » et probablement aussi pourrait engendrer une érosion de la marque « open source » (ou « logiciel libre ») ».

De son côté, interrogée par Next, l’April affirme que « l’objectif de Fair Source est de légitimer, de rendre honorable, une politique de licence rejetée notamment par la Free Software Foundation et l’Open Source Initiative, en lui trouvant une famille d’adoption. Celle-ci n’existant pas, les éditeurs l’ont créée de toutes pièces et ont même trouvé une bannière – Fair Source – qui entretient la confusion (comme à la grande époque du programme « shared source » de Microsoft, même si les licences Fair Source sont bien moins toxiques que les licences de Microsoft) ». Elle rajoute que « Fair Source relève de la pure campagne de communication, qui durera jusqu’à ce que le terme revête une connotation péjorative ».

Entre fermer et partager le code, est-ce « fair » ?

24 septembre 2024 à 06:31
Entre fermer et partager le code, est-ce « fair » ?

Dans le domaine du logiciel libre, la licence d’ouverture du code peut rapidement faire débat. Rejetées par ce milieu qui considère que leurs logiciels ne sont pas assez libres pour être qualifiés d’ « open », des startups comme Sentry poussent un nouveau terme : « fair source ».

Mise à jour mardi 24 septembre, 10h50 : ajout de la réaction de l’April en fin d’article.

Est-ce qu’un logiciel peut être équitable ? Et qu’est ce que ça veut dire ? Après avoir vu fleurir dans nos magasins des produits « fair trade », va-t-on voir nos logiciels s’afficher « fair source » ? Les histoires de licences dans le logiciel sont toujours délicates.

C’est en tout cas cette expression, « fair source », que certaines startups comme Sentry ou Keygen utilisent pour qualifier leur logiciel. Dans un billet de blog, Sentry, startup qui était valorisée à plus de 3 milliards de dollars en 2022, donne sa définition du terme :

« Un logiciel « Fair source » est un logiciel qui :

  • est lisible publiquement ;
  • permet l’utilisation, la modification et la redistribution avec un minimum de restrictions afin de protéger le modèle commercial du producteur ;
  • et fait l’objet d’une publication Open Source différée (delayed Open Source publication, DOSP) »

L’entreprise cite plusieurs licences qui seraient compatibles avec cette définition. La sienne en première, la Functional Source License (FSL), évidemment, mais aussi la Core License de Keygen et la Business Source License (BSL) de MariaDB.

La FSL, par exemple, convertit automatiquement au bout de deux ans le code publié vers une licence libre Apache 2.0 ou MIT et revendique d’éviter le phénomène du « passager clandestin » (le renvoi vers la page Wikipédia est fait par Sentry sur le site de la licence).

Réponse à un bad buzz de l’année dernière

Sentry est une entreprise qui propose des logiciels de monitoring de code et de diagnostic de bugs. Son logiciel phare, comme l’explique TechCrunch, est notamment utilisé par des entreprises comme Microsoft et Disney. En 2019, elle en a changé sa licence en passant de la 3-Clause BSD à BSL créée par MariaDB.

Sentry a aussi racheté Codecov fin 2022 et, en aout 2023, a utilisé le terme d’ « open source » pour qualifier son code qui était sous Business Source License aussi, récoltant les critiques de la communauté car cette licence n’est pas approuvée par l’Open Source Initiative (OSI). Adam Jacob, créateur du logiciel libre Chef, a suggéré que les entreprises qui voulaient utiliser des licences comme BSL s’associent pour créer une « confédération informelle » d’utilisateurs de licences avec des clauses évitant la concurrence. C’est en le prenant au mot que Sentry propose le terme de « fair source » et sa définition.

Sentry justifie son choix de ne pas utiliser une licence libre. « L’open source n’est pas un modèle commercial – l’open source est un modèle de distribution, c’est avant tout un modèle de développement de logiciels », affirme le responsable « open source » de l’entreprise, Chad Whitacre, à TechCrunch. « De fait, elle limite considérablement les modèles économiques possibles, à cause des conditions de licence », ajoute-t-il.

Le danger de la confusion ?

Mais introduire un nouveau terme peut parfois ajouter de la confusion. Caricaturalement, lorsqu’on demande à Deepl la traduction de « fair source », le service traduit le terme par « logiciel libre ».

Amanda Brock, CEO d’OpenUK, répondait en mai dernier à Adam Jacob qu’il n’y avait pas besoin de compliquer les choses et expliquait que ce que qualifie Sentry de « fair code », « c’est n’importe quelle licence non approuvée par l’OSI qui partage la source ». On peut aussi se poser la question de l’utilisation du terme « fair ». Un code qui n’est pas dans une licence « fair code » serait-il injuste ?

Interrogé par Next, le lobby des entreprises du logiciel libre CNLL, nous fait part de son attachement « aux définitions précises de l’OSI (pour « open source ») et de la Free Software Foundation (pour le « logiciel libre »), tout en notant qu’elles varient justement dans leur degré de précision et la latitude qu’elles laissent à l’interprétation » dont il considère les définitions comme équivalentes « en pratique ».

Pour son co-président, Stéphane Fermigier, « des acteurs qui appartiennent à l’écosystème open source / du logiciel libre peuvent effectivement proposer des définitions différentes qui répondent à leur besoin de créer des licences spécifiques à leur business ou alors leurs choix éthiques. Pour moi il n’y a pas de mal à cela tant que cela ne crée aucun risque de confusion. De ce point de vue, « Fair Source » semble respecter ce principe qui me semble fondamental, à condition que personne n’aille impliquer qu’il s’agit de la nouvelle définition de l’open source, par exemple. Il est possible que de nombreux éditeurs open source adoptent cette définition et l’une des nouvelles licences qui la respectent, ce qui aura forcément un impact négatif sur l’écosystème open source « strict » et probablement aussi pourrait engendrer une érosion de la marque « open source » (ou « logiciel libre ») ».

De son côté, interrogée par Next, l’April affirme que « l’objectif de Fair Source est de légitimer, de rendre honorable, une politique de licence rejetée notamment par la Free Software Foundation et l’Open Source Initiative, en lui trouvant une famille d’adoption. Celle-ci n’existant pas, les éditeurs l’ont créée de toutes pièces et ont même trouvé une bannière – Fair Source – qui entretient la confusion (comme à la grande époque du programme « shared source » de Microsoft, même si les licences Fair Source sont bien moins toxiques que les licences de Microsoft) ». Elle rajoute que « Fair Source relève de la pure campagne de communication, qui durera jusqu’à ce que le terme revête une connotation péjorative ».

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

23 septembre 2024 à 07:07
Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

IA : un impact environnemental conséquent mais toujours difficile à mesurer

23 septembre 2024 à 07:30
IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

☕️ Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

23 septembre 2024 à 07:07
Google crée un fonds de 120 millions de dollars pour l’IA dans l’éducation

Samedi 21 septembre, au Sommet de l’avenir de l’ONU, le CEO de Google, Sundar Pichai, a annoncé la création par son entreprise d’un fonds de financement lié à l’IA dans l’éducation et la formation à hauteur de 120 millions de dollars. Ce fonds, appelé Global AI Opportunity Fund, est censé aider les pays émergents à se saisir des « opportunités » que leur offre l’IA.

Selon Pichai, cette technologie permettrait à ces pays d’accéder à une information et des connaissances mondiales dans leur propre langue, d’accélérer les découvertes scientifiques, d’ « aider les personnes qui se trouvent sur le chemin d’une catastrophe liée au climat » et enfin de contribuer au progrès économique.

Il ajoute que ces formations se feront dans la langue locale et en partenariat avec des associations et organisations non gouvernementales.

Bien que Sundar Pichai ait évoqué aussi certains risques de l’IA comme les « problèmes d’exactitude », les biais et les deep fakes, il n’a fait qu’euphémiser les conséquences possibles de cette technologie sur le monde du travail. Comme le remarque TechCrunch, il n’a pas évoqué l’impact de l’IA sur le climat.

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

☕️ LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

20 septembre 2024 à 08:30
LinkedIn entraine ses IA avec les données de ses utilisateurs, mais pas en Europe

Sans informer ses utilisateurs avant, LinkedIn a ajouté un paramètre de configuration des profils lui permettant d’entrainer ses IA génératives sur leurs données. Plusieurs utilisateurs l’ont remarqué et ont signalé, comme ici, que cette option était en « opt-out » (l’autorisation est donnée par défaut).

LinkedIn a publié un billet de blog mercredi 18 septembre pour « clarifier certaines pratiques couvertes par [leur] politique de confidentialité ». Il détaille les mises à jour qui prendront effet le 20 novembre et qui doivent donc « clarifier comment [LinkedIn utilise] les informations que vous partagez avec [l’entreprise] pour développer les produits et services de LinkedIn et de ses affiliés, y compris en entrainant des modèles d’IA utilisés pour la génération de contenu (« IA générative ») et par le biais de mesures de sécurité et de sûreté ».

L’entreprise n’entend pas changer son système d’accord tacite de ses utilisateurs et indique leur « offrir une option d’opt-out ».

Elle précise cependant que, « pour l’instant », elle n’a pas activé l’entrainement de ses IA génératives sur les données des membres de l’Espace économique européen, de la Suisse et du Royaume-Uni. Ces utilisateurs ne verront donc pas ce paramètre « jusqu’à nouvelle information ».

☕️ OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

20 septembre 2024 à 06:09
OpenAI embauche Leah Belsky, une ancienne responsable de Coursera

L’entreprise de Sam Altman a, semble-t-il, l’ambition de pousser encore un peu plus l’adoption de l’IA générative dans le secteur de l’éducation. Elle vient d’embaucher Leah Belsky, qui a travaillé au sein de Coursera pendant neuf ans jusqu’à devenir Chief revenue officer. Celle-ci prend la tête d’une nouvelle équipe d’OpenAI consacrée à l’éducation qui doit proposer ses produits à un plus grand nombre d’écoles et de salles de classe, explique Bloomberg.

Selon le média américain, elle devra renforcer les liens entre OpenAI, les enseignants et les élèves et étudiants « de l’ensemble du cursus scolaire maternelle-primaire-secondaire, de l’enseignement supérieur et de la formation continue ». Leah Belsky devra aussi partager les retours des universitaires avec les équipes chargées des produits, de la politique, du marketing et gérer les partenariats avec le monde académique.

☕️ Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

19 septembre 2024 à 14:16
Le CERN va expulser des centaines de chercheurs affiliés à des institutions russes fin novembre

Comme l’explique la revue Nature, le CERN se prépare à expulser les chercheurs affiliés à des institutions russes le 30 novembre. Pour continuer à travailler avec le centre de recherche européen, ces scientifiques doivent trouver une affiliation qui ne soit pas en lien avec la Russie.

L’institution de recherche européenne avait déjà décidé, dès mars 2022 de suspendre le statut d’observateur de la Russie suite à l’invasion de l’Ukraine. Mais des accords de coopération étaient encore en cours. Le CERN avait déjà prévenu qu’il ne les renouvellerait pas.

Mais Nature explique que la relation du CERN avec la Russie est plus compliquée puisque l’organisation européenne « continuera de travailler avec des scientifiques basés en Russie dans le cadre d’un accord avec le Joint Institute for Nuclear Research (JINR), un centre intergouvernemental situé à Dubna, près de Moscou ». Et cet accord n’est pas le même que celui signé avec la Russie. La revue scientifique raconte que cette décision de continuer de travailler avec le JINR et donc de respecter la date de fin de cet accord divise les chercheurs de l’institution.

Pour le chercheur Borys Grynyov, qui représente l’Ukraine au conseil du CERN, c’est une « grave erreur ». Mais la revue rappelle que le CERN est aussi un symbole de coopération scientifique important, puisqu’il a commencé à collaborer avec l’URSS en 1955 et que de nombreux chercheurs russes ont utilisé le Grand collisionneur de hadrons (LHC).

❌
❌