Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Br...Hetzel attack on Wiki
Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Alors que plusieurs portraits du nouveau ministre de l’Enseignement supérieur et de la recherche ont été publiés dans la presse après sa nomination, le cabinet de Patrick Hetzel a essayé de supprimer les passages de sa page Wikipédia qui y faisaient référence. L’Express a retrouvé l’identité de la personne qui a tenté de les caviarder.

Comme nous l’avions noté le lendemain de sa nomination, le ministre de l’Enseignement supérieur et de la recherche, Patrick Hetzel, a un rapport ambigu aux sciences. Les portraits le concernant publiés dans la presse suite à sa nomination et rappelant ses quelques déclarations problématiques semblent ne pas avoir plu à son cabinet.

Il arrive régulièrement que des cabinets de personnalités politiques trafiquent les pages Wikipédia de leur responsable pour purger les références gênantes, ou que l’encyclopédie en ligne reçoive des menaces d’un service de renseignement. Ou encore qu’une société d’intelligence économique caviarde des dizaines de pages.

Le cabinet de Patrick Hetzel a voulu faire de même, révèle notre confrère de l’Express, Victor Garcia. Il a remonté les traces d’un compte utilisateur de Wikipédia nommé Sj87420, créé vendredi 27 septembre (soit trois jours après la nomination de Patrick Hetzel) et ayant immédiatement multiplié les modifications sur la page Wikipédia de Patrick Hetzel.

Modifications détectées par les alertes automatiques de Wikipédia

« Pas moins de six alertes automatiques « anti-abus » et « anti-erreur » de Wikipédia » ont été déclenchées entre 10h01 et 10h08 ce jour-là, raconte notre confrère. Ces alertes ont bloqué automatiquement les modifications après avoir détecté des « potentiels caviardages récurrents », des « suppressions de section » et des « suppressions massives par un nouvel utilisateur ».

Mais Sj87420 a, pour un temps, réussi à supprimer l’intégralité de la partie « Controverses sur son rapport à la science » de la page. Il a expliqué son action par le fait que cette section serait « polémique, injurieuse et diffamatoire ». Celle-ci avait été rédigée en faisant référence à des articles de Libération, L’Express, La Voix du Nord, Marianne, Le Quotidien du médecin ou encore de Next (lien qui n’a pas été ajouté par notre rédaction).

L’Express explique que Sj87420 est revenu sur la page du ministre trois jours après. Cette fois, c’était pour ajouter « deux nouveaux paragraphes élogieux » qui se fondent sur un article du Parisien. Cet ajout a été retoqué par les modérateurs de l’encyclopédie.

Un compte au pseudo assez transparent

Victor Garcia a réussi, avec l’aide d’internautes, à identifier la personne derrière le compte Sj87420 avec les initiales de l’intéressée et le code postal de son domicile. Sandrine Javelaud, nommée récemment directrice adjointe du cabinet de Patrick Hetzel, lui a confirmé être intervenue sur cette page et se défend d’avoir voulu cacher son identité : « si j’avais voulu me masquer, j’aurais pris un pseudonyme comme Pimprenelle et n’aurais jamais avoué ».

À notre collègue, Sandrine Javelaud assure que, pour elle, « ce ne sont pas les articles qui sont diffamatoires, mais la manière dont les sources sont reprises et présentées, alors qu’on connaît la portée d’une page Wikipédia ». « On parle d’un tweet d’avril 2020, alors qu’il n’y avait ni masque, ni test, ni vaccin. Il aurait pu supprimer son tweet, ce que beaucoup d’autres ont fait, mais pas lui », a-t-elle ajouté.

La collaboratrice du ministre reproche quand même à Libération d’avoir « fait un procès en sorcellerie » et à L’Express d’avoir « publié un article sans demander l’avis du ministre ». Notre confrère précise que son média a pourtant sollicité la permanence parlementaire de Patrick Hetzel, sans obtenir de réponse.

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Après avoir entretenu le flou, Meta confirme se permettre l’utilisation des données des utilisateurs des lunettes « intelligentes » Ray-Ban nord-américains pour entrainer ses IA, dès qu’ils activent les fonctionnalités d’IA de leurs lunettes. Pour les utilisateurs européens, il reste des zones d’ombre, mais, tant que Meta ne décide pas d’utiliser ses modèles multimodaux dans la zone couverte par le RGPD, ses lunettes ne devraient pas pouvoir bénéficier de cette fonctionnalité.

Fin septembre, lors du Meta Connect 2024, Meta a présenté ses différentes nouveautés liées aux divers casques et lunettes. L’entreprise y expliquait qu’elle apportait aux lunettes développées en coopération avec Ray-Ban diverses nouveautés avec, comme pour tout produit numérique actuel ou presque, une bonne dose d’IA : traduction en direct des langues, traitement vidéo en temps réel, gestion des rappels, reconnaissance des codes QR, intégration avec Amazon Music, iHeartRadio et Audible…

Comme nous l’évoquions, l’analyse de l’image permet à l’utilisateur de poser des questions sur ce qu’il voit.

Les données des utilisateurs nord-américains utilisées

Mais, comme pour tous les usages commerciaux de deep learning (dont les grands modèles de langage utilisés dans les IA génératives), une question vient rapidement : est-ce que l’entreprise utilise en retour les données de ses utilisateurs pour entrainer ses IA ?

Concernant les utilisateurs nord-américains, la réponse est maintenant claire suite à la demande de nos collègues de TechCrunch : le média américain résume ça d’un « en bref, toute image que vous partagez avec Meta AI peut être utilisée pour entraîner son IA ».

Meta leur a répondu dans un mail que « dans les pays où l’IA multimodale est disponible (actuellement les États-Unis et le Canada), les images et les vidéos partagées avec Meta AI peuvent être utilisées pour l’améliorer conformément à notre politique de confidentialité ».

L’entreprise avait expliqué dans un autre mail que les photos et vidéos capturées avec les Ray-Ban Meta ne seraient pas utilisées tant que l’utilisateur ne les soumet pas à l’IA.

Comme le soulignent nos collègues, « la seule façon de se désengager (opt-out) est de ne pas utiliser les fonctions d’IA multimodale de Meta ». Et ils insistent sur le problème :

« les implications sont préoccupantes, car les utilisateurs de Ray-Ban Meta peuvent ne pas comprendre qu’ils donnent à Meta des tonnes d’images – montrant par exemple l’intérieur de leur maison, leurs proches ou leurs dossiers personnels – pour entraîner ses nouveaux modèles d’IA ».

L’entreprise pointe aussi à nos collègues que l’information se trouve dans les Conditions de service relatives à Meta AI : « une fois le partage effectué, vous acceptez que Meta analyse ces images, y compris les caractéristiques faciales, à l’aide d’une IA ».

Le RGPD qui bloque en Europe

Concernant les utilisateurs européens des Ray-Ban Meta, nous restons plus dans le flou. Ces mêmes Conditions de service relatives à Meta AI disent un peu avant qu’ « en fonction du lieu où vous vous trouvez, vous aurez peut-être la possibilité de partager des images avec les IA ».

Ce texte n’est précis à ce sujet que concernant les images d’individus qui résident dans deux états américains : « vous acceptez également de ne pas importer sur Meta AI d’images dont vous savez qu’elles incluent des individus qui résident en Illinois ou au Texas, à moins que vous ne soyez leur représentant légalement agréé et que vous n’y consentiez en leur nom ».

Mais, comme l’expliquait Axios en juillet dernier, Meta a décidé de ne pas utiliser ou distribuer ses modèles multimodaux en Europe pour l’instant. Et ce média précisait que l’IA utilisée par Meta dans les Ray-Ban se baserait particulièrement sur ces modèles.

L’entreprise évoquait « la nature imprévisible de l’environnement réglementaire européen » pour expliquer sa décision. Pourtant, elle visait le RGPD, texte adopté il y a maintenant huit ans et non des textes plus récents comme l’AI Act. Mais c’est ce texte qui a bloqué l’utilisation par Meta des données des utilisateurs de Facebook et Instagram pour entrainer ses IA. Meta met donc la pression sur l’Europe.

D’ailleurs, même si Meta ne prévoit donc pas tout de suite d’activer l’IA sur les lunettes Ray-Ban en Europe, elle a déjà mis à jour la version franco-française (fr-fr) de son « avis de confidentialité relatif aux commandes vocales » concernant ces « lunettes intelligentes Ray-Ban Meta ».

Dans celui-ci, l’entreprise prévoit déjà qu’ « en fonction de vos paramètres, nous pouvons également utiliser les transcriptions et les enregistrements stockés de vos interactions vocales ainsi que les données associées à celles-ci pour améliorer les produits de Meta. Lorsque le stockage des interactions vocales visant à améliorer les produits est activé, nous utilisons le machine learning et des examinateur·ices qualifié·es pour traiter les informations afin d’améliorer, de dépanner et d’entraîner les produits de Meta ».

Cet avis affirme aussi que « le stockage de vos interactions vocales permet aux produits de Meta d’améliorer le traitement de vos demandes et de répondre à un large éventail d’échantillons vocaux, d’expressions, de dialectes locaux et d’accents. Par exemple, si des personnes parlent un dialecte régional et activent le stockage de leurs interactions vocales, cela permettra aux produits de Meta de mieux comprendre les demandes des personnes parlant ce dialecte et d’y répondre plus précisément ».

Contactée par nos soins, l’entreprise n’a pas encore répondu à notre sollicitation pour plus d’éclaircissements.

☕️ Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Comme l’a repéré notre lecteur Fred42, l’action en justice pour tentative d’extorsion de WP Engine contre Automattic a permis de dévoiler une lettre du second au premier [PDF].

Dans celle-ci, les avocats d’Automattic, qui reproche à WP Engine d’utiliser de façon abusive la marque WordPress, lui réclament, entre autres, de « verser à [leur] client une indemnité pour compenser l’utilisation non autorisée de sa propriété intellectuelle et la concurrence déloyale, dont le montant précis pourra être déterminé une fois que nous aurons reçu de votre part la comptabilité demandée ci-dessus ».

Automattic demande à WP Engine de lui verser une redevance de 8 % de son chiffre d’affaires pour l’utilisation abusive de la marque WordPress.

Les avocats d’Automattic précisent ensuite que « même une simple redevance de 8 % sur le chiffre d’affaires annuel de plus de 400 millions de dollars de WP Engine équivaut à plus de 32 millions de dollars de perte annuelle de revenus de licence pour notre client ».

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Dans une étude scientifique auprès de 67 000 étudiantes, étudiants d’universités et élèves de grandes écoles commandée par le ministère de l’Enseignement Supérieur et de la Recherche (MESR), 29,3 % des étudiantes en informatique, 33,3 % de celles en mécanique et 31,5 % de celles en physique déclarent avoir subi au moins une violence sexuelle depuis le début de leur cursus.

Laurent Bègue-Shankland, enseignant-chercheur à l’Université Grenoble Alpes, a rendu le 2 octobre l’étude [PDF] que le ministère de l’Enseignement supérieur et la recherche (ESR) lui avait commandée à propos des violences sexuelles dans l’enseignement supérieur en France.

Menée du 15 novembre 2023 au 29 février 2024, auprès de 67 000 personnes qui étudient dans le supérieur français, cette étude est inédite. Globalement, parmi ces personnes, 9 % des hommes, 24 % des femmes et 33 % des personnes transgenres/non binaires/queer indiquent avoir subi au moins une tentative d’agression sexuelle, une agression sexuelle, une tentative de viol ou un viol pendant leur cursus. Le communiqué de presse du ministère souligne que « les femmes restent les plus concernées avec 71,4 % (n = 9272) du total des victimes de VSS ».

Du côté des disciplines qui intéressent particulièrement Next, le bilan n’est pas des plus reluisants. En mathématique, 21,8 % des étudiantes déclarent avoir été victimes de violences sexuelles au cours de leurs études (2,2 points en dessous du pourcentage dans la population globale). Mais en informatique, en physique ou en mécanique, le pourcentage est de, respectivement, 29,3 %, 31,5 % et 33,3 %.

Une place importante de l’alcool, beaucoup moins du cannabis

Le ministère a demandé à Laurent Bègue-Shankland, addictologue, de faire un focus sur la place de l’alcool et du cannabis dans ces violences. « Selon les estimations des victimes, l’auteur était alcoolisé dans 61,9 % des tentatives d’agression sexuelle et 56,4 % des cas d’agressions sexuelles. C’était le cas dans 41,8 % des tentatives de viol et 42,6 % des viols », explique l’étude.

L’auteur précise que « la littérature scientifique internationale a depuis longtemps identifié la consommation d’alcool comme un cofacteur majeur des violences sexistes et sexuelles mais c’est la première fois en Europe que nous avons pu les spécifier sur un échantillon d’une telle ampleur en milieu étudiant ».

« Près de 16 % des victimes d’agression sexuelle (ou tentatives) indiquent que l‘auteur avait tenté de modifier leur état de conscience au moyen d’alcool ou d’autres substances pour avoir un avantage sur elles et 23 % des victimes de viol (ou tentatives) », ajoute-t-il dans l’étude.

Concernant le cannabis, « en comparaison avec l’alcool, [il] est faiblement présent en situation de violence sexuelle : entre 3 % et 6 % des victimes déclarent en avoir consommé avant les faits, et entre 8 et 13 % estiment que c’était le cas de l’auteur ».

Des agressions sexuelles par des inconnus, des viols par des proches

Lors de ces situations de violences sexuelles, « des menaces non physiques (de mauvaise note, d’atteinte à la réputation) ou physique ont été proférées dans 6 à 7 % des agressions sexuelles (et tentatives) et 13 à 16 % des viols (et tentatives), tandis qu’une contrainte physique a été exercée à l’encontre des victimes dans 11 à 15 % environ des faits d’agressions sexuelles (ou tentatives) et 32 à 35 % environ des viols ou
tentatives
 ». Le graphique ci-dessous détaille ce contexte coercitif :

Concernant les agresseurs, « dans 90 à 95% des cas, quelles que soient les violences subies, les auteurs désignés sont de sexe masculin » et sont d’autres étudiants « dans près de 70 % des cas d‘agression sexuelle (ou tentatives) et 60 % des cas de viols (ou tentatives) ». Leur filière est le plus souvent connue des victimes.

Selon l’étude, les auteurs d’agression sexuelle (ou tentatives) sont, la plupart du temps (70 %), des personnes inconnues, rencontrées depuis peu, ou de simples connaissances. Mais pour les viols (ou tentatives), « il s’agit du partenaire ou l’ancien partenaire » dans 40 à 50 % des cas et d’un ami proche dans un peu plus de 11 % des cas.

Concernant les suites de ces violences sexuelles, « dans une grande majorité des cas, aucune procédure n’a été initiée dans l’université des victimes et aucune plainte n’a été déposée auprès des autorités », explique le chercheur. Il ajoute que « si le recours à des procédures intra-universitaires ne varie pas selon les actes subis, on peut observer une élévation du recours au dépôt de plainte auprès des forces de police ou de l’autorité judiciaire selon la gravité des faits. Il est ainsi trois fois plus fréquent en cas de viol
(7.9 %) que de tentative d’agression sexuelle
». Son étude ne recense pas, par contre, les suites de ces démarches.

Des programmes de prévention à mettre en place par le ministère

Se basant sur la littérature scientifique existante, Laurent Bègue-Shankland conseille au ministère de s’inspirer de plusieurs dispositifs de prévention. Le premier type de programmes « se focalise sur les hommes ayant des consommations excessives, principaux responsables des violences sexuelles » liées à l’ébriété, explique-t-il, donnant comme exemple le SAFE (Sexual Assault and Alcohol Feedback) américain, évalué positivement en 2023. Il indique aussi que « la sensibilisation aux situations de violence sexuelle en tant que témoins augmente également le sentiment d’être en capacité d’intervenir, l’intention de le faire et les conduites prosociales ».

Enfin, ajoute-t-il, « plusieurs programmes spécifiques s’appuient sur les principe de réduction des risques. Bien que les femmes ne soient nullement responsables des agressions sexuelles qu’elles subissent, en tant que victimes les plus fréquentes, il peut leur être utile d’intégrer des informations leur permettant de reconnaître les tactiques des perpétrateurs et de maîtriser les compétences pour éviter, interpréter et résister aux avances indésirables ». Il donne en exemple ici le programme SARE (Sexual Assault Resistance Education).

☕️ WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

Le conflit entre WP Engine et Automattic passe un nouveau cap. En effet, le premier vient de déposer une plainte (PDF) devant une cour de justice californienne contre le second et son CEO, Matt Mullenweg (créateur du logiciel WordPress et de la fondation du même nom) pour, entre autres, tentative d’extorsion et abus de pouvoir.

Le torchon brule entre les deux entreprises depuis deux semaines, avec notamment l’accusation d’utilisation abusive de la marque WordPress et les différents degrés de contribution des deux entreprises au logiciel libre.

WP Engine a communiqué sur X, accusant Matt Mullenweg d’être responsable d’importants conflits d’intérêts et de problèmes de gouvernance.

Les deux parties proclament défendre chacune les intérêts de la communauté créée autour de WordPress. WP Engine, dans son récent message, estime que « la campagne de terre brûlée autoproclamée de Matt Mullenweg et d’Automattic contre WP Engine a porté préjudice non seulement à notre entreprise, mais à l’ensemble de l’écosystème WordPress ».

De son côté, Matt Mullenweg affirmait que WP Engine profite de WordPress sans contribuer assez au projet et « profère des menaces juridiques » contre la WordPress.org.

Après avoir laissé un sursis à WP Engine en lui redonnant l’accès à WordPress.org jusqu’au 1ᵉʳ octobre, Matt Mullenweg a mis sa menace à exécution et les sites WordPress hébergés par WP Engine n’ont plus d’accès direct aux sources hébergées par WordPress.org depuis ce jour. L’entreprise a annoncé avoir déployé une solution.

☕️ #LIDD : les mégaconstellations sont-elles des bombes à retardement ?

Via le chercheur Irénée Régnauld qui salue le travail de cette chaine YouTube :

« L’effort est d’autant plus remarquable que cette chaîne suit aussi de près les développements en cours à la « Starbase » de Musk, et vise une communauté qui peine parfois à regarder avec critique l’industrie astronautique, et à mettre à distance son enthousiasme de principe. Ce travail de vulgarisation « sans œillères », expose factuellement à l’audience « la face cachée de leurs rêves ».

C’est aussi une des forces dans le milieu spatial : nul ne peut feindre le problème ni mettre à l’écart une nécessaire rigueur scientifique ».

Le Journal de l’Espace assume prendre là « un peu le contre-pied de [leurs] histoires habituelles », mais comme le dit Quentin Leicht (fondateur du Journal de l’Espace), « il serait mal honnête de nous voiler la face sur les conséquences de ce domaine qui nous passionne tous sur le Journal de l’Espace » :

IA : la déconstruction du mythe du « plus c’est gros, mieux c’est »

Tu sais ce qu'il te dit le cassis ?
IA :  la déconstruction du mythe du « plus c’est gros, mieux c’est »

Alors que Sam Altman a publié un billet promettant un avenir radieux grâce à une IA « requérant beaucoup d’énergie et de puces », les chercheuses Sasha Luccioni et Meredith Whittaker et leur collègue Gaël Varoquaux ont résumé les critiques d’une R&D de l’IA qui ne compte presque que sur l’augmentation de la puissance des machines pour avancer.

La semaine dernière, Sam Altman a publié un billet dans lequel il imagine un futur où le monde partage une « prospérité à un degré qui semble inimaginable aujourd’hui » et dans lequel « la vie de chacun pourra être meilleure que la vie actuelle de n’importe qui ». Ceci, évidemment, grâce à l’IA. Pour cela, affirme le CEO d’OpenAI, « nous devons réduire le coût du calcul et le rendre abondant (ce qui nécessite beaucoup d’énergie et de puces) ».

Mais il menace : « si nous ne construisons pas suffisamment d’infrastructures », donc si son industrie ne reçoit pas assez de financements, « l’IA sera une ressource très limitée qui fera l’objet de guerres et deviendra principalement un outil pour les riches ».

Dévitalisé de ses apparats prophétiques, ce discours s’inscrit dans une longue série de plaidoyers pour une Recherche & développement (R&D) de l’IA qui avancerait par de simples coups/coûts d’augmentation des performances des machines. Alors qu’on commence à connaître un peu mieux l’impact environnemental de l’IA générative, cette vision est dénoncée par trois chercheurs très connus dans le milieu : Sasha Luccioni qui travaille pour Hugging Face, Meredith Whittaker chercheuse à l’Université d’Australie-Occidentale mais aussi Présidente de la fondation Signal, et Gaël Varoquaux, chercheur à Inria.

Une prétendue corrélation vieille de 12 ans

Dans un article (un « position paper » titré « Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI ») mis en ligne sur arXiv deux jours avant la publication du billet de Sam Altman, ces trois chercheurs expliquent que cette idée s’est disséminée dans le milieu de l’IA depuis l’arrivée en 2012 d’une certaine architecture de réseau neuronal convolutif : « AlexNet a créé la recette de l’actuel paradigme « bigger-is-better » de l’IA, en combinant les GPU, les big data (du moins pour l’époque) et les approches s’appuyant sur les réseaux neuronaux à grande échelle ».


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Silicon Valley 1 - Hollywood 0
Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l’IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d’urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d’alertes.

Le projet de « loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle d’avant-garde » (ou SB 1047), a fait l’objet d’intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l’État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.

SB 1047 prévoyait d’imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l’État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n’était pas aussi complet que l’AI Act européen, mais posait quelques jalons de régulation.

Pour une régulation, mais pas celle-là

Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d’IA générative :

« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu’un système d’IA est déployé dans des environnements à haut risque, qu’il implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu’un grand système les déploie. Je ne pense pas qu’il s’agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.

Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l’innovation même qui alimente les progrès en faveur du bien public ».

« Nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d’une solution qui n’est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre l’évolution de la technologie elle-même ».

Les directions de startups de la Silicon Valley contre la loi

Alors qu’Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s’était positionnée contre, à l’instar d’OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu’un patchwork de lois étatiques.

Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l’entreprise, a d’ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.

Du côté d’Anthropic, après avoir critiqué la loi, l’entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts. Toutefois, nous n’en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s’était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l’IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d’autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu’utile à cette fin ».

Quelques têtes d’ingénieurs et de chercheurs qui dépassent

Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter des risques graves, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l’IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».

Hollywood pour une régulation, pour le bien de l’humanité

Du côté de Hollywood, 125 « grands noms » du milieu s’étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l’IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».

Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l’évaluation des menaces potentielles posées par l’utilisation de l’IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».

☕️ WordPress.org accorde un court sursis à WP Engine, l’accès sera de nouveau coupé demain

Dans un billet très corrosif publié sur le blog de WordPress.org vendredi 27 septembre, Matt Mullenweg explique avoir laissé un « sursis » à WP Engine : l’entreprise a encore accès aux ressources de wordpress.org jusqu’au 1er octobre. Mais dès demain 00:01 UTC (soit 2 h heure française), cet accès sera de nouveau coupé.

Le torchon brûle donc toujours dans l’écosystème commercial de WordPress. Matt Mullenweg, qui est à la fois le créateur du logiciel et le responsable de l’entreprise Automattic qui vend des prestations autour, en veut à WP Engine. Selon lui, son concurrent utilise la marque WordPress abusivement, ne contribue pas assez au projet et « profère des menaces juridiques » contre WordPress.org.

Matt Mullenweg explique faire cette concession après avoir entendu que les clients de WP Engine sont « frustrés » de cette situation.

Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

Modèle de Langage Sans Défaut ?
Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

L’entreprise de Redmond lance un outil appelé « Correction » censé identifier et proposer des réécritures de textes générés par des IA. Cet outil s’appuie lui aussi sur des modèles de langage. L’outil arrive tard, alors que le doute s’installe dans une partie des entreprises sur la confiance à accorder aux IA génératives.

Comme l’avoue maintenant Microsoft dans sa vidéo de promotion de son nouvel outil « Correction », « les « hallucinations » des IA peuvent avoir des conséquences sur la précision, la confiance de l’utilisateur et la crédibilité de votre application ».

Jusqu’à récemment, les entreprises d’IA génératives ont massivement diffusé ce genre d’outils sans se préoccuper de ces conséquences. Pourtant, ces « hallucinations » – ou plutôt des erreurs dans lesquelles le système produit du texte ou des images incohérents – étaient présentes depuis les débuts de l’utilisation publique des grands modèles.

Des rustines pour éviter les hallucinations

Ces entreprises commencent à proposer quelques rustines pour combler les erreurs de leurs modèles. Il semble aussi, alors que les milieux financiers parlent de plus en plus d’une bulle de l’IA, qu’elles doivent montrer aux investisseurs que leurs systèmes peuvent être améliorés. En juin, OpenAI annonçait son CriticGPT pour proposer des corrections sur des erreurs de code générées par GPT-4. Fin juin, Google a aussi proposé son propre système.

Ici, avec Correction, Microsoft assure pouvoir proposer un outil qui peut détecter et réécrire des contenus incorrects générés par n’importe quelle IA générative. « Il est essentiel de donner à nos clients les moyens de comprendre les contenus non fondés et les hallucinations et d’agir en conséquence, d’autant plus que la demande de fiabilité et d’exactitude des contenus générés par l’IA ne cesse d’augmenter », explique l’entreprise.

Microsoft propose cet outil aux utilisateurs de son API Azure AI Content Safety qui peuvent s’en servir sur du texte généré par n’importe quel modèle.

Interrogé par TechCrunch, Microsoft affirme que « Correction est alimenté par un nouveau processus d’utilisation de petits et grands modèles de langage pour aligner les sorties sur des documents donnés ». L’entreprise ajoute : « nous espérons que cette nouvelle fonctionnalité aidera les créateurs et les utilisateurs d’IA générative dans des domaines tels que la médecine, où les développeurs d’applications déterminent que la précision des réponses est d’une importance significative ».

Des modèles pour corriger d’autres modèles

Elle redirige aussi vers un article mis en ligne récemment par les chercheurs de Microsoft sur arXiv. Comme le remarque TechCrunch, « le document omet des détails essentiels, tels que les ensembles de données utilisés pour entrainer les modèles ».

Cet article propose un enchainement de deux modèles de langage pour analyser la phrase générée par le modèle testé. Le premier modèle de Correction, un petit modèle, va classer la phrase en tant qu’ « hallucination » ou pas. Si la phrase est catégorisée comme telle, un autre modèle, plus gros, est utilisé pour générer une explication de cette catégorisation. Si ce modèle considère que la phrase générée n’est pas une « hallucination », un mécanisme de retour d’information affine les résultats du premier modèle.

Le système de Microsoft, qui utilise la génération augmentée de récupération (RAG, retrieval-augmented generation), a besoin de s’appuyer sur un ensemble de documents donné par l’utilisateur comme « base de raisonnement ».

Les hallucinations sont intrinsèques aux modèles de langage

Interrogé par TechCrunch sur ce système, Os Keyes, doctorant à l’université de Washington, explique qu’ « essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau ».

Pour Mike Cook, chercheur à l’université Queen Mary, cette correction au fil de l’eau et sans transparence pourrait donner un faux sentiment de disparition des hallucinations. « Microsoft, comme OpenAI et Google, ont créé cette situation problématique dans laquelle on se fie aux modèles dans des scénarios où ils se trompent fréquemment » explique-t-il à TechCrunch. Mais pour Mike Cook, « Microsoft répète maintenant l’erreur à un niveau plus élevé. Disons que cela nous fait passer d’une sécurité de 90 % à une sécurité de 99 %le problème n’a jamais vraiment été dans ces 9 %. Il se situera toujours dans le 1 % d’erreurs que nous ne détectons pas encore ».

Une perte de confiance des clients

Problème pour Microsoft et ses concurrents, les « hallucinations » commencent à miner la confiance de leurs utilisateurs dans leurs nouveaux outils. Nos collègues de The Information expliquaient début septembre que certains clients de Microsoft n’utilisent plus l’IA d’Office censée les aider. Fin juillet, Business Insider racontait qu’une entreprise de l’industrie pharmaceutique a abandonné au bout de six mois son accord avec Microsoft concernant Copilot, car les outils proposés n’étaient pas assez performants pour justifier l’investissement.

Interrogés par le cabinet de KPMG, six responsables de la tech du Royaume-Uni sur dix considèrent que les hallucinations sont les plus gros problèmes lorsqu’on adopte des outils d’IA générative.

Le torchon brule dans l’écosystème commercial de WordPress

Next, un site propulsé par Wordpress ;)
Le torchon brule dans l’écosystème commercial de WordPress

Une bataille juridique s’est engagée entre deux des plus importants hébergeurs de sites WordPress : Automattic et WP Engine. Le premier accuse le second d’être rien de moins qu’un « cancer pour WordPress ». Jusque-là verbal, le conflit s’est récemment étendu puisqu’Automattic a décidé de bloquer l’accès de WordPress.org aux sites hébergés par son concurrent.

Le débat tourne, au départ, autour de l’utilisation de la marque WordPress, mais aussi des contributions plus ou moins importantes des protagonistes au logiciel libre qu’est WordPress.

Rappelons d’abord que WordPress doit son succès au fait d’être un logiciel libre distribué sous licence GNU GPL 2, mais aussi à l’existence d’une grande communauté qui propose une flopée d’extensions, notamment regroupées sur le site wordpress.org. Ce dernier est également le site de diffusion du code principal du logiciel ainsi que de son support.

Le projet a été créé en 2003 par Matt Mullenweg et Mike Little. Deux ans plus tard, le premier a créé l’entreprise Automattic qui héberge la plateforme commerciale de blogs wordpress.com s’appuyant sur le logiciel du même nom.

Les usages commerciaux de la marque gérée par Automattic

En 2006, Automattic a enregistré différentes marques autour du nom WordPress. Mais suite à des discussions dans la communauté, Matt Mullenweg a proposé de créer une fondation à laquelle Automattic a cédé les droits sur les marques. L’entreprise a gardé le droit d’utiliser WordPress.com pour elle-même. Matt Mullenweg a été autorisé à utiliser les noms WordPress.org et WordPress.net.

Automattic reste cependant le gestionnaire exclusif de la licence pour des usages commerciaux, explique la fondation qui gère, elle, les usages non-commerciaux.

WP Engine, un « cancer » pour WordPress ?

Et c’est sur cette question que Matt Mullenweg a publié un billet sur le site de wordpress.org pour affirmer que « WP Engine n’est pas WordPress » et critiquer l’utilisation de la marque par l’entreprise. Il accuse WP Engine de créer la confusion et d’en profiter financièrement :

« Ce que WP Engine vous donne n’est pas WordPress, c’est quelque chose qu’ils ont découpé, hacké, charcuté pour ressembler à WordPress, mais en fait ils vous donnent une contrefaçon bon marché et vous la font payer plus cher ».

Et il résume, de façon provocatrice : « c’est l’une des nombreuses raisons pour lesquelles ils sont un cancer pour WordPress, et il est important de se rappeler qu’en l’absence de contrôle, le cancer se propage ».

Escalade de menaces juridiques

WP Engine a d’abord répondu lundi 23 septembre que « les récentes attaques contre [eux] sont injustes et fausses et clairement conçues pour nuire à notre entreprise ». Elle affirmait que, depuis sa fondation en 2010, elle s’est consacrée « à faire progresser l’utilisation et l’adoption de WordPress en innovant, investissant et en s’impliquant activement dans la communauté ».

Mais l’entreprise a aussi répliqué légalement en envoyant une ordonnance de cessation et d’abstention à Automattic. Elle lui demande, ainsi qu’à son CEO Matt Mullenweg de « cesser de faire des déclarations fausses, nuisibles et désobligeantes à l’encontre de WP Engine et [de rétracter] ces déclarations ».

Automattic, dans la même journée (bien que l’information soit sortie mercredi), a envoyé sa propre ordonnance de cessation et d’abstention à WP Engine (PDF) lui demandant de « cesser immédiatement d’utiliser sans autorisation [ses] marques ».

Au passage, la fondation a changé sa page concernant l’utilisation des marques en ajoutant une remarque sur l’utilisation du terme « WP » :

« L’abréviation « WP » n’est pas couverte par les marques déposées de WordPress, mais ne l’utilisez pas d’une manière qui prête à confusion. Par exemple, de nombreuses personnes pensent que WP Engine est « WordPress Engine » et est officiellement associée à WordPress, ce qui n’est pas le cas. L’entreprise n’a jamais fait de don à la Fondation WordPress, bien qu’elle ait réalisé des milliards de dollars de revenus grâce à WordPress ».

Accès à WordPress.org coupé

Mais l’affaire est allée encore plus loin mercredi. Matt Mullenweg a revendiqué avoir coupé l’accès à wordpress.org pour tous les sites hébergés par WP Engine. Cette action a eu pour effet que les mises à jour de ces sites, qui s’appuyaient sur le site principal du projet, ont été bloquées :

This is absolutely insane and such a disgusting abuse of power by @photomatt. I have clients using @wpengine and now they can't easily install plugins or update themes. #WordPress https://t.co/UxdcGyCKLu pic.twitter.com/n60xV9xOje

— Dave Amirault (@ozskier) September 25, 2024

Dans son billet expliquant son action, Matt Mullenweg redirige les clients de WP Engine qui rencontrent ces problèmes vers le service support de l’entreprise. Il ajoute que tant que WP Engine menace juridiquement WordPress.org, l’entreprise « n’a plus d’accès gratuit aux ressources de WordPress.org ».

Pour lui, si « WP Engine veut contrôler votre expérience WordPress », « ils ont besoin de gérer leur propre système de connexion des utilisateurs, leurs serveurs de mise à jour, leur répertoire de plugins, leur répertoire de thèmes, leur répertoire de modèles, leur répertoire de blocs, leurs traductions, leur répertoire de photos, leur job board, leurs meetups, leurs conférences, leur bug tracker, leurs forums, leur Slack, leur Ping-o-matic, et leur showcase. Leurs serveurs ne peuvent plus accéder gratuitement à nos serveurs ».

Réagissant à cette annonce, WP Engine a tweeté que Matt Mullenweg « a abusé de son contrôle sur WordPress pour interférer avec l’accès des clients de WP Engine à WordPress.org, affirmant qu’il l’a fait parce que WP Engine a intenté une action en justice contre WordPress.org ». L’entreprise réfute en expliquant que son ordonnance de cessation et d’abstention « était une lettre – pas une action en justice – et était adressée à Automattic pour la tendance à la mauvaise conduite grave et répétée de Matt – un comportement qui doit cesser pour la santé et la stabilité de l’ensemble de la communauté ».

L’entreprise a d’abord publié un rapport expliquant la situation de blocage. Elle l’a ensuite mis à jour pour informer ses clients qu’elle avait trouvé une solution provisoire qui leur « permet d’effectuer des mises à jour de [leurs] plugins et thèmes comme [ils le feraient] normalement ».

☕️ Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Selon le média ukrainien Defense Express et repris par Newsweek, la Russie aurait installé des terminaux Starlink sur ses drones Shahed de conception iranienne.

L’armée ukrainienne a indiqué mercredi dernier avoir intercepté 28 des 32 drones Shahed-136 lancés par la Russie dans la nuit de mardi à mercredi. Defense Express affirme que l’un d’entre eux était équipé d’un terminal Starlink.

Interrogées par Newsweek, les forces ukrainiennes n’ont pas voulu aborder le sujet, confirmant seulement qu’elles analysaient les cibles abattues.

L’histoire ne dit pas si Starlink compte cette utilisation dans les 4 millions d’utilisateurs qu’elle a revendiqués récemment.

☕️ Explosion de bipeurs au Liban : la Norvège a lancé un avis de recherche international

Le média public norvégien NRK explique que la police criminelle norvégienne (Kripos) a lancé un avis de recherche international à propos d’une personne qui serait impliquée dans l’explosion des bipeurs au Liban. Celle-ci a causé au moins douze morts et près de 2 800 blessés et a été attribuée à Israël, qui ne l’a pas revendiquée.

Selon Reuters, la personne en question serait Rinson Jose, une personne de nationalité norvégienne. Il aurait disparu lors d’un voyage aux États-Unis la semaine dernière.

L’agence de presse explique qu’en 2022, il aurait ouvert une entreprise en Bulgarie qui serait impliquée dans la chaine d’approvisionnement des bipeurs. Les autorités bulgares ont enquêté, mais n’ont pas trouvé de preuve que les bipeurs en question ont été fabriqués ou exportés depuis leur pays.

Samedi dernier, le média indien The Hindu évoquait déjà une enquête de la police indienne sur Rinson Jose, originaire du pays, mais l’ayant quitté il y a une dizaine d’années.

Comme elles ne le considèrent plus comme Indien, les autorités du pays n’ont pas lancé d’action en justice ou d’enquête officielle contre lui.

☕️ La Russie bloque la base de données sur la censure OONI

L’Open Observatory of Network Interference est un projet de surveillance de la censure d’Internet au niveau mondial lancé en 2012 dans le cadre du projet Tor. Selon le billet de blog publié par l’organisation, la Russie a décidé le 11 septembre de bloquer une de ses plateformes : OONI Explorer.

Celle-ci rassemble énormément de données sur le blocage de différents sites sur des milliers de sous-réseaux dans 242 pays. Ces données sont récoltées par les internautes via l’application OONI Probe. « Parmi tous les pays, les utilisateurs d’OONI Probe en Russie contribuent au deuxième plus grand volume de mesures (après les États-Unis, où les utilisateurs d’OONI Probe contribuent au plus grand nombre de mesures parmi tous les pays) », explique l’organisation.

Elle ajoute : « cela nous a permis d’étudier différents cas de censure de l’internet en Russie, tels que le blocage de Tor, le blocage de sites web de médias indépendants et la manière dont la censure de l’internet en Russie a évolué au cours de la guerre en Ukraine ».

OONI explique avoir reçu un email du Service fédéral de supervision des communications, Roskomnadzor, l’informant de cette décision de blocage et notamment l’url de la page visée en question : https://explorer.ooni.org/ru/chart/circumvention.

Dans son billet, OONI remercie le Roskomnadzor de l’avoir informé, faisant remarquer que la Chine n’a pas cette délicatesse. L’organisation constate que cette url pointe « vers la traduction russe de notre tableau de bord sur le contournement de la censure ».

« Cette page ne comprend que des mesures sur l’accessibilité de trois outils de contournement (Psiphon, Tor, Tor Snowflake), et nous soulignons même que la présence d’anomalies dans les mesures n’est pas nécessairement indicative d’un blocage, car des faux positifs peuvent se produire. En attendant, le reste de la plateforme OONI Explorer fournit une mine de données sur de nombreuses autres formes de censure de l’internet en Russie et dans le monde », ajoute-t-elle.

Mais, si ce n’est que cette page qui est officiellement ciblée, OONI remarque qu’ « en pratique, toutefois, le blocage n’est pas aussi ciblé, car il n’est pas possible de le limiter à une page web spécifique lorsqu’un site web est hébergé sur HTTPS ». Résultat, tout le site explorer.ooni.org est inaccessible en Russie.

Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

Quelle surprise !
Après les JO, le préfet de Paris veut prolonger la vidéosurveillance algorithmique

Devant la Commission des lois, le préfet de police de Paris, Laurent Nuñez, s’est dit favorable à la reconduction de la vidéosurveillance algorithmique dans les rues de la capitale après avoir jugé « positif » le bilan de son expérimentation lors des Jeux olympiques et paralympiques, sans pour autant donner de chiffres précis.

Après l’expérimentation de la vidéosurveillance algorithmique autorisée au titre de l’organisation des Jeux olympiques et paralympique, le préfet de police de Paris, Laurent Nuñez a soutenu la reconduction du dispositif devant la commission des lois de l’Assemblée nationale ce mercredi 25 septembre, comme l’a repéré Le Monde, utilisant le fameux effet cliquet qui « empêche le retour en arrière d’un processus une fois un certain stade dépassé ».

« Le gouvernement vous présentera ou pas une reconduction, mais, à titre personnel, et ce sera la proposition que nous allons pousser, nous y sommes très favorables », a appuyé Laurent Nuñez face aux députés.


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Meta Llama 3.2 : du modèle multimodal à celui « de poche »

L’entreprise de Mark Zuckerberg a annoncé mercredi 25 septembre la sortie de la nouvelle version de sa famille de modèles de langage Llama.

Cette version 3.2, qui arrive seulement deux mois après la 3.1, est la première intégrant des modèles multimodaux (intégrant donc le traitement d’images) chez Meta. En l’occurrence, il s’agit des modèles 11B et 90B de la famille.

Mais cette famille est aussi composée de modèles beaucoup plus petits (1B et 3B), qui se concentrent seulement sur le traitement de textes. Ces modèles, conçus pour fonctionner sur des mobiles ou des appareils en « edge », pourraient être utilisés pour créer des fonctionnalités utilisant l’IA générative sans avoir à accéder à Internet.

Comme l’entreprise l’avait indiqué précédemment, ses modèles multimodaux (11B et 90B en l’occurrence) ne sont pas disponibles pour l’Europe. Elle évoquait « la nature imprévisible de l’environnement réglementaire européen » pour justifier sa décision tout en visant le RGPD qui a été voté il y a huit ans. Plus récemment, elle a écrit une lettre ouverte à l’Europe, évoquant un cadre règlementaire fragmenté et signée par de nombreuses entreprises.

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

OpenAI veut s’émanciper, alors que trois dirigeants quittent encore le navire

L’entreprise responsable de ChatGPT a un plan pour se rendre plus attractive pour les investisseurs : enlever tout pouvoir de contrôle à sa structure originelle et non lucrative. Par la même occasion, elle envisage de donner 7 % de participation à son CEO Sam Altman. Dans le même temps, trois nouveaux départs sont annoncés dans sa direction dont la CTO Mira Murati.

C’est un nouveau rebondissement dans la structure d’OpenAI. D’après des sources de l’agence de presse Reuters, le créateur de ChatGPT ferait en sorte de se passer du contrôle du conseil d’administration de sa structure à but non lucratif pour attirer plus facilement les investisseurs.

Cette structure non lucrative ne serait pas pour autant supprimée totalement et garderait une participation minoritaire dans l’entreprise, au risque qu’elle ne soit pas beaucoup plus qu’une coquille vide.

En juin dernier, le CEO Sam Altman envisageait déjà cette possibilité et en avait informé certains actionnaires de l’entreprise.

Changement radical comparé au projet initial

Cœur du projet OpenAI lancé 2015, la structure non lucrative montée par 11 personnes dont Elon Musk et Sam Altman étaient co-présidents, se donnait comme but de « faire progresser l’intelligence numérique de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans être contraints par la nécessité de générer un rendement financier ».

Elle a ensuite dérivé vers une fonction de contrôle des risques des IA créées par les ingénieurs et chercheurs du projet et vendues par la structure lucrative. Ce nouveau changement devrait donc avoir des conséquences sur la manière dont ces risques sont encadrés au sein d’OpenAI.

Néanmoins, dans un communiqué obtenu par Bloomberg, OpenAI affirme qu’elle reste « concentrée sur la construction d’une IA qui profite à tous » et assure que « l’organisation à but non lucratif est au cœur de [leur] mission et continuera d’exister » sans pour autant qu’on sache quel sera son rôle dans la nouvelle organisation.

Rappelons qu’en novembre 2023, lors d’une semaine de folie, Sam Altman avait été limogé d’OpenAI avant d’être réintégré, avec un nouveau conseil d’administration. Il lui avait fallu attendre mars dernier pour réintégrer ce CA.

7 % pour Altman…

Un autre changement important chez OpenAI pourrait venir. L’entreprise pense aussi donner pour la première fois une part au sein de son capital à son CEO, Sam Altman, expliquait toujours Reuters. Bloomberg parle de 7 % de l’entreprise, ce qui, au vu de la valorisation actuelle de l’entreprise à 150 milliards de dollars, équivaudrait à 10,5 milliards de dollars pour Sam Altman.

… et trois départs dans l’équipe de direction

Enfin, l’entreprise essuie, en parallèle, le départ de trois de ses responsables, dont sa CTO Mira Murati. Celle-ci a annoncé la nouvelle mercredi 25 septembre via un tweet dans lequel elle affirme se retirer « parce qu’ [elle voulait] se donner le temps et l’espace nécessaires » pour ses propres projets, sans s’appesantir sur d’autres raisons. Selon Reuters, elle reste pour l’instant au sein de l’entreprise en prenant le temps de négocier son départ. Dans un long tweet, Sam Altman a fait comprendre que Mira Murati ne l’avait prévenu que le matin même.

Rappelons que, lors de la fameuse semaine de novembre dernier, elle avait été brièvement nommée CEO par intérim avant de signer avec plus de 500 de ses collègues une lettre de soutien à Sam Altman.

Le vice-président Recherche de la structure, Barret Zoph, et le Chief Research Officer Bob McGrew, ont tous deux allongé la longue liste des responsables d’OpenAI qui ont décidé de partir récemment.

L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Excès d'Hetzel
L’ambigu rapport aux sciences du nouveau ministre de la Recherche, Patrick Hetzel

Député de droite (UMP puis LR) depuis 2012, le nouveau ministre de l’Enseignement supérieur et de la recherche (ESR), Patrick Hetzel s’intéresse aux questions couvertes par son ministère depuis son entrée en politique. Pourtant, il prend des positions en contradiction avec les connaissances scientifiques : hydroxychloroquine, homéopathie, « wokisme », vaccins, et dérives sectaires…

Succédant à Sylvie Retailleau qui aura passé deux ans au ministère de l’Enseignement supérieur et la recherche (ESR), Patrick Hetzel arrive dans un lieu qu’il connait. Lors de la passation de pouvoir ce lundi 23 septembre, cet enseignant-chercheur en sciences de gestion s’est dit « attaché à cette maison » qu’il avait déjà rejointe en 2008, alors sous la responsabilité de Valérie Pécresse.

Cerveau de la loi d’autonomie des universités

« Les politiques publiques en matière d’ESR et de sciences ne peuvent s’inscrire que dans la durée, il faut savoir rester modeste », ajoutait-il lors de cette passation. Il peut quand même revendiquer d’être le « cerveau » de la loi Libertés et responsabilités des universités (LRU, dite aussi loi d’autonomie des universités) en ayant jeté les bases dans un rapport rendu en 2006 au premier ministre d’alors, Dominique de Villepin. Elle est depuis devenue le socle de la politique universitaire de la droite française et n’a jamais été remise en question par les gouvernements qui se sont succédé.

Cette loi a transféré la responsabilité du budget et des ressources humaines des universités des mains de l’État à celles des directions d’établissements. Mais seize ans après son vote, Virginie Dupont, la vice-présidente du lobby des présidents d’universités France Universités, déplorait la semaine dernière qu’ « en 2022, 15 universités étaient en déficit sur leurs comptes financiers. En 2023, il y en avait 30. Pour 2024, il y en a 60 sur 74 qui ont voté un budget initial en déficit ».

Critique de la loi de programmation pour la recherche

En tant que député, Patrick Hetzel ne s’est pas éloigné des questions budgétaires de l’ESR. En 2020, lors du débat sur la loi de programmation pour la recherche (LPPR) pour 2021 à 2030, il dénonçait une « juxtaposition de mesures technocratiques […] qui ne rassemble pas, ne crée pas de vision partagée » et l’ « inexistence d’une vision stratégique ». Il dénonçait un problème de calendrier dans le budget de cette loi pluriannuelle étalée sur 10 ans et non sur 7 et demandait que la recherche française ait « des moyens conséquents dès à présent ».

Il devra pourtant, sans doute, défendre une baisse de ce budget, à moins que le gouvernement ne revienne fortement sur les pistes de dépenses prévues par son prédécesseur. En effet, selon le tiré à part finalement transmis au Parlement et obtenu par nos confrères de Politico la semaine dernière, le budget de l’Enseignement supérieur et de la recherche pourrait perdre 400 millions d’euros (ESR hors LPPR  :- 600 millions d’euros, ESR LPPR : 200 millions d’euros).

Lors de la passation de pouvoir avec Sylvie Retailleau, Patrick Hertzel a aussi rappelé son passage à l’office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) de 2017 à 2022, montrant son attachement au débat sur les questions scientifiques. Mais ce n’est pas parce qu’il est lui-même universitaire et passionné des questions de l’ESR qu’il en épouse les consensus scientifiques.

Des positions obscurantistes

Au contraire, sur certaines questions, le nouveau ministre de l’Enseignement supérieur et de la recherche a parfois pris des positions obscurantistes. Comme l’ont souligné nos confrères de Libération, plusieurs d’entre elles ont été exhumées récemment.

Le 2 avril 2020, par exemple, Patrick Hetzel avait demandé l’autorisation de l’utilisation de l’hydroxychloroquine de l’azithromycine et du Zinc « dans le traitement précoce du COVID et ceci jusqu’à ce que soient connus les résultats des essais cliniques en cours ». Sans aucune preuve d’efficacité à l’époque, le ministre de la Recherche actuel voulait donc autoriser des traitements qui ont depuis été invalidés. Dans cette lettre, comme le pointe Fabrice Frank sur Twitter, il accusait aussi de manière erronée (voir le travail de nos collègues de l’AFP) le Clonazépam, substance active de l’anticonvulsivant Rivotril servant à alléger les souffrances, d’avoir « mis fin » à la vie de patients.

Mi-2021, le nouveau ministre de l’ESR a aussi décrié l’obligation vaccinale en s’appuyant sur la non-finalisation des essais de « phase III ». Comme le rappelle Libération, le ministre de la Santé de l’époque, Olivier Véran s’était exaspéré :

« Ressortir les arguments sur un vaccin qui est en phase III, comme si c’était un vaccin [pour lequel il n’y a] pas de recul… je vous le dis, c’est votre droit parlementaire, [mais] je ne trouve pas ça très responsable. Le vaccin est éprouvé. […] On entend tout et n’importe quoi sur ce vaccin : regardez ce que dit la science, regardez ce que disent les données des laboratoires, les données des organismes publics français, européens, américains et internationaux sur ces vaccins ».

Pourtant, lors de la passation de pouvoir au ministère, Patrick Hetzel a regretté les manquements de l’industrie française en matière de vaccins : « nous avons été collectivement face à une frustration très grande lorsqu’en 2020 nous avons vu d’autres pays avancer sur l’élaboration de vaccins pour lutter à l’époque contre cette pandémie et de nous retrouver au sein du pays de Pasteur sans être en mesure de jouer dans cette cour des grands ».

Contre le déremboursement de l’homéopathie

En 2020, Patrick Hetzel a aussi voulu mettre des bâtons dans les roues du déremboursement de l’homéopathie en co-signant une proposition de loi proposant un moratoire de deux ans. Ce texte justifiait cette mesure par le besoin de continuer « les négociations des plans de sauvegarde de l’emploi des entreprises pharmaceutiques spécialisées dans la production de médicaments homéopathiques ».

En 2021, il faisait aussi partie des députés proposant « l’insertion des médecines complémentaires et plus spécifiquement des médicaments non-conventionnels au sein des nomenclatures de l’assurance maladie » qui « permettrait donc de mieux orienter les patients ». Ce processus de déremboursement avait pourtant été initié suite à la publication en 2018 dans le Figaro d’une tribune de 124 professionnels de la santé.

Comme l’indique l’Express, le nouveau ministre s’est aussi récemment opposé à la loi contre les dérives sectaires.

Patrick Hetzel s’est aussi illustré en signant une proposition de résolution proposant la création d’une commission d’enquête « relative à l’entrisme idéologique et aux dérives islamo-gauchistes dans l’enseignement supérieur ». Ce texte reprochait notamment à ses désormais prédécesseures Frédérique Vidal et Sylvie Retailleau d’avoir renoncé à la commande d’un rapport au CNRS sur le « wokisme » à l’université : « l’impuissance politique n’est pas acceptable et le renoncement n’est pas une option », dénonçait-il.

Enfin, sur les questions de numérique et d’IA, qui intéressent plus particulièrement Next et dont il assure de façon inhabituelle la tutelle du secrétariat d’État, Patrick Hetzel semble laisser pour l’instant le dossier complet à Clara Chappaz, n’abordant le sujet dans son discours de passation qu’en le qualifiant de « domaine passionnant ».

Entre fermer et partager le code, est-ce « fair » ?

Entre fermer et partager le code, est-ce « fair » ?

Dans le domaine du logiciel libre, la licence d’ouverture du code peut rapidement faire débat. Rejetées par ce milieu qui considère que leurs logiciels ne sont pas assez libres pour être qualifiés d’ « open », des startups comme Sentry poussent un nouveau terme : « fair source ».

Mise à jour mardi 24 septembre, 10h50 : ajout de la réaction de l’April en fin d’article.

Est-ce qu’un logiciel peut être équitable ? Et qu’est ce que ça veut dire ? Après avoir vu fleurir dans nos magasins des produits « fair trade », va-t-on voir nos logiciels s’afficher « fair source » ? Les histoires de licences dans le logiciel sont toujours délicates.

C’est en tout cas cette expression, « fair source », que certaines startups comme Sentry ou Keygen utilisent pour qualifier leur logiciel. Dans un billet de blog, Sentry, startup qui était valorisée à plus de 3 milliards de dollars en 2022, donne sa définition du terme :

« Un logiciel « Fair source » est un logiciel qui :

  • est lisible publiquement ;
  • permet l’utilisation, la modification et la redistribution avec un minimum de restrictions afin de protéger le modèle commercial du producteur ;
  • et fait l’objet d’une publication Open Source différée (delayed Open Source publication, DOSP) »

L’entreprise cite plusieurs licences qui seraient compatibles avec cette définition. La sienne en première, la Functional Source License (FSL), évidemment, mais aussi la Core License de Keygen et la Business Source License (BSL) de MariaDB.

La FSL, par exemple, convertit automatiquement au bout de deux ans le code publié vers une licence libre Apache 2.0 ou MIT et revendique d’éviter le phénomène du « passager clandestin » (le renvoi vers la page Wikipédia est fait par Sentry sur le site de la licence).

Réponse à un bad buzz de l’année dernière

Sentry est une entreprise qui propose des logiciels de monitoring de code et de diagnostic de bugs. Son logiciel phare, comme l’explique TechCrunch, est notamment utilisé par des entreprises comme Microsoft et Disney. En 2019, elle en a changé sa licence en passant de la 3-Clause BSD à BSL créée par MariaDB.

Sentry a aussi racheté Codecov fin 2022 et, en aout 2023, a utilisé le terme d’ « open source » pour qualifier son code qui était sous Business Source License aussi, récoltant les critiques de la communauté car cette licence n’est pas approuvée par l’Open Source Initiative (OSI). Adam Jacob, créateur du logiciel libre Chef, a suggéré que les entreprises qui voulaient utiliser des licences comme BSL s’associent pour créer une « confédération informelle » d’utilisateurs de licences avec des clauses évitant la concurrence. C’est en le prenant au mot que Sentry propose le terme de « fair source » et sa définition.

Sentry justifie son choix de ne pas utiliser une licence libre. « L’open source n’est pas un modèle commercial – l’open source est un modèle de distribution, c’est avant tout un modèle de développement de logiciels », affirme le responsable « open source » de l’entreprise, Chad Whitacre, à TechCrunch. « De fait, elle limite considérablement les modèles économiques possibles, à cause des conditions de licence », ajoute-t-il.

Le danger de la confusion ?

Mais introduire un nouveau terme peut parfois ajouter de la confusion. Caricaturalement, lorsqu’on demande à Deepl la traduction de « fair source », le service traduit le terme par « logiciel libre ».

Amanda Brock, CEO d’OpenUK, répondait en mai dernier à Adam Jacob qu’il n’y avait pas besoin de compliquer les choses et expliquait que ce que qualifie Sentry de « fair code », « c’est n’importe quelle licence non approuvée par l’OSI qui partage la source ». On peut aussi se poser la question de l’utilisation du terme « fair ». Un code qui n’est pas dans une licence « fair code » serait-il injuste ?

Interrogé par Next, le lobby des entreprises du logiciel libre CNLL, nous fait part de son attachement « aux définitions précises de l’OSI (pour « open source ») et de la Free Software Foundation (pour le « logiciel libre »), tout en notant qu’elles varient justement dans leur degré de précision et la latitude qu’elles laissent à l’interprétation » dont il considère les définitions comme équivalentes « en pratique ».

Pour son co-président, Stéphane Fermigier, « des acteurs qui appartiennent à l’écosystème open source / du logiciel libre peuvent effectivement proposer des définitions différentes qui répondent à leur besoin de créer des licences spécifiques à leur business ou alors leurs choix éthiques. Pour moi il n’y a pas de mal à cela tant que cela ne crée aucun risque de confusion. De ce point de vue, « Fair Source » semble respecter ce principe qui me semble fondamental, à condition que personne n’aille impliquer qu’il s’agit de la nouvelle définition de l’open source, par exemple. Il est possible que de nombreux éditeurs open source adoptent cette définition et l’une des nouvelles licences qui la respectent, ce qui aura forcément un impact négatif sur l’écosystème open source « strict » et probablement aussi pourrait engendrer une érosion de la marque « open source » (ou « logiciel libre ») ».

De son côté, interrogée par Next, l’April affirme que « l’objectif de Fair Source est de légitimer, de rendre honorable, une politique de licence rejetée notamment par la Free Software Foundation et l’Open Source Initiative, en lui trouvant une famille d’adoption. Celle-ci n’existant pas, les éditeurs l’ont créée de toutes pièces et ont même trouvé une bannière – Fair Source – qui entretient la confusion (comme à la grande époque du programme « shared source » de Microsoft, même si les licences Fair Source sont bien moins toxiques que les licences de Microsoft) ». Elle rajoute que « Fair Source relève de la pure campagne de communication, qui durera jusqu’à ce que le terme revête une connotation péjorative ».

IA : un impact environnemental conséquent mais toujours difficile à mesurer

IA : un impact environnemental conséquent mais toujours difficile à mesurer

Trois chercheuses de la plateforme d’hébergement de projets d’IA Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont rassemblé les connaissances disponibles actuellement à propos de l’impact de l’IA sur l’environnement. Elles constatent encore trop peu de transparence sur les besoins énergétiques de chaque application d’IA, elles parcourent l’ensemble des connaissances actuellement disponibles.

La question de la consommation d’énergie de l’IA, et donc de son impact sur l’environnement, n’est généralement pas le premier problème sur lequel les entreprises d’IA sont les plus prolixes. Elles parlent plus volontiers des éventuels « risques existentiels » que leurs outils pourraient, un jour, provoquer.

Des estimations à revoir

Et quand elles en parlent, elles sous-estiment leurs émissions : d’après une étude du Guardian, « de 2020 à 2022, les émissions réelles des centres de données internes ou appartenant aux entreprises Google, Microsoft, Meta et Apple sont probablement environ 662 % – ou 7,62 fois – plus élevées que ce qui est officiellement déclaré ».

Le journal britannique explique que ces entreprises « comptent de façon créative » leurs émissions de CO2 notamment en comptabilisant les « certificats d’énergie renouvelable » (Renewable energy certificates, REC) qu’elles achètent. Elles font donc des estimations « basées sur le marché ». Mais, le Guardian explique qu’en faisant des estimations des émissions basées sur le lieu où sont réellement les centres de données, les chiffres explosent.

Le journal s’appuie notamment sur l’avis de Jay Dietrich, du consortium d’entreprise Uptime Institute qui travaille sur l’efficacité des centres de traitement de données. Selon lui, les estimations « basées sur la localisation donnent une image précise des émissions associées à l’énergie réellement consommée pour faire fonctionner le centre de données. Et Uptime estime qu’il s’agit de la bonne mesure ».

Si ces entreprises ne livrent pas les données les plus utiles pour mesurer les émissions de CO2 liées à leurs centres de données en général, elles donnent encore moins d’information quand il s’agit de parler spécifiquement de la consommation de l’IA.

Pour cela, il faut plutôt compter sur d’autres acteurs qui essayent d’évaluer tout ça. En l’occurrence des chercheuses de la startup franco-américaine Hugging Face. Début septembre, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont publié sur le blog de l’entreprise un long récapitulatif de ce qu’on sait sur les conséquences environnementales de l’IA et des politiques actuellement mises en place à travers le monde à ce propos.

Elles expliquent qu’ « il peut être difficile de comprendre l’ampleur de l’impact de l’IA sur l’environnement étant donné la séparation entre l’endroit où vous interagissez avec un système d’IA et la manière dont cette interaction s’est faite – la plupart des modèles d’IA fonctionnent dans des centres de données qui sont physiquement situés loin de leurs utilisateurs, qui n’interagissent qu’avec leurs résultats ».

Mais, elles affirment que « la réalité est que les capacités impressionnantes de l’IA ont un coût substantiel en termes de ressources naturelles, y compris l’énergie, l’eau et les minéraux, et des quantités non négligeables d’émissions de gaz à effet de serre ».

Une consommation importante signalée dès 2020

Elles rappellent que, dès 2020, la chercheuse du laboratoire Facebook AI Research Emma Strubell et deux de ses collègues de l’Université du Massachusetts Amherst montraient que l’entrainement d’un grand modèle de langage de 213 millions de paramètres était responsable de 284 tonnes de CO2.

Sasha Luccioni travaille depuis pas mal de temps sur le sujet et est citée, cette année, pour cette raison parmi les 100 personnalités importantes de l’IA par le magazine américain Time. Elle a notamment évalué les émissions de CO2 du grand modèle de langage BLOOM. Celui-ci est, depuis l’exposition des modèles de langage dans le grand public, l’un des seuls à respecter les critères de l’open science, ce qui permet d’avoir beaucoup d’informations et de travailler sereinement sur sa consommation.

Les plus consommateurs : les images et la génération de contenus

Avec ses collègues, elle a montré que ce modèle de 176 milliards de paramètres, déployé sur le cloud de Google et ayant reçu 230 768 requêtes pendant 18 jours, a consommé 40,32 kWh par jour et, « compte tenu du mix énergétique utilisé par l’instance informatique », émettait environ 19 kg de CO2eq par jour, expliquent-elles dans leur billet de blog. D’après les trois chercheuses, on peut considérer que ce chiffre reflète ce que consommait un modèle d’IA déployé à la pointe des connaissances en 2023.

Une autre étude, publiée en 2024 encore par Sasha Luccioni et ses collègues, montrent que les modèles de langage consomment plus quand ils sont utilisés sur des images ou quand on leur demande de générer des nouveaux contenus (plutôt que, par exemple, résumer un texte).

Une requête ChatGPT de 6 à 10 fois supérieure à celle d’une recherche traditionnelle

Si on connait quelques bases sur la consommation de l’IA génératives grâce à ces études, les chercheuses de Hugging Face insistent : « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA, bien que, selon une estimation récente, la quantité d’énergie utilisée pour une requête ChatGPT soit de 6 à 10 fois supérieure à celle d’une recherche traditionnelle sur le web (0,3 Wh contre 2,9 Wh) », en citant une analyse (PDF) du cabinet Goldman Sachs.

Un besoin de consensus sur la définition de l’IA et de transparence

Elles expliquent que pour avoir une vue d’ensemble de l’impact environnemental de l’IA, « nous avons besoin à la fois d’un consensus sur ce qu’il faut considérer comme faisant partie de l' »IA », et de beaucoup plus de transparence et d’informations de la part des entreprises impliquées dans la création de l’IA ».

Elles rappellent d’ailleurs que l’IA n’est pas uniquement le machine learning, mais désigne aussi les systèmes experts. Le flou qui constitue sa définition en entraine un autre dans la définition de sa consommation. « L’élément central de ce défi est le fait que l’IA est souvent une partie, et non la totalité, d’un système donné – par exemple, les appareils intelligents, les véhicules autonomes, les systèmes de recommandation, la recherche sur le web, etc », expliquent-elles.

Elles rappellent aussi qu’on ne possède que peu ou pas d’informations sur les émissions intrinsèques de la fabrication de matériel informatique, la consommation de carbone de l’infrastructure utilisée par l’IA elle-même, les effets de rebond et conséquences involontaires, les émissions qui sont émises par d’autres technologies qui se développent grâce à l’IA et enfin les atteintes à l’écosystème.

L’Europe première régulatrice, le projet de loi états-unien arrive

Dans le trio d’analystes de Hugging Face, la juriste Bruna Trevelin a plutôt dû collaborer à la dernière partie, celle sur l’analyse des régulations mises en place à travers le monde.

Le fait que cette analyse commence par l’Europe n’est pas anodin. Elles soulignent l’existence du « Green deal » qui fixe des objectifs juridiquement contraignants pour la neutralité carbone d’ici 2050. « Les systèmes d’IA utilisés dans la gestion de l’énergie, les réseaux intelligents et la surveillance de l’environnement devront être conformes à cette loi », expliquent-elles. Elles comptent aussi sur la directive européenne relative à l’efficacité énergétique pour quantifier et réguler la consommation d’eau.

Elles rappellent que l’AI Act impose « que les fournisseurs de modèles d’IA à usage général (IAG) doivent spécifiquement partager la consommation d’énergie connue ou estimée de leurs modèles ».

Il prévoit aussi « que les systèmes d’IA à haut risque rendent compte des performances en matière de ressources, telles que la consommation d’énergie et d' »autres ressources » au cours du cycle de vie des systèmes d’IA, qui pourraient inclure l’eau et les minéraux en fonction du niveau de détail des normes qui guideront le respect de cette obligation de rendre compte ».

De l’autre côté de l’Atlantique, « le décret sur le développement et l’utilisation sûrs, sécurisés et dignes de confiance de l’intelligence artificielle publié par la Maison Blanche en octobre 2023, bien que très complet à d’autres égards, n’aborde pas directement les impacts environnementaux des modèles d’IA, bien qu’il mentionne le développement d’applications de l’IA positives pour le climat » déplorent-elles.

Mais, si les États-Unis sont en retard par rapport à l’UE sur le sujet, l’Artificial Intelligence Environmental Impacts Act est actuellement en cours d’examen. Il serait « la première pierre d’une législation qui traite de ce sujet ». Joe Biden a récemment essayé de reprendre la main sur le sujet en demandant aux différentes agences fédérales d’accélérer l’évaluation des projets d’énergie « propre ».

Les trois chercheuses de Hugging Face citent aussi les initiatives de l’Espagne, du Canada et la feuille de route intelligence artificielle et transition écologique de la France.

❌