Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Br...Hetzel attack on Wiki
Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Alors que plusieurs portraits du nouveau ministre de l’Enseignement supérieur et de la recherche ont été publiés dans la presse après sa nomination, le cabinet de Patrick Hetzel a essayé de supprimer les passages de sa page Wikipédia qui y faisaient référence. L’Express a retrouvé l’identité de la personne qui a tenté de les caviarder.

Comme nous l’avions noté le lendemain de sa nomination, le ministre de l’Enseignement supérieur et de la recherche, Patrick Hetzel, a un rapport ambigu aux sciences. Les portraits le concernant publiés dans la presse suite à sa nomination et rappelant ses quelques déclarations problématiques semblent ne pas avoir plu à son cabinet.

Il arrive régulièrement que des cabinets de personnalités politiques trafiquent les pages Wikipédia de leur responsable pour purger les références gênantes, ou que l’encyclopédie en ligne reçoive des menaces d’un service de renseignement. Ou encore qu’une société d’intelligence économique caviarde des dizaines de pages.

Le cabinet de Patrick Hetzel a voulu faire de même, révèle notre confrère de l’Express, Victor Garcia. Il a remonté les traces d’un compte utilisateur de Wikipédia nommé Sj87420, créé vendredi 27 septembre (soit trois jours après la nomination de Patrick Hetzel) et ayant immédiatement multiplié les modifications sur la page Wikipédia de Patrick Hetzel.

Modifications détectées par les alertes automatiques de Wikipédia

« Pas moins de six alertes automatiques « anti-abus » et « anti-erreur » de Wikipédia » ont été déclenchées entre 10h01 et 10h08 ce jour-là, raconte notre confrère. Ces alertes ont bloqué automatiquement les modifications après avoir détecté des « potentiels caviardages récurrents », des « suppressions de section » et des « suppressions massives par un nouvel utilisateur ».

Mais Sj87420 a, pour un temps, réussi à supprimer l’intégralité de la partie « Controverses sur son rapport à la science » de la page. Il a expliqué son action par le fait que cette section serait « polémique, injurieuse et diffamatoire ». Celle-ci avait été rédigée en faisant référence à des articles de Libération, L’Express, La Voix du Nord, Marianne, Le Quotidien du médecin ou encore de Next (lien qui n’a pas été ajouté par notre rédaction).

L’Express explique que Sj87420 est revenu sur la page du ministre trois jours après. Cette fois, c’était pour ajouter « deux nouveaux paragraphes élogieux » qui se fondent sur un article du Parisien. Cet ajout a été retoqué par les modérateurs de l’encyclopédie.

Un compte au pseudo assez transparent

Victor Garcia a réussi, avec l’aide d’internautes, à identifier la personne derrière le compte Sj87420 avec les initiales de l’intéressée et le code postal de son domicile. Sandrine Javelaud, nommée récemment directrice adjointe du cabinet de Patrick Hetzel, lui a confirmé être intervenue sur cette page et se défend d’avoir voulu cacher son identité : « si j’avais voulu me masquer, j’aurais pris un pseudonyme comme Pimprenelle et n’aurais jamais avoué ».

À notre collègue, Sandrine Javelaud assure que, pour elle, « ce ne sont pas les articles qui sont diffamatoires, mais la manière dont les sources sont reprises et présentées, alors qu’on connaît la portée d’une page Wikipédia ». « On parle d’un tweet d’avril 2020, alors qu’il n’y avait ni masque, ni test, ni vaccin. Il aurait pu supprimer son tweet, ce que beaucoup d’autres ont fait, mais pas lui », a-t-elle ajouté.

La collaboratrice du ministre reproche quand même à Libération d’avoir « fait un procès en sorcellerie » et à L’Express d’avoir « publié un article sans demander l’avis du ministre ». Notre confrère précise que son média a pourtant sollicité la permanence parlementaire de Patrick Hetzel, sans obtenir de réponse.

Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Br...Hetzel attack on Wiki
Quand le cabinet de Patrick Hetzel tente de nettoyer sa page Wikipédia

Alors que plusieurs portraits du nouveau ministre de l’Enseignement supérieur et de la recherche ont été publiés dans la presse après sa nomination, le cabinet de Patrick Hetzel a essayé de supprimer les passages de sa page Wikipédia qui y faisaient référence. L’Express a retrouvé l’identité de la personne qui a tenté de les caviarder.

Comme nous l’avions noté le lendemain de sa nomination, le ministre de l’Enseignement supérieur et de la recherche, Patrick Hetzel, a un rapport ambigu aux sciences. Les portraits le concernant publiés dans la presse suite à sa nomination et rappelant ses quelques déclarations problématiques semblent ne pas avoir plu à son cabinet.

Il arrive régulièrement que des cabinets de personnalités politiques trafiquent les pages Wikipédia de leur responsable pour purger les références gênantes, ou que l’encyclopédie en ligne reçoive des menaces d’un service de renseignement. Ou encore qu’une société d’intelligence économique caviarde des dizaines de pages.

Le cabinet de Patrick Hetzel a voulu faire de même, révèle notre confrère de l’Express, Victor Garcia. Il a remonté les traces d’un compte utilisateur de Wikipédia nommé Sj87420, créé vendredi 27 septembre (soit trois jours après la nomination de Patrick Hetzel) et ayant immédiatement multiplié les modifications sur la page Wikipédia de Patrick Hetzel.

Modifications détectées par les alertes automatiques de Wikipédia

« Pas moins de six alertes automatiques « anti-abus » et « anti-erreur » de Wikipédia » ont été déclenchées entre 10h01 et 10h08 ce jour-là, raconte notre confrère. Ces alertes ont bloqué automatiquement les modifications après avoir détecté des « potentiels caviardages récurrents », des « suppressions de section » et des « suppressions massives par un nouvel utilisateur ».

Mais Sj87420 a, pour un temps, réussi à supprimer l’intégralité de la partie « Controverses sur son rapport à la science » de la page. Il a expliqué son action par le fait que cette section serait « polémique, injurieuse et diffamatoire ». Celle-ci avait été rédigée en faisant référence à des articles de Libération, L’Express, La Voix du Nord, Marianne, Le Quotidien du médecin ou encore de Next (lien qui n’a pas été ajouté par notre rédaction).

L’Express explique que Sj87420 est revenu sur la page du ministre trois jours après. Cette fois, c’était pour ajouter « deux nouveaux paragraphes élogieux » qui se fondent sur un article du Parisien. Cet ajout a été retoqué par les modérateurs de l’encyclopédie.

Un compte au pseudo assez transparent

Victor Garcia a réussi, avec l’aide d’internautes, à identifier la personne derrière le compte Sj87420 avec les initiales de l’intéressée et le code postal de son domicile. Sandrine Javelaud, nommée récemment directrice adjointe du cabinet de Patrick Hetzel, lui a confirmé être intervenue sur cette page et se défend d’avoir voulu cacher son identité : « si j’avais voulu me masquer, j’aurais pris un pseudonyme comme Pimprenelle et n’aurais jamais avoué ».

À notre collègue, Sandrine Javelaud assure que, pour elle, « ce ne sont pas les articles qui sont diffamatoires, mais la manière dont les sources sont reprises et présentées, alors qu’on connaît la portée d’une page Wikipédia ». « On parle d’un tweet d’avril 2020, alors qu’il n’y avait ni masque, ni test, ni vaccin. Il aurait pu supprimer son tweet, ce que beaucoup d’autres ont fait, mais pas lui », a-t-elle ajouté.

La collaboratrice du ministre reproche quand même à Libération d’avoir « fait un procès en sorcellerie » et à L’Express d’avoir « publié un article sans demander l’avis du ministre ». Notre confrère précise que son média a pourtant sollicité la permanence parlementaire de Patrick Hetzel, sans obtenir de réponse.

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Après avoir entretenu le flou, Meta confirme se permettre l’utilisation des données des utilisateurs des lunettes « intelligentes » Ray-Ban nord-américains pour entrainer ses IA, dès qu’ils activent les fonctionnalités d’IA de leurs lunettes. Pour les utilisateurs européens, il reste des zones d’ombre, mais, tant que Meta ne décide pas d’utiliser ses modèles multimodaux dans la zone couverte par le RGPD, ses lunettes ne devraient pas pouvoir bénéficier de cette fonctionnalité.

Fin septembre, lors du Meta Connect 2024, Meta a présenté ses différentes nouveautés liées aux divers casques et lunettes. L’entreprise y expliquait qu’elle apportait aux lunettes développées en coopération avec Ray-Ban diverses nouveautés avec, comme pour tout produit numérique actuel ou presque, une bonne dose d’IA : traduction en direct des langues, traitement vidéo en temps réel, gestion des rappels, reconnaissance des codes QR, intégration avec Amazon Music, iHeartRadio et Audible…

Comme nous l’évoquions, l’analyse de l’image permet à l’utilisateur de poser des questions sur ce qu’il voit.

Les données des utilisateurs nord-américains utilisées

Mais, comme pour tous les usages commerciaux de deep learning (dont les grands modèles de langage utilisés dans les IA génératives), une question vient rapidement : est-ce que l’entreprise utilise en retour les données de ses utilisateurs pour entrainer ses IA ?

Concernant les utilisateurs nord-américains, la réponse est maintenant claire suite à la demande de nos collègues de TechCrunch : le média américain résume ça d’un « en bref, toute image que vous partagez avec Meta AI peut être utilisée pour entraîner son IA ».

Meta leur a répondu dans un mail que « dans les pays où l’IA multimodale est disponible (actuellement les États-Unis et le Canada), les images et les vidéos partagées avec Meta AI peuvent être utilisées pour l’améliorer conformément à notre politique de confidentialité ».

L’entreprise avait expliqué dans un autre mail que les photos et vidéos capturées avec les Ray-Ban Meta ne seraient pas utilisées tant que l’utilisateur ne les soumet pas à l’IA.

Comme le soulignent nos collègues, « la seule façon de se désengager (opt-out) est de ne pas utiliser les fonctions d’IA multimodale de Meta ». Et ils insistent sur le problème :

« les implications sont préoccupantes, car les utilisateurs de Ray-Ban Meta peuvent ne pas comprendre qu’ils donnent à Meta des tonnes d’images – montrant par exemple l’intérieur de leur maison, leurs proches ou leurs dossiers personnels – pour entraîner ses nouveaux modèles d’IA ».

L’entreprise pointe aussi à nos collègues que l’information se trouve dans les Conditions de service relatives à Meta AI : « une fois le partage effectué, vous acceptez que Meta analyse ces images, y compris les caractéristiques faciales, à l’aide d’une IA ».

Le RGPD qui bloque en Europe

Concernant les utilisateurs européens des Ray-Ban Meta, nous restons plus dans le flou. Ces mêmes Conditions de service relatives à Meta AI disent un peu avant qu’ « en fonction du lieu où vous vous trouvez, vous aurez peut-être la possibilité de partager des images avec les IA ».

Ce texte n’est précis à ce sujet que concernant les images d’individus qui résident dans deux états américains : « vous acceptez également de ne pas importer sur Meta AI d’images dont vous savez qu’elles incluent des individus qui résident en Illinois ou au Texas, à moins que vous ne soyez leur représentant légalement agréé et que vous n’y consentiez en leur nom ».

Mais, comme l’expliquait Axios en juillet dernier, Meta a décidé de ne pas utiliser ou distribuer ses modèles multimodaux en Europe pour l’instant. Et ce média précisait que l’IA utilisée par Meta dans les Ray-Ban se baserait particulièrement sur ces modèles.

L’entreprise évoquait « la nature imprévisible de l’environnement réglementaire européen » pour expliquer sa décision. Pourtant, elle visait le RGPD, texte adopté il y a maintenant huit ans et non des textes plus récents comme l’AI Act. Mais c’est ce texte qui a bloqué l’utilisation par Meta des données des utilisateurs de Facebook et Instagram pour entrainer ses IA. Meta met donc la pression sur l’Europe.

D’ailleurs, même si Meta ne prévoit donc pas tout de suite d’activer l’IA sur les lunettes Ray-Ban en Europe, elle a déjà mis à jour la version franco-française (fr-fr) de son « avis de confidentialité relatif aux commandes vocales » concernant ces « lunettes intelligentes Ray-Ban Meta ».

Dans celui-ci, l’entreprise prévoit déjà qu’ « en fonction de vos paramètres, nous pouvons également utiliser les transcriptions et les enregistrements stockés de vos interactions vocales ainsi que les données associées à celles-ci pour améliorer les produits de Meta. Lorsque le stockage des interactions vocales visant à améliorer les produits est activé, nous utilisons le machine learning et des examinateur·ices qualifié·es pour traiter les informations afin d’améliorer, de dépanner et d’entraîner les produits de Meta ».

Cet avis affirme aussi que « le stockage de vos interactions vocales permet aux produits de Meta d’améliorer le traitement de vos demandes et de répondre à un large éventail d’échantillons vocaux, d’expressions, de dialectes locaux et d’accents. Par exemple, si des personnes parlent un dialecte régional et activent le stockage de leurs interactions vocales, cela permettra aux produits de Meta de mieux comprendre les demandes des personnes parlant ce dialecte et d’y répondre plus précisément ».

Contactée par nos soins, l’entreprise n’a pas encore répondu à notre sollicitation pour plus d’éclaircissements.

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Meta se permet d’utiliser les données des lunettes « intelligentes » Ray-Ban

Après avoir entretenu le flou, Meta confirme se permettre l’utilisation des données des utilisateurs des lunettes « intelligentes » Ray-Ban nord-américains pour entrainer ses IA, dès qu’ils activent les fonctionnalités d’IA de leurs lunettes. Pour les utilisateurs européens, il reste des zones d’ombre, mais, tant que Meta ne décide pas d’utiliser ses modèles multimodaux dans la zone couverte par le RGPD, ses lunettes ne devraient pas pouvoir bénéficier de cette fonctionnalité.

Fin septembre, lors du Meta Connect 2024, Meta a présenté ses différentes nouveautés liées aux divers casques et lunettes. L’entreprise y expliquait qu’elle apportait aux lunettes développées en coopération avec Ray-Ban diverses nouveautés avec, comme pour tout produit numérique actuel ou presque, une bonne dose d’IA : traduction en direct des langues, traitement vidéo en temps réel, gestion des rappels, reconnaissance des codes QR, intégration avec Amazon Music, iHeartRadio et Audible…

Comme nous l’évoquions, l’analyse de l’image permet à l’utilisateur de poser des questions sur ce qu’il voit.

Les données des utilisateurs nord-américains utilisées

Mais, comme pour tous les usages commerciaux de deep learning (dont les grands modèles de langage utilisés dans les IA génératives), une question vient rapidement : est-ce que l’entreprise utilise en retour les données de ses utilisateurs pour entrainer ses IA ?

Concernant les utilisateurs nord-américains, la réponse est maintenant claire suite à la demande de nos collègues de TechCrunch : le média américain résume ça d’un « en bref, toute image que vous partagez avec Meta AI peut être utilisée pour entraîner son IA ».

Meta leur a répondu dans un mail que « dans les pays où l’IA multimodale est disponible (actuellement les États-Unis et le Canada), les images et les vidéos partagées avec Meta AI peuvent être utilisées pour l’améliorer conformément à notre politique de confidentialité ».

L’entreprise avait expliqué dans un autre mail que les photos et vidéos capturées avec les Ray-Ban Meta ne seraient pas utilisées tant que l’utilisateur ne les soumet pas à l’IA.

Comme le soulignent nos collègues, « la seule façon de se désengager (opt-out) est de ne pas utiliser les fonctions d’IA multimodale de Meta ». Et ils insistent sur le problème :

« les implications sont préoccupantes, car les utilisateurs de Ray-Ban Meta peuvent ne pas comprendre qu’ils donnent à Meta des tonnes d’images – montrant par exemple l’intérieur de leur maison, leurs proches ou leurs dossiers personnels – pour entraîner ses nouveaux modèles d’IA ».

L’entreprise pointe aussi à nos collègues que l’information se trouve dans les Conditions de service relatives à Meta AI : « une fois le partage effectué, vous acceptez que Meta analyse ces images, y compris les caractéristiques faciales, à l’aide d’une IA ».

Le RGPD qui bloque en Europe

Concernant les utilisateurs européens des Ray-Ban Meta, nous restons plus dans le flou. Ces mêmes Conditions de service relatives à Meta AI disent un peu avant qu’ « en fonction du lieu où vous vous trouvez, vous aurez peut-être la possibilité de partager des images avec les IA ».

Ce texte n’est précis à ce sujet que concernant les images d’individus qui résident dans deux états américains : « vous acceptez également de ne pas importer sur Meta AI d’images dont vous savez qu’elles incluent des individus qui résident en Illinois ou au Texas, à moins que vous ne soyez leur représentant légalement agréé et que vous n’y consentiez en leur nom ».

Mais, comme l’expliquait Axios en juillet dernier, Meta a décidé de ne pas utiliser ou distribuer ses modèles multimodaux en Europe pour l’instant. Et ce média précisait que l’IA utilisée par Meta dans les Ray-Ban se baserait particulièrement sur ces modèles.

L’entreprise évoquait « la nature imprévisible de l’environnement réglementaire européen » pour expliquer sa décision. Pourtant, elle visait le RGPD, texte adopté il y a maintenant huit ans et non des textes plus récents comme l’AI Act. Mais c’est ce texte qui a bloqué l’utilisation par Meta des données des utilisateurs de Facebook et Instagram pour entrainer ses IA. Meta met donc la pression sur l’Europe.

D’ailleurs, même si Meta ne prévoit donc pas tout de suite d’activer l’IA sur les lunettes Ray-Ban en Europe, elle a déjà mis à jour la version franco-française (fr-fr) de son « avis de confidentialité relatif aux commandes vocales » concernant ces « lunettes intelligentes Ray-Ban Meta ».

Dans celui-ci, l’entreprise prévoit déjà qu’ « en fonction de vos paramètres, nous pouvons également utiliser les transcriptions et les enregistrements stockés de vos interactions vocales ainsi que les données associées à celles-ci pour améliorer les produits de Meta. Lorsque le stockage des interactions vocales visant à améliorer les produits est activé, nous utilisons le machine learning et des examinateur·ices qualifié·es pour traiter les informations afin d’améliorer, de dépanner et d’entraîner les produits de Meta ».

Cet avis affirme aussi que « le stockage de vos interactions vocales permet aux produits de Meta d’améliorer le traitement de vos demandes et de répondre à un large éventail d’échantillons vocaux, d’expressions, de dialectes locaux et d’accents. Par exemple, si des personnes parlent un dialecte régional et activent le stockage de leurs interactions vocales, cela permettra aux produits de Meta de mieux comprendre les demandes des personnes parlant ce dialecte et d’y répondre plus précisément ».

Contactée par nos soins, l’entreprise n’a pas encore répondu à notre sollicitation pour plus d’éclaircissements.

☕️ Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Comme l’a repéré notre lecteur Fred42, l’action en justice pour tentative d’extorsion de WP Engine contre Automattic a permis de dévoiler une lettre du second au premier [PDF].

Dans celle-ci, les avocats d’Automattic, qui reproche à WP Engine d’utiliser de façon abusive la marque WordPress, lui réclament, entre autres, de « verser à [leur] client une indemnité pour compenser l’utilisation non autorisée de sa propriété intellectuelle et la concurrence déloyale, dont le montant précis pourra être déterminé une fois que nous aurons reçu de votre part la comptabilité demandée ci-dessus ».

Automattic demande à WP Engine de lui verser une redevance de 8 % de son chiffre d’affaires pour l’utilisation abusive de la marque WordPress.

Les avocats d’Automattic précisent ensuite que « même une simple redevance de 8 % sur le chiffre d’affaires annuel de plus de 400 millions de dollars de WP Engine équivaut à plus de 32 millions de dollars de perte annuelle de revenus de licence pour notre client ».

☕️ Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Automattic réclame une redevance de 8 % à WP Engine pour utilisation abusive de la marque WordPress

Comme l’a repéré notre lecteur Fred42, l’action en justice pour tentative d’extorsion de WP Engine contre Automattic a permis de dévoiler une lettre du second au premier [PDF].

Dans celle-ci, les avocats d’Automattic, qui reproche à WP Engine d’utiliser de façon abusive la marque WordPress, lui réclament, entre autres, de « verser à [leur] client une indemnité pour compenser l’utilisation non autorisée de sa propriété intellectuelle et la concurrence déloyale, dont le montant précis pourra être déterminé une fois que nous aurons reçu de votre part la comptabilité demandée ci-dessus ».

Automattic demande à WP Engine de lui verser une redevance de 8 % de son chiffre d’affaires pour l’utilisation abusive de la marque WordPress.

Les avocats d’Automattic précisent ensuite que « même une simple redevance de 8 % sur le chiffre d’affaires annuel de plus de 400 millions de dollars de WP Engine équivaut à plus de 32 millions de dollars de perte annuelle de revenus de licence pour notre client ».

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Dans une étude scientifique auprès de 67 000 étudiantes, étudiants d’universités et élèves de grandes écoles commandée par le ministère de l’Enseignement Supérieur et de la Recherche (MESR), 29,3 % des étudiantes en informatique, 33,3 % de celles en mécanique et 31,5 % de celles en physique déclarent avoir subi au moins une violence sexuelle depuis le début de leur cursus.

Laurent Bègue-Shankland, enseignant-chercheur à l’Université Grenoble Alpes, a rendu le 2 octobre l’étude [PDF] que le ministère de l’Enseignement supérieur et la recherche (ESR) lui avait commandée à propos des violences sexuelles dans l’enseignement supérieur en France.

Menée du 15 novembre 2023 au 29 février 2024, auprès de 67 000 personnes qui étudient dans le supérieur français, cette étude est inédite. Globalement, parmi ces personnes, 9 % des hommes, 24 % des femmes et 33 % des personnes transgenres/non binaires/queer indiquent avoir subi au moins une tentative d’agression sexuelle, une agression sexuelle, une tentative de viol ou un viol pendant leur cursus. Le communiqué de presse du ministère souligne que « les femmes restent les plus concernées avec 71,4 % (n = 9272) du total des victimes de VSS ».

Du côté des disciplines qui intéressent particulièrement Next, le bilan n’est pas des plus reluisants. En mathématique, 21,8 % des étudiantes déclarent avoir été victimes de violences sexuelles au cours de leurs études (2,2 points en dessous du pourcentage dans la population globale). Mais en informatique, en physique ou en mécanique, le pourcentage est de, respectivement, 29,3 %, 31,5 % et 33,3 %.

Une place importante de l’alcool, beaucoup moins du cannabis

Le ministère a demandé à Laurent Bègue-Shankland, addictologue, de faire un focus sur la place de l’alcool et du cannabis dans ces violences. « Selon les estimations des victimes, l’auteur était alcoolisé dans 61,9 % des tentatives d’agression sexuelle et 56,4 % des cas d’agressions sexuelles. C’était le cas dans 41,8 % des tentatives de viol et 42,6 % des viols », explique l’étude.

L’auteur précise que « la littérature scientifique internationale a depuis longtemps identifié la consommation d’alcool comme un cofacteur majeur des violences sexistes et sexuelles mais c’est la première fois en Europe que nous avons pu les spécifier sur un échantillon d’une telle ampleur en milieu étudiant ».

« Près de 16 % des victimes d’agression sexuelle (ou tentatives) indiquent que l‘auteur avait tenté de modifier leur état de conscience au moyen d’alcool ou d’autres substances pour avoir un avantage sur elles et 23 % des victimes de viol (ou tentatives) », ajoute-t-il dans l’étude.

Concernant le cannabis, « en comparaison avec l’alcool, [il] est faiblement présent en situation de violence sexuelle : entre 3 % et 6 % des victimes déclarent en avoir consommé avant les faits, et entre 8 et 13 % estiment que c’était le cas de l’auteur ».

Des agressions sexuelles par des inconnus, des viols par des proches

Lors de ces situations de violences sexuelles, « des menaces non physiques (de mauvaise note, d’atteinte à la réputation) ou physique ont été proférées dans 6 à 7 % des agressions sexuelles (et tentatives) et 13 à 16 % des viols (et tentatives), tandis qu’une contrainte physique a été exercée à l’encontre des victimes dans 11 à 15 % environ des faits d’agressions sexuelles (ou tentatives) et 32 à 35 % environ des viols ou
tentatives
 ». Le graphique ci-dessous détaille ce contexte coercitif :

Concernant les agresseurs, « dans 90 à 95% des cas, quelles que soient les violences subies, les auteurs désignés sont de sexe masculin » et sont d’autres étudiants « dans près de 70 % des cas d‘agression sexuelle (ou tentatives) et 60 % des cas de viols (ou tentatives) ». Leur filière est le plus souvent connue des victimes.

Selon l’étude, les auteurs d’agression sexuelle (ou tentatives) sont, la plupart du temps (70 %), des personnes inconnues, rencontrées depuis peu, ou de simples connaissances. Mais pour les viols (ou tentatives), « il s’agit du partenaire ou l’ancien partenaire » dans 40 à 50 % des cas et d’un ami proche dans un peu plus de 11 % des cas.

Concernant les suites de ces violences sexuelles, « dans une grande majorité des cas, aucune procédure n’a été initiée dans l’université des victimes et aucune plainte n’a été déposée auprès des autorités », explique le chercheur. Il ajoute que « si le recours à des procédures intra-universitaires ne varie pas selon les actes subis, on peut observer une élévation du recours au dépôt de plainte auprès des forces de police ou de l’autorité judiciaire selon la gravité des faits. Il est ainsi trois fois plus fréquent en cas de viol
(7.9 %) que de tentative d’agression sexuelle
». Son étude ne recense pas, par contre, les suites de ces démarches.

Des programmes de prévention à mettre en place par le ministère

Se basant sur la littérature scientifique existante, Laurent Bègue-Shankland conseille au ministère de s’inspirer de plusieurs dispositifs de prévention. Le premier type de programmes « se focalise sur les hommes ayant des consommations excessives, principaux responsables des violences sexuelles » liées à l’ébriété, explique-t-il, donnant comme exemple le SAFE (Sexual Assault and Alcohol Feedback) américain, évalué positivement en 2023. Il indique aussi que « la sensibilisation aux situations de violence sexuelle en tant que témoins augmente également le sentiment d’être en capacité d’intervenir, l’intention de le faire et les conduites prosociales ».

Enfin, ajoute-t-il, « plusieurs programmes spécifiques s’appuient sur les principe de réduction des risques. Bien que les femmes ne soient nullement responsables des agressions sexuelles qu’elles subissent, en tant que victimes les plus fréquentes, il peut leur être utile d’intégrer des informations leur permettant de reconnaître les tactiques des perpétrateurs et de maîtriser les compétences pour éviter, interpréter et résister aux avances indésirables ». Il donne en exemple ici le programme SARE (Sexual Assault Resistance Education).

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Violences sexuelles : informatique, physique, mécanique, plus de 30 % des étudiantes victimes

Dans une étude scientifique auprès de 67 000 étudiantes, étudiants d’universités et élèves de grandes écoles commandée par le ministère de l’Enseignement Supérieur et de la Recherche (MESR), 29,3 % des étudiantes en informatique, 33,3 % de celles en mécanique et 31,5 % de celles en physique déclarent avoir subi au moins une violence sexuelle depuis le début de leur cursus.

Laurent Bègue-Shankland, enseignant-chercheur à l’Université Grenoble Alpes, a rendu le 2 octobre l’étude [PDF] que le ministère de l’Enseignement supérieur et la recherche (ESR) lui avait commandée à propos des violences sexuelles dans l’enseignement supérieur en France.

Menée du 15 novembre 2023 au 29 février 2024, auprès de 67 000 personnes qui étudient dans le supérieur français, cette étude est inédite. Globalement, parmi ces personnes, 9 % des hommes, 24 % des femmes et 33 % des personnes transgenres/non binaires/queer indiquent avoir subi au moins une tentative d’agression sexuelle, une agression sexuelle, une tentative de viol ou un viol pendant leur cursus. Le communiqué de presse du ministère souligne que « les femmes restent les plus concernées avec 71,4 % (n = 9272) du total des victimes de VSS ».

Du côté des disciplines qui intéressent particulièrement Next, le bilan n’est pas des plus reluisants. En mathématique, 21,8 % des étudiantes déclarent avoir été victimes de violences sexuelles au cours de leurs études (2,2 points en dessous du pourcentage dans la population globale). Mais en informatique, en physique ou en mécanique, le pourcentage est de, respectivement, 29,3 %, 31,5 % et 33,3 %.

Une place importante de l’alcool, beaucoup moins du cannabis

Le ministère a demandé à Laurent Bègue-Shankland, addictologue, de faire un focus sur la place de l’alcool et du cannabis dans ces violences. « Selon les estimations des victimes, l’auteur était alcoolisé dans 61,9 % des tentatives d’agression sexuelle et 56,4 % des cas d’agressions sexuelles. C’était le cas dans 41,8 % des tentatives de viol et 42,6 % des viols », explique l’étude.

L’auteur précise que « la littérature scientifique internationale a depuis longtemps identifié la consommation d’alcool comme un cofacteur majeur des violences sexistes et sexuelles mais c’est la première fois en Europe que nous avons pu les spécifier sur un échantillon d’une telle ampleur en milieu étudiant ».

« Près de 16 % des victimes d’agression sexuelle (ou tentatives) indiquent que l‘auteur avait tenté de modifier leur état de conscience au moyen d’alcool ou d’autres substances pour avoir un avantage sur elles et 23 % des victimes de viol (ou tentatives) », ajoute-t-il dans l’étude.

Concernant le cannabis, « en comparaison avec l’alcool, [il] est faiblement présent en situation de violence sexuelle : entre 3 % et 6 % des victimes déclarent en avoir consommé avant les faits, et entre 8 et 13 % estiment que c’était le cas de l’auteur ».

Des agressions sexuelles par des inconnus, des viols par des proches

Lors de ces situations de violences sexuelles, « des menaces non physiques (de mauvaise note, d’atteinte à la réputation) ou physique ont été proférées dans 6 à 7 % des agressions sexuelles (et tentatives) et 13 à 16 % des viols (et tentatives), tandis qu’une contrainte physique a été exercée à l’encontre des victimes dans 11 à 15 % environ des faits d’agressions sexuelles (ou tentatives) et 32 à 35 % environ des viols ou
tentatives
 ». Le graphique ci-dessous détaille ce contexte coercitif :

Concernant les agresseurs, « dans 90 à 95% des cas, quelles que soient les violences subies, les auteurs désignés sont de sexe masculin » et sont d’autres étudiants « dans près de 70 % des cas d‘agression sexuelle (ou tentatives) et 60 % des cas de viols (ou tentatives) ». Leur filière est le plus souvent connue des victimes.

Selon l’étude, les auteurs d’agression sexuelle (ou tentatives) sont, la plupart du temps (70 %), des personnes inconnues, rencontrées depuis peu, ou de simples connaissances. Mais pour les viols (ou tentatives), « il s’agit du partenaire ou l’ancien partenaire » dans 40 à 50 % des cas et d’un ami proche dans un peu plus de 11 % des cas.

Concernant les suites de ces violences sexuelles, « dans une grande majorité des cas, aucune procédure n’a été initiée dans l’université des victimes et aucune plainte n’a été déposée auprès des autorités », explique le chercheur. Il ajoute que « si le recours à des procédures intra-universitaires ne varie pas selon les actes subis, on peut observer une élévation du recours au dépôt de plainte auprès des forces de police ou de l’autorité judiciaire selon la gravité des faits. Il est ainsi trois fois plus fréquent en cas de viol
(7.9 %) que de tentative d’agression sexuelle
». Son étude ne recense pas, par contre, les suites de ces démarches.

Des programmes de prévention à mettre en place par le ministère

Se basant sur la littérature scientifique existante, Laurent Bègue-Shankland conseille au ministère de s’inspirer de plusieurs dispositifs de prévention. Le premier type de programmes « se focalise sur les hommes ayant des consommations excessives, principaux responsables des violences sexuelles » liées à l’ébriété, explique-t-il, donnant comme exemple le SAFE (Sexual Assault and Alcohol Feedback) américain, évalué positivement en 2023. Il indique aussi que « la sensibilisation aux situations de violence sexuelle en tant que témoins augmente également le sentiment d’être en capacité d’intervenir, l’intention de le faire et les conduites prosociales ».

Enfin, ajoute-t-il, « plusieurs programmes spécifiques s’appuient sur les principe de réduction des risques. Bien que les femmes ne soient nullement responsables des agressions sexuelles qu’elles subissent, en tant que victimes les plus fréquentes, il peut leur être utile d’intégrer des informations leur permettant de reconnaître les tactiques des perpétrateurs et de maîtriser les compétences pour éviter, interpréter et résister aux avances indésirables ». Il donne en exemple ici le programme SARE (Sexual Assault Resistance Education).

☕️ WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

Le conflit entre WP Engine et Automattic passe un nouveau cap. En effet, le premier vient de déposer une plainte (PDF) devant une cour de justice californienne contre le second et son CEO, Matt Mullenweg (créateur du logiciel WordPress et de la fondation du même nom) pour, entre autres, tentative d’extorsion et abus de pouvoir.

Le torchon brule entre les deux entreprises depuis deux semaines, avec notamment l’accusation d’utilisation abusive de la marque WordPress et les différents degrés de contribution des deux entreprises au logiciel libre.

WP Engine a communiqué sur X, accusant Matt Mullenweg d’être responsable d’importants conflits d’intérêts et de problèmes de gouvernance.

Les deux parties proclament défendre chacune les intérêts de la communauté créée autour de WordPress. WP Engine, dans son récent message, estime que « la campagne de terre brûlée autoproclamée de Matt Mullenweg et d’Automattic contre WP Engine a porté préjudice non seulement à notre entreprise, mais à l’ensemble de l’écosystème WordPress ».

De son côté, Matt Mullenweg affirmait que WP Engine profite de WordPress sans contribuer assez au projet et « profère des menaces juridiques » contre la WordPress.org.

Après avoir laissé un sursis à WP Engine en lui redonnant l’accès à WordPress.org jusqu’au 1ᵉʳ octobre, Matt Mullenweg a mis sa menace à exécution et les sites WordPress hébergés par WP Engine n’ont plus d’accès direct aux sources hébergées par WordPress.org depuis ce jour. L’entreprise a annoncé avoir déployé une solution.

☕️ WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

WP Engine attaque en justice Automattic et Matt Mullenweg pour tentative d’extorsion

Le conflit entre WP Engine et Automattic passe un nouveau cap. En effet, le premier vient de déposer une plainte (PDF) devant une cour de justice californienne contre le second et son CEO, Matt Mullenweg (créateur du logiciel WordPress et de la fondation du même nom) pour, entre autres, tentative d’extorsion et abus de pouvoir.

Le torchon brule entre les deux entreprises depuis deux semaines, avec notamment l’accusation d’utilisation abusive de la marque WordPress et les différents degrés de contribution des deux entreprises au logiciel libre.

WP Engine a communiqué sur X, accusant Matt Mullenweg d’être responsable d’importants conflits d’intérêts et de problèmes de gouvernance.

Les deux parties proclament défendre chacune les intérêts de la communauté créée autour de WordPress. WP Engine, dans son récent message, estime que « la campagne de terre brûlée autoproclamée de Matt Mullenweg et d’Automattic contre WP Engine a porté préjudice non seulement à notre entreprise, mais à l’ensemble de l’écosystème WordPress ».

De son côté, Matt Mullenweg affirmait que WP Engine profite de WordPress sans contribuer assez au projet et « profère des menaces juridiques » contre la WordPress.org.

Après avoir laissé un sursis à WP Engine en lui redonnant l’accès à WordPress.org jusqu’au 1ᵉʳ octobre, Matt Mullenweg a mis sa menace à exécution et les sites WordPress hébergés par WP Engine n’ont plus d’accès direct aux sources hébergées par WordPress.org depuis ce jour. L’entreprise a annoncé avoir déployé une solution.

☕️ #LIDD : les mégaconstellations sont-elles des bombes à retardement ?

Via le chercheur Irénée Régnauld qui salue le travail de cette chaine YouTube :

« L’effort est d’autant plus remarquable que cette chaîne suit aussi de près les développements en cours à la « Starbase » de Musk, et vise une communauté qui peine parfois à regarder avec critique l’industrie astronautique, et à mettre à distance son enthousiasme de principe. Ce travail de vulgarisation « sans œillères », expose factuellement à l’audience « la face cachée de leurs rêves ».

C’est aussi une des forces dans le milieu spatial : nul ne peut feindre le problème ni mettre à l’écart une nécessaire rigueur scientifique ».

Le Journal de l’Espace assume prendre là « un peu le contre-pied de [leurs] histoires habituelles », mais comme le dit Quentin Leicht (fondateur du Journal de l’Espace), « il serait mal honnête de nous voiler la face sur les conséquences de ce domaine qui nous passionne tous sur le Journal de l’Espace » :

☕️ #LIDD : les mégaconstellations sont-elles des bombes à retardement ?

Via le chercheur Irénée Régnauld qui salue le travail de cette chaine YouTube :

« L’effort est d’autant plus remarquable que cette chaîne suit aussi de près les développements en cours à la « Starbase » de Musk, et vise une communauté qui peine parfois à regarder avec critique l’industrie astronautique, et à mettre à distance son enthousiasme de principe. Ce travail de vulgarisation « sans œillères », expose factuellement à l’audience « la face cachée de leurs rêves ».

C’est aussi une des forces dans le milieu spatial : nul ne peut feindre le problème ni mettre à l’écart une nécessaire rigueur scientifique ».

Le Journal de l’Espace assume prendre là « un peu le contre-pied de [leurs] histoires habituelles », mais comme le dit Quentin Leicht (fondateur du Journal de l’Espace), « il serait mal honnête de nous voiler la face sur les conséquences de ce domaine qui nous passionne tous sur le Journal de l’Espace » :

IA : la déconstruction du mythe du « plus c’est gros, mieux c’est »

Tu sais ce qu'il te dit le cassis ?
IA :  la déconstruction du mythe du « plus c’est gros, mieux c’est »

Alors que Sam Altman a publié un billet promettant un avenir radieux grâce à une IA « requérant beaucoup d’énergie et de puces », les chercheuses Sasha Luccioni et Meredith Whittaker et leur collègue Gaël Varoquaux ont résumé les critiques d’une R&D de l’IA qui ne compte presque que sur l’augmentation de la puissance des machines pour avancer.

La semaine dernière, Sam Altman a publié un billet dans lequel il imagine un futur où le monde partage une « prospérité à un degré qui semble inimaginable aujourd’hui » et dans lequel « la vie de chacun pourra être meilleure que la vie actuelle de n’importe qui ». Ceci, évidemment, grâce à l’IA. Pour cela, affirme le CEO d’OpenAI, « nous devons réduire le coût du calcul et le rendre abondant (ce qui nécessite beaucoup d’énergie et de puces) ».

Mais il menace : « si nous ne construisons pas suffisamment d’infrastructures », donc si son industrie ne reçoit pas assez de financements, « l’IA sera une ressource très limitée qui fera l’objet de guerres et deviendra principalement un outil pour les riches ».

Dévitalisé de ses apparats prophétiques, ce discours s’inscrit dans une longue série de plaidoyers pour une Recherche & développement (R&D) de l’IA qui avancerait par de simples coups/coûts d’augmentation des performances des machines. Alors qu’on commence à connaître un peu mieux l’impact environnemental de l’IA générative, cette vision est dénoncée par trois chercheurs très connus dans le milieu : Sasha Luccioni qui travaille pour Hugging Face, Meredith Whittaker chercheuse à l’Université d’Australie-Occidentale mais aussi Présidente de la fondation Signal, et Gaël Varoquaux, chercheur à Inria.

Une prétendue corrélation vieille de 12 ans

Dans un article (un « position paper » titré « Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI ») mis en ligne sur arXiv deux jours avant la publication du billet de Sam Altman, ces trois chercheurs expliquent que cette idée s’est disséminée dans le milieu de l’IA depuis l’arrivée en 2012 d’une certaine architecture de réseau neuronal convolutif : « AlexNet a créé la recette de l’actuel paradigme « bigger-is-better » de l’IA, en combinant les GPU, les big data (du moins pour l’époque) et les approches s’appuyant sur les réseaux neuronaux à grande échelle ».


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Silicon Valley 1 - Hollywood 0
Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l’IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d’urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d’alertes.

Le projet de « loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle d’avant-garde » (ou SB 1047), a fait l’objet d’intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l’État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.

SB 1047 prévoyait d’imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l’État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n’était pas aussi complet que l’AI Act européen, mais posait quelques jalons de régulation.

Pour une régulation, mais pas celle-là

Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d’IA générative :

« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu’un système d’IA est déployé dans des environnements à haut risque, qu’il implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu’un grand système les déploie. Je ne pense pas qu’il s’agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.

Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l’innovation même qui alimente les progrès en faveur du bien public ».

« Nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d’une solution qui n’est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre l’évolution de la technologie elle-même ».

Les directions de startups de la Silicon Valley contre la loi

Alors qu’Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s’était positionnée contre, à l’instar d’OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu’un patchwork de lois étatiques.

Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l’entreprise, a d’ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.

Du côté d’Anthropic, après avoir critiqué la loi, l’entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts. Toutefois, nous n’en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s’était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l’IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d’autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu’utile à cette fin ».

Quelques têtes d’ingénieurs et de chercheurs qui dépassent

Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter des risques graves, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l’IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».

Hollywood pour une régulation, pour le bien de l’humanité

Du côté de Hollywood, 125 « grands noms » du milieu s’étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l’IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».

Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l’évaluation des menaces potentielles posées par l’utilisation de l’IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».

Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Silicon Valley 1 - Hollywood 0
Véto du gouverneur de Californie contre le projet de loi sur l’IA contesté dans la Silicon Valley

Le gouverneur de la Californie, Gavin Newsom, a déposé un véto dimanche 29 septembre contre le projet de loi qui devait réguler l’IA dans son État, qui héberge à la fois la Silicon Valley et Hollywood. Le texte visait les modèles les plus importants et prévoyait notamment un interrupteur d’urgence pour désactiver les systèmes en cas de problème ingérable, ainsi que des protocoles de tests et une protection des lanceurs d’alertes.

Le projet de « loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle d’avant-garde » (ou SB 1047), a fait l’objet d’intenses campagnes de lobbying en Californie ces dernières semaines, tant du côté des pour que des contre. Le gouverneur de l’État, Gavin Newsom, y a finalement opposé son véto (PDF) à la veille de la date limite.

SB 1047 prévoyait d’imposer certaines obligations aux créateurs de modèles. Elle les aurait rendus responsables devant la loi de l’État en cas de « risque déraisonnable que le modèle ou ces dérivés cause ou permette matériellement un dommage critique ». Le texte californien n’était pas aussi complet que l’AI Act européen, mais posait quelques jalons de régulation.

Pour une régulation, mais pas celle-là

Le gouverneur ne veut pas envoyer un message anti-régulation, mais critique le projet comme ciblant seulement et de façon inappropriée selon lui les grands modèles d’IA générative :

« Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu’un système d’IA est déployé dans des environnements à haut risque, qu’il implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires – du moment qu’un grand système les déploie. Je ne pense pas qu’il s’agisse là de la meilleure approche pour protéger le public des menaces réelles posées par la technologie », affirme-t-il dans sa lettre justifiant le véto.

Gavin Newsom ajoute que « des modèles plus petits et spécialisés pourraient s’avérer tout aussi dangereux, voire plus dangereux, que les modèles visés par la loi SB 1047, au risque de freiner l’innovation même qui alimente les progrès en faveur du bien public ».

« Nous ne pouvons pas nous permettre d’attendre qu’une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », affirme le gouverneur. Cependant, « pour assurer la sécurité du public, nous devons nous contenter d’une solution qui n’est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l’IA. En fin de compte, tout cadre visant à réglementer efficacement l’IA doit suivre l’évolution de la technologie elle-même ».

Les directions de startups de la Silicon Valley contre la loi

Alors qu’Elon Musk avait étonné jeudi dernier les observateurs en se prononçant pour cette régulation, la plupart de la Silicon Valley s’était positionnée contre, à l’instar d’OpenAI. Celle-ci poussait notamment pour une réglementation au niveau national plutôt qu’un patchwork de lois étatiques.

Chez Meta, le ton était aussi à la critique du projet. Yann Le Cun, responsable scientifique dans l’entreprise, a d’ailleurs rapidement salué la « décision judicieuse » du gouverneur. Il avait relayé plusieurs argumentaires sur X contre le projet de loi.

Du côté d’Anthropic, après avoir critiqué la loi, l’entreprise indiquait dans une lettre (PDF) plus trop savoir où elle en était après les différentes modifications du texte : « selon notre évaluation, le nouveau projet de loi SB 1047 est considérablement amélioré, au point que nous pensons que ses avantages l’emportent probablement sur ses coûts. Toutefois, nous n’en sommes pas sûrs et certains aspects du projet de loi nous semblent encore préoccupants ou ambigus ».

L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, s’était aussi prononcée contre ce projet de loi : « Nous voulons que la Californie soit à la pointe de l’IA en protégeant les consommateurs, les données, la propriété intellectuelle et bien d’autres choses encore, mais le projet de loi SB 1047 est plus nuisible qu’utile à cette fin ».

Quelques têtes d’ingénieurs et de chercheurs qui dépassent

Certains ingénieurs et chercheurs en IA étaient quand même sortis du lot pour soutenir le texte. Le chercheur et ancien salarié de Google Brain, Geoffrey Hinton, avait notamment initié un texte signé par plusieurs employés de la Silicon Valley :

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter des risques graves, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l’IA de tester si les plus puissants modèles peuvent causer de graves dégâts, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre de tels risques ».

Hollywood pour une régulation, pour le bien de l’humanité

Du côté de Hollywood, 125 « grands noms » du milieu s’étaient mobilisés en publiant une lettre ouverte. « Nous croyons fermement au potentiel éblouissant de l’IA à être utilisée pour le bien. Mais nous devons aussi être réalistes quant aux risques », affirmaient-ils. Cette lettre se défendait de tout corporatisme en expliquant que « ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde ».

Si le gouverneur Gavin Newsom a posé son véto sur ce texte, il a souligné avoir demandé à un de ses services de travailler sur « l’évaluation des menaces potentielles posées par l’utilisation de l’IA générative » et leurs conséquences sur les infrastructures critiques en Californie, « y compris celles qui pourraient entraîner des pertes massives ».

☕️ WordPress.org accorde un court sursis à WP Engine, l’accès sera de nouveau coupé demain

Dans un billet très corrosif publié sur le blog de WordPress.org vendredi 27 septembre, Matt Mullenweg explique avoir laissé un « sursis » à WP Engine : l’entreprise a encore accès aux ressources de wordpress.org jusqu’au 1er octobre. Mais dès demain 00:01 UTC (soit 2 h heure française), cet accès sera de nouveau coupé.

Le torchon brûle donc toujours dans l’écosystème commercial de WordPress. Matt Mullenweg, qui est à la fois le créateur du logiciel et le responsable de l’entreprise Automattic qui vend des prestations autour, en veut à WP Engine. Selon lui, son concurrent utilise la marque WordPress abusivement, ne contribue pas assez au projet et « profère des menaces juridiques » contre WordPress.org.

Matt Mullenweg explique faire cette concession après avoir entendu que les clients de WP Engine sont « frustrés » de cette situation.

☕️ WordPress.org accorde un court sursis à WP Engine, l’accès sera de nouveau coupé demain

Dans un billet très corrosif publié sur le blog de WordPress.org vendredi 27 septembre, Matt Mullenweg explique avoir laissé un « sursis » à WP Engine : l’entreprise a encore accès aux ressources de wordpress.org jusqu’au 1er octobre. Mais dès demain 00:01 UTC (soit 2 h heure française), cet accès sera de nouveau coupé.

Le torchon brûle donc toujours dans l’écosystème commercial de WordPress. Matt Mullenweg, qui est à la fois le créateur du logiciel et le responsable de l’entreprise Automattic qui vend des prestations autour, en veut à WP Engine. Selon lui, son concurrent utilise la marque WordPress abusivement, ne contribue pas assez au projet et « profère des menaces juridiques » contre WordPress.org.

Matt Mullenweg explique faire cette concession après avoir entendu que les clients de WP Engine sont « frustrés » de cette situation.

Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

Modèle de Langage Sans Défaut ?
Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

L’entreprise de Redmond lance un outil appelé « Correction » censé identifier et proposer des réécritures de textes générés par des IA. Cet outil s’appuie lui aussi sur des modèles de langage. L’outil arrive tard, alors que le doute s’installe dans une partie des entreprises sur la confiance à accorder aux IA génératives.

Comme l’avoue maintenant Microsoft dans sa vidéo de promotion de son nouvel outil « Correction », « les « hallucinations » des IA peuvent avoir des conséquences sur la précision, la confiance de l’utilisateur et la crédibilité de votre application ».

Jusqu’à récemment, les entreprises d’IA génératives ont massivement diffusé ce genre d’outils sans se préoccuper de ces conséquences. Pourtant, ces « hallucinations » – ou plutôt des erreurs dans lesquelles le système produit du texte ou des images incohérents – étaient présentes depuis les débuts de l’utilisation publique des grands modèles.

Des rustines pour éviter les hallucinations

Ces entreprises commencent à proposer quelques rustines pour combler les erreurs de leurs modèles. Il semble aussi, alors que les milieux financiers parlent de plus en plus d’une bulle de l’IA, qu’elles doivent montrer aux investisseurs que leurs systèmes peuvent être améliorés. En juin, OpenAI annonçait son CriticGPT pour proposer des corrections sur des erreurs de code générées par GPT-4. Fin juin, Google a aussi proposé son propre système.

Ici, avec Correction, Microsoft assure pouvoir proposer un outil qui peut détecter et réécrire des contenus incorrects générés par n’importe quelle IA générative. « Il est essentiel de donner à nos clients les moyens de comprendre les contenus non fondés et les hallucinations et d’agir en conséquence, d’autant plus que la demande de fiabilité et d’exactitude des contenus générés par l’IA ne cesse d’augmenter », explique l’entreprise.

Microsoft propose cet outil aux utilisateurs de son API Azure AI Content Safety qui peuvent s’en servir sur du texte généré par n’importe quel modèle.

Interrogé par TechCrunch, Microsoft affirme que « Correction est alimenté par un nouveau processus d’utilisation de petits et grands modèles de langage pour aligner les sorties sur des documents donnés ». L’entreprise ajoute : « nous espérons que cette nouvelle fonctionnalité aidera les créateurs et les utilisateurs d’IA générative dans des domaines tels que la médecine, où les développeurs d’applications déterminent que la précision des réponses est d’une importance significative ».

Des modèles pour corriger d’autres modèles

Elle redirige aussi vers un article mis en ligne récemment par les chercheurs de Microsoft sur arXiv. Comme le remarque TechCrunch, « le document omet des détails essentiels, tels que les ensembles de données utilisés pour entrainer les modèles ».

Cet article propose un enchainement de deux modèles de langage pour analyser la phrase générée par le modèle testé. Le premier modèle de Correction, un petit modèle, va classer la phrase en tant qu’ « hallucination » ou pas. Si la phrase est catégorisée comme telle, un autre modèle, plus gros, est utilisé pour générer une explication de cette catégorisation. Si ce modèle considère que la phrase générée n’est pas une « hallucination », un mécanisme de retour d’information affine les résultats du premier modèle.

Le système de Microsoft, qui utilise la génération augmentée de récupération (RAG, retrieval-augmented generation), a besoin de s’appuyer sur un ensemble de documents donné par l’utilisateur comme « base de raisonnement ».

Les hallucinations sont intrinsèques aux modèles de langage

Interrogé par TechCrunch sur ce système, Os Keyes, doctorant à l’université de Washington, explique qu’ « essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau ».

Pour Mike Cook, chercheur à l’université Queen Mary, cette correction au fil de l’eau et sans transparence pourrait donner un faux sentiment de disparition des hallucinations. « Microsoft, comme OpenAI et Google, ont créé cette situation problématique dans laquelle on se fie aux modèles dans des scénarios où ils se trompent fréquemment » explique-t-il à TechCrunch. Mais pour Mike Cook, « Microsoft répète maintenant l’erreur à un niveau plus élevé. Disons que cela nous fait passer d’une sécurité de 90 % à une sécurité de 99 %le problème n’a jamais vraiment été dans ces 9 %. Il se situera toujours dans le 1 % d’erreurs que nous ne détectons pas encore ».

Une perte de confiance des clients

Problème pour Microsoft et ses concurrents, les « hallucinations » commencent à miner la confiance de leurs utilisateurs dans leurs nouveaux outils. Nos collègues de The Information expliquaient début septembre que certains clients de Microsoft n’utilisent plus l’IA d’Office censée les aider. Fin juillet, Business Insider racontait qu’une entreprise de l’industrie pharmaceutique a abandonné au bout de six mois son accord avec Microsoft concernant Copilot, car les outils proposés n’étaient pas assez performants pour justifier l’investissement.

Interrogés par le cabinet de KPMG, six responsables de la tech du Royaume-Uni sur dix considèrent que les hallucinations sont les plus gros problèmes lorsqu’on adopte des outils d’IA générative.

Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

Modèle de Langage Sans Défaut ?
Microsoft se lance tardivement à l’assaut des « hallucinations » de ses IA

L’entreprise de Redmond lance un outil appelé « Correction » censé identifier et proposer des réécritures de textes générés par des IA. Cet outil s’appuie lui aussi sur des modèles de langage. L’outil arrive tard, alors que le doute s’installe dans une partie des entreprises sur la confiance à accorder aux IA génératives.

Comme l’avoue maintenant Microsoft dans sa vidéo de promotion de son nouvel outil « Correction », « les « hallucinations » des IA peuvent avoir des conséquences sur la précision, la confiance de l’utilisateur et la crédibilité de votre application ».

Jusqu’à récemment, les entreprises d’IA génératives ont massivement diffusé ce genre d’outils sans se préoccuper de ces conséquences. Pourtant, ces « hallucinations » – ou plutôt des erreurs dans lesquelles le système produit du texte ou des images incohérents – étaient présentes depuis les débuts de l’utilisation publique des grands modèles.

Des rustines pour éviter les hallucinations

Ces entreprises commencent à proposer quelques rustines pour combler les erreurs de leurs modèles. Il semble aussi, alors que les milieux financiers parlent de plus en plus d’une bulle de l’IA, qu’elles doivent montrer aux investisseurs que leurs systèmes peuvent être améliorés. En juin, OpenAI annonçait son CriticGPT pour proposer des corrections sur des erreurs de code générées par GPT-4. Fin juin, Google a aussi proposé son propre système.

Ici, avec Correction, Microsoft assure pouvoir proposer un outil qui peut détecter et réécrire des contenus incorrects générés par n’importe quelle IA générative. « Il est essentiel de donner à nos clients les moyens de comprendre les contenus non fondés et les hallucinations et d’agir en conséquence, d’autant plus que la demande de fiabilité et d’exactitude des contenus générés par l’IA ne cesse d’augmenter », explique l’entreprise.

Microsoft propose cet outil aux utilisateurs de son API Azure AI Content Safety qui peuvent s’en servir sur du texte généré par n’importe quel modèle.

Interrogé par TechCrunch, Microsoft affirme que « Correction est alimenté par un nouveau processus d’utilisation de petits et grands modèles de langage pour aligner les sorties sur des documents donnés ». L’entreprise ajoute : « nous espérons que cette nouvelle fonctionnalité aidera les créateurs et les utilisateurs d’IA générative dans des domaines tels que la médecine, où les développeurs d’applications déterminent que la précision des réponses est d’une importance significative ».

Des modèles pour corriger d’autres modèles

Elle redirige aussi vers un article mis en ligne récemment par les chercheurs de Microsoft sur arXiv. Comme le remarque TechCrunch, « le document omet des détails essentiels, tels que les ensembles de données utilisés pour entrainer les modèles ».

Cet article propose un enchainement de deux modèles de langage pour analyser la phrase générée par le modèle testé. Le premier modèle de Correction, un petit modèle, va classer la phrase en tant qu’ « hallucination » ou pas. Si la phrase est catégorisée comme telle, un autre modèle, plus gros, est utilisé pour générer une explication de cette catégorisation. Si ce modèle considère que la phrase générée n’est pas une « hallucination », un mécanisme de retour d’information affine les résultats du premier modèle.

Le système de Microsoft, qui utilise la génération augmentée de récupération (RAG, retrieval-augmented generation), a besoin de s’appuyer sur un ensemble de documents donné par l’utilisateur comme « base de raisonnement ».

Les hallucinations sont intrinsèques aux modèles de langage

Interrogé par TechCrunch sur ce système, Os Keyes, doctorant à l’université de Washington, explique qu’ « essayer d’éliminer les hallucinations de l’IA générative, c’est comme essayer d’éliminer l’hydrogène de l’eau ».

Pour Mike Cook, chercheur à l’université Queen Mary, cette correction au fil de l’eau et sans transparence pourrait donner un faux sentiment de disparition des hallucinations. « Microsoft, comme OpenAI et Google, ont créé cette situation problématique dans laquelle on se fie aux modèles dans des scénarios où ils se trompent fréquemment » explique-t-il à TechCrunch. Mais pour Mike Cook, « Microsoft répète maintenant l’erreur à un niveau plus élevé. Disons que cela nous fait passer d’une sécurité de 90 % à une sécurité de 99 %le problème n’a jamais vraiment été dans ces 9 %. Il se situera toujours dans le 1 % d’erreurs que nous ne détectons pas encore ».

Une perte de confiance des clients

Problème pour Microsoft et ses concurrents, les « hallucinations » commencent à miner la confiance de leurs utilisateurs dans leurs nouveaux outils. Nos collègues de The Information expliquaient début septembre que certains clients de Microsoft n’utilisent plus l’IA d’Office censée les aider. Fin juillet, Business Insider racontait qu’une entreprise de l’industrie pharmaceutique a abandonné au bout de six mois son accord avec Microsoft concernant Copilot, car les outils proposés n’étaient pas assez performants pour justifier l’investissement.

Interrogés par le cabinet de KPMG, six responsables de la tech du Royaume-Uni sur dix considèrent que les hallucinations sont les plus gros problèmes lorsqu’on adopte des outils d’IA générative.

☕️ Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Un terminal Starlink aurait été découvert par l’Ukraine sur un drone russe

Selon le média ukrainien Defense Express et repris par Newsweek, la Russie aurait installé des terminaux Starlink sur ses drones Shahed de conception iranienne.

L’armée ukrainienne a indiqué mercredi dernier avoir intercepté 28 des 32 drones Shahed-136 lancés par la Russie dans la nuit de mardi à mercredi. Defense Express affirme que l’un d’entre eux était équipé d’un terminal Starlink.

Interrogées par Newsweek, les forces ukrainiennes n’ont pas voulu aborder le sujet, confirmant seulement qu’elles analysaient les cibles abattues.

L’histoire ne dit pas si Starlink compte cette utilisation dans les 4 millions d’utilisateurs qu’elle a revendiqués récemment.

❌