Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Transhumanisme, long-termisme… comment les courants « TESCREAL » influent sur le développement de l’IA

26 avril 2024 à 06:08
Artificial Ideology
Un crâne ouvert au sommet sert de piscine à un homme qui se baigne dans une bouée canard, le tout sur fond bleu tirant vers le noir.

Selon l’éthicienne de l’intelligence artificielle Timnit Gebru et le philosophe Emile Torres, les courants transhumaniste, altruiste effectif et long-termiste infusent des idées violemment discriminantes dans le monde de l’IA.

En janvier 2023, des e-mails vieux de vingt ans font surface. On y lit le philosophe Nick Bostrom, alors directeur du Future of Humanity Institute de l’université d’Oxford, écrire que « les noirs sont plus stupides que les blancs ». Nick Bostrom est influent dans plusieurs cercles d’importance, dans le monde de l’intelligence artificielle, notamment les milieux de l’altruisme effectif et du long-termisme.

Confronté publiquement, l’homme s’excuse pour sa correspondance raciste. Il le fait d’une telle manière, cela dit, que d’autres personnalités du monde de l’intelligence artificielle, comme la linguiste Emily Bender, s’insurgent : pour elle, Bostrom s’est débrouillé pour reformuler son injure initiale.

Après cet épisode, Emile Torres s’est entretenu avec divers adeptes du long-termisme. « À peu près chaque fois, ils m’annonçaient qu’ils n’étaient pas racistes, rapporte le philosophe à Next. Ça les énerve. » Le progressisme lui-même a des racines eugénistes, pointe-t-il, « ça ne veut pas dire qu’il faut continuer de promouvoir ces idées-là, ni que le futur doit être déterminé par des idées eugénistes. »

Mis face à cette question, sourit-il, les réactions sont généralement divisées. « Certaines personnes vont fermement réfuter le fait que les idéologies TESCREAL sont racistes », ce qui n’empêchera pas leurs liens avec les thèses eugénistes d’exister. « Et d’autres, comme Peter Thiel ou le mouvement réactionnaire, seront complètement ok avec le fait d’être raciste. Elon Musk lui-même est plutôt raciste. »

TESCREAL, comme nous l’expliquions dans notre article précédent, est un acronyme derrière lequel Emile Torres et l’éthicienne de l’intelligence artificielle Timnit Gebru rassemblent divers courants de pensée influents dans la Silicon Valley : le transhumanisme, l’extropianisme, le singularitarisme, le cosmisme (moderne), le rationalisme, l’altruisme effectif et le long-termisme.

Dans un article récemment publié dans la revue First Monday, ils exposent comment la recherche d’un être « posthumain » à la « superintelligence » et la quête d’une intelligence artificielle « générale » peuvent être reliés à certaines idées au fondement du mouvement eugéniste du tournant du XXe siècle. Ils y alertent, aussi, sur la manière dont des concepts de « sûreté de l’intelligence artificielle » (AI safety) et de recherche du « bien de l’humanité » permettent en réalité à ces mouvements d’influer sur les priorités de développement en IA et de se soustraire aux obligations de rendre des comptes au plus grand nombre.

« De nombreuses personnes travaillant sur l’intelligence artificielle générale ne sont peut-être pas conscientes de leur proximité avec les points de vue et les communautés TESCREAL », préviennent d’emblée les deux scientifiques. Contestant la scientificité de la course à une « intelligence » artificielle « générale », les deux universitaires appellent à la promotion de modèles d’intelligence artificielle précisément définis, testables, et construits d’une manière qui les rendent réellement sécurisables.

L’alignement, au cœur du paradoxe


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Transhumanisme, long-termisme… des idéologies aux racines eugénistes ?

25 avril 2024 à 09:31
Science artificielle
Un crâne ouvert au sommet sert de piscine à un homme qui se baigne dans une bouée canard, le tout sur fond rouge tirant vers le noir.

Transhumanisme, altruisme effectif et long-termisme ne seraient-ils que diverses facettes d’une même pièce ? C’est la thèse de l’éthicienne de l’intelligence artificielle Timnit Gebru et du philosophe Emile Torres, qui réunissent ces idées sous l’acronyme TESCREAL et les lient au courant eugéniste.

L’intelligence artificielle générale (AGI) est-elle un réel idéal ? Est-ce un idéal bénéfique pour la majorité ? Faut-il continuer de financer la recherche pour la création d’une telle entité supposée dépasser les capacités humaines quand, dans le même temps, ceux qui y œuvrent alertent sur les dangers d’une AGI « non-alignées » avec les valeurs de l’humanité ?

Lorsqu’on creuse ce paradoxe, on tombe rapidement sur différents courants de pensée qui animent depuis plusieurs années la Silicon Valley. Transhumanisme, altruisme effectif, long-termisme… Le monde technologique baigne dans ces mouvements qui irriguent, en particulier, la recherche en intelligence artificielle la plus en vue.

Si ces mouvements sont débattus depuis longtemps, la critique s’accentue depuis plusieurs mois. Elle est notamment portée par les alertes de l’ingénieure Timnit Gebru et le philosophe Emile Torres, qui alertent sur les liens idéologiques que ces courants entretiennent avec un mouvement plus ancien : l’eugénisme. Dans un article tout juste paru dans la revue First Monday, les deux scientifiques relient les idées au fondement des TESCREAL (un acronyme qui réunit transhumanisme, Extropianisme, singularitarisme, cosmism, Rationalisme, Altruisme Effectif et long-termisme) à celles de ce courant dont les idées ont irrigué les démocraties européennes au tournant du XXe siècle, et qui en a motivé les heures les plus sombres.

« De nombreuses personnes travaillant sur l’intelligence artificielle générale ne sont peut-être pas conscientes de leur proximité avec les points de vue et les communautés TESCREAL », préviennent d’emblée Gebru et Torres.

Les principaux promoteurs des courants TESCREAL « ont été très efficaces en termes de stratégie, explique Émile Torres à Next. Ils ont été super bons pour trouver les meilleures manières d’atteindre leurs buts », en se positionnant dans des universités influentes (comme Oxford, au Royaume-Uni, qui vient tout juste de fermer le Future of Humanity Institute dirigé par le philosophe Nick Bostrom depuis vingt ans), en attirant des financements et en détournant l’attention trop précise des régulateurs. 


Résultat, écrit-il avec Timnit Gebru : « Les idéologies TESCREAListes sont le moteur de la course à l’AGI, même si toutes les personnes associées à l’objectif de construction de l’AGI ne souscrivent pas à ces visions du monde. » Contestant la scientificité de la course à une « intelligence » artificielle « générale », les deux universitaires appellent à la promotion de modèles d’intelligence artificielle précisément définis, testables et construits d’une manière qui les rend réellement sécurisables.

Un acronyme pour les rassembler tous


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Glucksmann visé par une campagne de désinformation pro-chinoise

17 avril 2024 à 05:12
Raphaël Glucksmann

Engagé en faveur de la minorité musulmane ouïghoure, Raphaël Glucksmann, tête de liste PS-Place Publique pour les élections européennes, a été averti d’une campagne de désinformation à son encontre, selon l’AFP.

C’est l’organisme gouvernemental Viginum, en charge de la lutte contre la désinformation en période électorale, qui a sonné l’alerte.

Interdit de voyager sur le sol chinois depuis 2021 à cause de ses positions politiques, Glucksmann est, dans la campagne actuelle, accusé en ligne d’être le cheval de Troie des Américains.

C’est la première campagne de désinformation à l’approche des élections parlementaires européennes mise à jour publiquement. Ironique, quand on sait que l’eurodéputé préside la commission spéciale sur l’ingérence étrangère dans les processus démocratiques de l’Union européenne.

Élections européennes : Meta échoue à modérer des publicités de propagande pro-russe

17 avril 2024 à 06:01
Doppelgänger toujours actif

[Exclusivité Next] Une nouvelle étude d’AI Forensics illustre la faiblesse de la modération des publicités politiques réalisée par Meta, et la manière dont des réseaux d’influence pro-russe en tirent profit.

Alors qu’en France, VIGINUM a alerté Raphaël Glucksman (tête de liste PS-Place Publique) qu’il était visé par une campagne de désinformations menée par des acteurs pro-chinois, c’est une autre opération, d’obédience pro-russe, contre laquelle alerte AI Forensics.

Dans une étude publiée ce 17 avril, l’ONG estime qu’au moins 60 % des publicités politiques diffusées sur Facebook et Instagram ne sont pas déclarées comme telles (contrairement aux règles de Meta).

Parmi elles, l’entreprise n’en modère que 5 %, même si certaines publicités sont ouvertement politiques (par exemple en France, seulement 16,3 % des 293 publicités contenant le nom du Président Macron ont été modérées).


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Glucksmann visé par une campagne de désinformation pro-chinoise

17 avril 2024 à 05:12
Raphaël Glucksmann

Engagé en faveur de la minorité musulmane ouïghoure, Raphaël Glucksmann, tête de liste PS-Place Publique pour les élections européennes, a été averti d’une campagne de désinformation à son encontre, selon l’AFP.

C’est l’organisme gouvernemental Viginum, en charge de la lutte contre la désinformation en période électorale, qui a sonné l’alerte.

Interdit de voyager sur le sol chinois depuis 2021 à cause de ses positions politiques, Glucksmann est, dans la campagne actuelle, accusé en ligne d’être le cheval de Troie des Américains.

C’est la première campagne de désinformation à l’approche des élections parlementaires européennes mise à jour publiquement. Ironique, quand on sait que l’eurodéputé préside la commission spéciale sur l’ingérence étrangère dans les processus démocratiques de l’Union européenne.

Comment la désinformation d’extrême-droite sert les intérêts russes en France

16 avril 2024 à 14:09
propagande-as-a-service

L’International Centre for Counter-Terrorism publie un ouvrage détaillant les liens entre Russie et extrêmes droites dans dix pays européens. En France, il s’attarde sur les effets des campagnes de Joël Sambuis et de Rémy Daillet-Wiedemann, qui ont tous deux opéré depuis l’étranger.

En Serbie, en Autriche, en Pologne, en Slovaquie… La Russie mène une « campagne de subversion permanente en Europe et dans le monde », en utilisant des tactiques « proches de la guerre ». Tel était le constat dressé en 2021 par l’ONG états-unienne Freedom House.

Dans son ouvrage La Russie et l’extrême-droite, aperçus de dix pays européens paru mi-avril, le Centre International pour le Contre-Terrorisme (International Centre for Counter-Terrorism, ICCT) s’emploie à détailler les modalités et les effets de ces actions. En analysant deux cas spécifiques par pays, le document détaille comment la Russie tente, et « réussit dans une large mesure », à influencer les milieux dits « REMVE », c’est-à-dire extrémistes violents aux motivations raciales ou ethniques (racially and ethnically motivated violent extremism) en Europe, ainsi que les extrêmes droites au sens plus large.

Pour ce qui est du cas français, plus spécifiquement détaillé par le spécialiste des extrémismes et de la désinformation Nicolas Hénin, force est de constater que l’influence passe beaucoup par les milieux numériques. Avec, en bout de chaîne, des passages à l’acte violent par des individus acquis à une série d’idées (déclin français ou occidental, anti-modernisme, anti-américanisme ou anti-atlantisme, etc) parfaitement alignés avec les intérêts du Kremlin.

Des extrêmes droites en mutation


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

IA : Prompt injection, empoisonnement… de quoi on parle ?

11 avril 2024 à 06:59
B.a.bIA #3
lexique IA parodie

Les expressions se multiplient, quand on parle d’intelligence artificielle. Mais qu’est-ce qu’une injection de prompt ? Et une attaque adverse ?

Prompt injection, empoisonnement et autres attaques adverses… Quand on parle d’intelligence artificielle, en particulier générative, les nouvelles expressions sont nombreuses. Dans cette édition de notre lexique de l’IA, penchons-nous sur celles qui qualifient les attaques, déjà variées, qui visent à fragiliser les modèles d’apprentissage machine ou à contourner diverses restrictions implémentées par les constructeurs. 



Nos précédents lexiques de l’IA :

Prompt injection


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

En 2022, les humains ont produit 62 milliards de kg de déchets électroniques

9 avril 2024 à 08:35
Et n'en ont recyclé qu'un cinquième

Au rythme actuel, selon les estimations de l’Unitar, le volume de déchets de produits électriques et électroniques croit plus vite que les activités visant à les recycler.

En 2022, nous avons produit 62 milliards de kg de déchets électriques et électroniques (e-waste) à l’échelle de la planète, soit une hausse de 82 % par rapport à leur niveau de 2010. La tendance n’est pas près de s’inverser : selon l’institut des Nations Unies pour la formation et la recherche (Unitar), le volume de déchets électroniques devrait encore augmenter de 32 % d’ici 2030, pour atteindre une production annuelle de 82 milliards de kg.

L’Unitar a publié fin mars son dernier rapport sur la production de déchets électroniques à l’échelle mondiale. Son principal constat : le volume de déchets augmente vite, cinq fois plus vite, même, que leur recyclage. En 2022, selon les documentations disponibles, 22,3 % de ces déchets avaient été correctement collectés et recyclés. Sauf que chaque année, le volume de produits à traiter augmente de 2,6 milliards de kg et les Européens y jouent un grand rôle, eux qui produisent sept fois plus de déchets électroniques que les Africains.

Or, les processus de recyclage progressent plus lentement, si bien qu’au rythme actuel, l’Unitar prévoit une baisse de la part recyclée à horizon 2030, pour ne plus concerner que 20 % du total des déchets électroniques produits. Pour le moment, note par ailleurs son rapport, le recyclage ne permet de répondre qu’à 1 % de la demande en terres rares.

Des indicateurs standardisés à l’échelle de la planète


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Neurone, inférence, entraînement, hallucination… de quoi on parle ?

5 avril 2024 à 06:15
B.a.bIA #2
lexique IA parodie

Les expressions se multiplient, quand on parle d’intelligence artificielle. Mais qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?

Machine learning, apprentissage non-supervisé, hallucinations… Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique.

Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

Notre précédent lexique de l’IA :

Machine learning, deep learning

Entraînés sur de vastes sommes de données, les modèles d’apprentissage machine (machine learning) y détectent des schémas et des tendances qui leur permettent de réaliser des prédictions ou des recommandations de plus en plus précises, au fil des essais/erreurs et/ou des optimisations réalisées par leurs constructeurs.

Sous-champ de ce domaine, le deep learning, ou apprentissage profond, concerne des systèmes algorithmiques construits sur une architecture en réseau de neurones artificiels à multiples couches – plus il y a de couches de neurones artificiels, plus le modèle est profond.

Si l’apprentissage machine est le domaine qui fait le plus parler depuis bientôt une quinzaine d’années, il est loin d’être le seul axe par lequel créer des modèles d’intelligence artificielle. Les systèmes experts, qui fonctionnent avec des règles préétablies, sont une autre manière d’en construire. Ils fonctionnent notamment à l’aide de moteurs d’inférence.

Neurone artificiel

Dans le champ informatique, le fonctionnement des réseaux de neurones (neural networks) est inspiré de la réalité biologique. Le nœud d’un tel réseau peut donc recevoir plusieurs valeurs en entrée pour n’en générer qu’une en sortie. Comme l’explique la CNIL, le neurone calcule la valeur qu’il produira en sortie en appliquant une fonction d’activation à la somme pondérée des valeurs reçues en entrée. Un neurone peut par exemple simuler une porte logique « ou » ou une porte « et », comme expliqué dans cette vidéo. Un seul neurone ne peut pas faire un « ou exclusif », mais trois neurones le peuvent. Et on retombe bien vite sur l’informatique classique, qui fonctionne à base de portes logiques. Des neurones sont ensuite interconnectés afin de constituer une architecture de calcul. « Il existe de nombreux types de réseaux de neurones artificiels tels que les réseaux de neurones récurrents, les auto-encodeurs, les réseaux transformeurs ou encore les réseaux antagonistes génératifs (generative adversarial networks) », ajoute la CNIL. Pour mieux comprendre le fonctionnement d’un neurone et l’avantage de les interconnecter pour en faire un réseau, on ne peut que vous conseiller de regarder cette série de vidéos d’Arnaud Bodin de l’université de Lille.

Paramètres

Un paramètre est une des propriétés apprises à partir des données d’entraînement. Les paramètres d’un modèle sont les multiples variables à partir desquelles la machine est entraînée et optimisée, et qui lui permettent, à terme, de produire des résultats corrects. Dans les systèmes en réseaux de neurones, ces paramètres incluent le poids (ou nombre d’entrées) de chaque neurone. Les gros réseaux de neurones actuels disposent de plusieurs dizaines de milliards de paramètres. GPT-2 en affiche 1,5 milliard, GPT-3 175 milliards. Pour GPT-4 il serait question de 1 000 milliards de paramètres. En gros, plus le chiffre est élevé, plus l’intelligence artificielle sera précise, mais au prix d'un coût d'entraînement plus important en énergie.

Quantification

Les grands modèles de langage (LLM) contenant un nombre de paramètres toujours plus volumineux, leur consommation de mémoire GPU ne fait, elle aussi, que s’accroître. Pour contraindre autant que possible l’empreinte des systèmes, des techniques de quantification (quantization) sont utilisées pour réduire la précision numérique des nombres flottants qui servent de paramètres aux modèles. Comme l’explique Hugging Face, cela consiste à ne plus utiliser des nombres flottants de haute précision (sur 32, voire 64 bits), mais plutôt de les convertir sur un plus faible nombre de bits, vers 16 bits (float16 ou bfloat16), voire en nombres entiers de 8 bits (int8). Cela rendra le modèle un peu moins précis, mais aussi plus rapide. La quantification peut avoir lieu en amont de l’entraînement (on parle de quantization aware training, QAT), ou en aval (post-training quantization, PTQ).

Inférence, entraînement, apprentissage

Une inférence est une opération logique, qui consiste à passer de prémisses (des faits, des énoncés déclarés vrais) à des conclusions. Dans certains cas, on peut parler de déduction. Si le terme est d’abord utilisé dans le champ de la philosophie, on le retrouve en informatique… dans les systèmes qui simulent le raisonnement déductif. C’est notamment le cas des moteurs d’inférences qui permettent aux systèmes experts de fonctionner. Chez Next, on entend parfois des data scientists utiliser indifféremment entraînement et inférence. Depuis l’essor des techniques d’apprentissage machine, il semblerait, en effet, que le terme d’inférence en soit venu à décrire le processus par lequel ce type de système produit ses prédictions ou ses recommandations de décisions. Il existe néanmoins une différence, comme l’explique la société XII (service et conseil en IA) : « L'inférence en intelligence artificielle fait référence au processus par lequel un modèle formé ou entraîné est utilisé pour effectuer des prédictions sur de nouvelles données, après sa phase d'apprentissage. Lors de l'apprentissage, le modèle est exposé à un vaste ensemble de données d'entraînement annotées, où il cherche à identifier des schémas, des caractéristiques et des relations qui lui permettront de généraliser les connaissances acquises sur de nouvelles données. Une fois que le modèle a été suffisamment entraîné, il peut être déployé en production pour effectuer des inférences sur des données non annotées sans avoir besoin d'accéder aux données d'apprentissage ». Elle reconnait néanmoins que la distinction entre les deux peut parfois sembler floue, d’autant que pendant l'entraînement, le modèle effectue des inférences pour ajuster ses paramètres. « Cependant, dans le contexte de l'IA, on utilise souvent le terme “inférence” pour décrire l'utilisation du modèle déployé en production, tandis que l’apprentissage se réfère à la phase initiale où le modèle est entraîné sur des données annotées ». On retrouve la même distinction chez Cloudflare et d’autres. Dans la série des synonymes, on parle aussi d’apprentissage pour qualifier le processus par lequel le système d’intelligence artificielle construit un modèle à partir de ses données d’entraînement. Il existe en réalité une variété de techniques d’apprentissage, qui peuvent être mêlées : les forêts aléatoires (random forests) consistent à créer de multiples arbres de décisions, eux-mêmes entraînés sur des sous-ensembles de données ; l’apprentissage par renforcement consiste à faire progresser le système par essai/erreur, on peut y adjoindre des retours automatiques, ou des retours humains, comme c’était le cas pour GPT-4, etc.

Apprentissage supervisé, apprentissage non supervisé

Quelles que soient les techniques d’entraînement adoptées, celles-ci sont nécessaires pour que le système d’IA construise le modèle qui lui permettra de répondre au cas d’usage qu’on lui a assigné. Cette phase peut être supervisée ou non. Dans le premier cas, on donne à la machine des données préalablement étiquetées. Le système apprend donc à faire des prédictions relatives à la relation qui lie les étiquettes aux données qu’elles qualifient. Quand le système apprend à partir d’une somme de données non étiquetées, on parle d’apprentissage non supervisé. Dans ces cas-là, la machine est généralement entraînée à repérer des schémas ou des tendances dans la masse d’informations reçues.

Annotation, labellisation

L’annotation, l’étiquetage ou la labellisation sont autant de qualificatifs de l’une des tâches humaines essentielles pour permettre à bon nombre de systèmes d’intelligence artificielle de fonctionner : ce sont les activités qui consistent à étiqueter les données, pour permettre aux modèles d’être entraînés par apprentissage supervisé. On croise aussi le terme de groundtruth (vérité terrain) pour qualifier les données issues du monde hors ligne, décrivant le réel, qui servent à entraîner les machines. Le terme groundtruth peut être employé pour différencier ces éléments des données produites par inférences.

Hallucination ou confabulation ?

Hallucination et confabulation sont deux autres termes très utilisés dans le champ technologique, alors qu’ils définissent à l'origine des troubles psychologiques. Une hallucination est un phénomène psychique qui pousse à percevoir des éléments inexistants ou à ressentir des sensations sans que quoique ce soit d’extérieur ne les ait fait naître. Quant à la confabulation, il s’agit de la création de souvenirs qui n’ont jamais existés, ce qui peut aller de petites erreurs anodines jusqu’aux perturbations avancées des récits qu’on peut trouver chez des personnes atteintes de démence. Dans le champ de l’intelligence artificielle, les hallucinations désignent des erreurs dans lesquelles le système produit du texte ou des images incohérents, les confabulations désignent la production de résultats qui ne correspond à aucun motif (pattern) appris précédemment… et les deux termes peuvent être utilisés de manière plus ou moins interchangeable, en attendant qu’une tendance nette se dégage. Citations de sources inexistantes, attributions de textes imaginaires à des personnes réelles et autres affirmations fausses en sont des exemples pour les systèmes générant du texte, de même que la reconnaissance d’objets ou de motifs inexistants peuvent l’être pour les systèmes de reconnaissance d’images.
Dans ce screenshot d'une génération de vidéo par le modèle Sora, la machine a produit une deuxième voie sur le viaduc Glennfinnan, en Écosse, ainsi qu'une deuxième cheminée sur la locomotive ancienne du train. Aucun des deux n'existent dans la réalité.
Pour une linguiste comme Emily Bender, utiliser des termes aussi évocateurs de la pensée (et des erreurs) humaine participe à faire passer les technologies d’intelligence artificielle pour ce qu’elles ne sont pas, c’est-à-dire des machines pensantes. Avec Timnit Gebru, Margaret Mitchell et les autres signataires de l’article sur les « perroquets stochastiques », publié en 2020, elle rappelait par exemple que les grands modèles de langages ne sont que des systèmes probabilistes. C’est-à-dire qu’ils produisent des textes certes crédibles aux yeux des humains, mais uniquement produits par calculs statistiques. Les machines sont incapables d’y mettre le moindre sens, ce qui participe à expliquer qu’elles produisent des erreurs de sens ou des résultats faux.

Neurone, inférence, entraînement, hallucination… de quoi on parle ?

5 avril 2024 à 06:15
B.a.bIA #2
lexique IA parodie

Les expressions se multiplient, quand on parle d’intelligence artificielle. Mais qu’est-ce qu’un neurone artificiel ? Et quelle différence entre une hallucination humaine et celle d’une machine ?

Machine learning, apprentissage non-supervisé, hallucinations… Au gré de nos articles sur l’intelligence artificielle, nous utilisons à loisir tout un vocabulaire qui, s’il est souvent tiré d’activités humaines, qualifie bien des éléments spécifiques au champ informatique.

Après avoir décortiqué une partie des expressions génériques qui qualifient certains champs et sous-champs du domaine, intéressons-nous donc au fonctionnement plus précis des systèmes d’IA.

Nos autres lexiques de l’IA :

Machine learning, deep learning

Entraînés sur de vastes sommes de données, les modèles d’apprentissage machine (machine learning) y détectent des schémas et des tendances qui leur permettent de réaliser des prédictions ou des recommandations de plus en plus précises, au fil des essais/erreurs et/ou des optimisations réalisées par leurs constructeurs.

Sous-champ de ce domaine, le deep learning, ou apprentissage profond, concerne des systèmes algorithmiques construits sur une architecture en réseau de neurones artificiels à multiples couches – plus il y a de couches de neurones artificiels, plus le modèle est profond.

Si l’apprentissage machine est le domaine qui fait le plus parler depuis bientôt une quinzaine d’années, il est loin d’être le seul axe par lequel créer des modèles d’intelligence artificielle. Les systèmes experts, qui fonctionnent avec des règles préétablies, sont une autre manière d’en construire. Ils fonctionnent notamment à l’aide de moteurs d’inférence.

Neurone artificiel


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Billie Eilish, Pearl Jam, Stevie Wonder… 200 artistes alertent contre l’usage de l’IA dans la musique

3 avril 2024 à 12:25
Symphonie en bits mineurs

Portée par l’Artists Rights Alliance, une lettre ouverte signée par 200 artistes de renom appelle à protéger le travail et la rémunération des musiciens face à l’IA générative. Un texte qui s’insère dans la bataille en cours pour la protection des industries culturelles.

Billie Eilish, Pearl Jam, Stevie Wonder… Dans une lettre ouverte diffusée par l’Artists Rights Alliance, 200 artistes états-uniens de renoms appellent à mieux protéger les droits des « artistes humains » face à l’usage croissant d’intelligence artificielle (IA).

« Sans contrôle, l’IA va provoquer une course à la médiocrité qui dégradera la valeur de notre travail et nous empêchera d’être correctement rémunérés », s’inquiètent-ils. Ils viennent ainsi ajouter leurs voix à celles d’une série d’autres artistes – dessinateurs, auteurs, acteurs, scénaristes, etc.

« Nous demandons à tous les développeurs d’IA, les entreprises technologiques, les plateformes numériques et les services musicaux de s’engager à ne pas développer ou déployer de technologies, de contenu ou d’outils de génération de musique par l’IA qui sapent ou remplacent l’art humain des auteurs-compositeurs et des artistes, ou qui nous privent d’une juste rémunération pour notre travail », appellent Mumford & Sons, Norah Jones ou les ayants droits de Bob Marley et Frank Sinatra.

Lutter contre l’ « usage prédateur de l’IA » dans la musique


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Jeux vidéo : le secteur de l’e-sport en pleine croissance

2 avril 2024 à 14:45
gg
Une joueuse de jeu vidéo serre les poings en signe de victoire

Le chiffre d’affaires du monde de l’e-sport a triplé entre 2019 et 2022, au bénéfice des structures commerciales, selon le premier rapport de l’Observatoire économique de l’e-sport.

En septembre 2022, les League of Legends European Championships Season Finals attiraient 20 000 personnes à Montpellier. En mai 2023, Major Counter Strike, organisé par BLAST TV, brassait 50 000 spectateurs à Paris. Porté par le succès des plateformes de streaming comme Twitch, l’e-sport fédère un nombre croissant de spectateurs comme de joueurs, mais quel est son poids dans l’économie française ?

Telle est la question à laquelle l’Observatoire économique de l’e-sport a pour mission de répondre. Créé par le Ministère des Sports, le Syndicat des éditeurs de logiciels de loisirs (SELL), Paris & Co et le Centre de Droit et d’Économie du Sport (CDES), l’entité vient de publier son premier rapport sur le développement économique du secteur de l’e-sport.

Il y calcule que le chiffre d’affaires du secteur atteint les 141 millions d’euros, soit quasiment le triple de son niveau de 2019. Le domaine emploierait aussi un peu plus d’un millier d’équivalents temps plein (ETP), en hausse de 56 % par rapport au nombre d’emplois relevé avant la pandémie. Enfin, 30 % des acteurs étudiés ont été créés depuis 2020, ce qui « témoigne d’un certain dynamisme du secteur ». Si ces structures sont dynamiques, elles ne génèrent pour le moment que 10 % du chiffre d’affaires total du domaine, fortement concentré autour d’un faible nombre d’acteurs.

Jeu-vidéo et e-sport, des pratiques toujours plus courantes


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Photos intimes, deepnudes : 13 femmes en colère s’organisent

28 mars 2024 à 16:17
Pour une culture du consentement
Les visages de treize activitses, juristes et universitaires européennes, spécialistes de la lutte contre la diffusion non consentie d'images intimes, avec la batte de Harley Quinn.

En Allemagne, activistes et spécialistes européennes de la lutte contre la diffusion non consentie d’images à caractère sexuel se sont réunies pour mettre leurs forces en commun. Next les a suivies pendant une partie de leurs travaux.

Rendez-vous a été donné à Bochum. La petite ville industrielle est coincée entre ses sœurs aînées, Dortmund et Essen, au fin fond de la vallée de la Ruhr. C’est dans cet endroit qui les fait rire, tant il est improbable, que des activistes, des juristes, des sociologues et une ex-hackeuse se sont retrouvées pendant trois jours pour discuter de la lutte qu’elles mènent, chacune dans leur pays, contre la diffusion non consentie d’images à caractère sexuel.

Diffusions d’images intimes auprès d’un large public, comme en ont été victimes toute une variété de stars américaines en 2014, ou le sont régulièrement des filles et des femmes moins célèbres ; publications d’images à caractère sexuel captées sans le consentement des victimes, comme à l’issue du festival A Maruxaina, en 2019, en Espagne, ou des femmes furent filmées en train d’uriner, et les vidéos partagées sur des sites pornographiques ; upskirting (photos prises sous les jupes), phénomène particulièrement récurrent au Japon ou en Corée ; deepfakes à caractères pornographiques, parfois qualifiés de « deepnudes », créés pour humilier des stars comme Taylor Swift, des journalistes comme Salomé Saqué, des écolières comme celles de la ville d’Almendrajelo, en Espagne, ou du New Jersey, aux États-Unis…

« Le phénomène dont on parle n’a rien de spécifiquement national, donc il m’a paru nécessaire de passer à une échelle internationale » lance Silvia Semenzin. Sociologue du numérique en Espagne, activiste en Italie, elle est l’hôtesse de cette réunion organisée avec l’aide du Center for Advanced Internet Studies (CAIS), un institut allemand créé en avril 2021 pour « étudier les dynamiques de l’âge numérique et aider à les façonner ».

Autour de la table sont réunies une douzaine de femmes d’Europe de l’Ouest. Parmi elles : Shanley Clemot McLaren et Rachel-Flore Pardo, co-fondatrices de l’association française #StopFisha, Inês Marinho, créatrice du mouvement portugais Nao Partilhes (ne les partage pas), la juriste britannique Clare McGlynn, qui a participé à sensibiliser son pays à l’existence d’une « culture de la collection » d’images à caractère pornographique, ou encore Jenny Brunner, responsable des politiques publiques pour l’association allemande HateAid.

Images intimes, violence de genre en ligne… de quoi parle-t-on précisément ?

Et de chercher, rapidement, la meilleure définition des violences contre lesquelles elles luttent. Comme beaucoup de spécialistes, les participantes évitent de parler de « revenge porn », à la fois parce qu’aucune notion de « vengeance » ne saurait expliquer qu’une femme soit humiliée en ligne, et parce que certaines victimes vivent la qualification de « pornographie » des images en question comme une nouvelle agression.

Non, pour évoquer des agressions réalisées par l’intermédiaire de diffusion d’images (réelles ou falsifiées) à caractère sexuel, les expertes parlent plutôt par acronymes : NCII pour les agressions par diffusion non consenties d’images intimes (non-consensual intimate images), ou IBSA, pour agressions sexuelles par images interposées (image-based sexual abuse).

Au niveau de l’ONU, ces problématiques sont aussi rassemblées, avec d’autres (harcèlement numérique « classique », détournements de comptes sociaux, bancaires ou administratifs, espionnage par AirTags, logiciels espions, etc) sous le vaste parapluie des « violences de genre aidées par la technologie » (Technology-facilitated gender-based violence, TF-GBV). Ailleurs dans le monde – ou dans l’ouvrage de l’association #StopFisha –, on utilise aussi le terme de « cybersexisme ».

Car si les chiffres manquent, pour quantifier le nombre exact de victimes, le volume d’images non consensuelles qui circulent en ligne, la somme des auteurs de diffusions comme des internautes qui se contentent de les « consommer », il en existe suffisamment pour que les affaires de cyberviolences se succèdent, avec des conséquences parfois dramatiques. Les victimes sont nombreuses, qui témoignent vivre ou avoir vécu des idées suicidaires. Dans certains cas, elles passent à l’acte.

Les deepfakes pornographiques, dernière évolution de la menace

Il existe suffisamment d’images, aussi, pour alimenter les machines à générer des publications pornographiques synthétiques très crédibles. Menée par Home Security Heroes (une start-up qui lutte contre l’usurpation d’identité), une récente étude de plus de 95 000 deepfakes vidéos, 85 canaux dédiés et 100 sites liés à l’écosystème de création de deepfakes a conclu qu’en 2023, 98 % des vidéos deepfakes existant en ligne sont à caractère pornographique. Parmi elles, 99 % représentent des femmes. Des proportions très proches aux chiffres réunis en 2019 dans une autre étude, menée par Deeptrace, époque depuis laquelle le nombre de contenus synthétiques de ce type a explosé de 550 %.

Avec l’avènement de l’intelligence artificielle générative, les vidéos sont extrêmement simples à créer, puis publiées sur des sites pornographiques ou spécialisés dans le contenu synthétique. Les images produites sont facilement dégradantes – sur l’un de ces sites, le New-York Times relève par exemple des centaines de vidéos catégorisées sous les mots clés « viols », « pleurs » ou « dégradation ». En mars 2023, NBC News rapportait que le seul MrDeepfakes, l’un des sites les plus courus pour produire ce type de contenu, enregistrait 17 millions de visites par mois.

Selon une analyse publiée en décembre 2023 par Graphika, le business des images intimes non consenties créées de manière synthétique est rapidement passé de réservé à quelques niches numériques au stade d’objet d’un large commerce automatisé.

Résultat, en septembre 2023, l’entreprise calculait que plus de 24 millions de visiteurs uniques s’étaient rendus sur 34 sites web de ce type qu’elle avait identifiés. Et le volume de spams renvoyant vers ce type de sites a explosé de plus de 2 000 % sur Reddit et Twitter entre janvier et septembre 2023. À la même époque, Graphika rapportait aussi l’existence d’au moins 52 groupes Telegram réunissant au moins un million d’internautes.

Aux États-Unis comme en France et ailleurs dans le monde, les tentatives de sextorsion, notamment des plus jeunes, sont en nette augmentation. Et ces pratiques-ci, qui ne visent pas seulement à humilier et/ou collectionner des images dénudées, mais aussi à récupérer de l’argent, visent aussi les garçons et les hommes.

Que les images soient réelles ou synthétiques, « c’est un continuum », assène la sociologue Elisa Garcia Mingo, et rien ne l’illustre mieux que les forums même sur lesquels ces contenus sont partagés. La chercheuse se lève pour montrer à la ronde, depuis son ordinateur, un site de « partage » d’images « sexy ». Sur son écran, le forum recense, pêle-mêle, des bibliothèques entières d’images réelles ou synthétiques de femmes dénudées, classées par pays – nations hispanophones en tête, en cohérence avec la langue qui y est la plus utilisée.

« Mon historique est complètement foutu par mes recherches », s’exclame-t-elle. Alors que plusieurs autres femmes se sont approchées pour mieux voir, l’une demande au contraire de tourner l’écran : elle-même a été exposée en ligne, les images l’angoissent. À la pause café qui est bientôt déclarée, plusieurs discutent de ce qui déclenche leurs angoisses. Elisa Garcia Mingo admet être « désensibilisée », se demandant tout haut si c’est vraiment positif. Inês Marinho déclare que plus que les images, « ce sont les commentaires qui me mettent mal » : souvent, les images sont commentées, appréciées, ou les femmes qu’elles représentent insultées par ceux qui se les échangent.

Banalisation d’un comportement dévastateur

La majorité des auteurs de ces publications sont des garçons et des hommes – pour ce qu’on en sait, à plonger dans leurs boucles de discussions qui peuvent réunir de quelques dizaines à plusieurs centaines de milliers de personnes, ou à lire la littérature scientifique disponible. Leurs manières de se réunir et de diffuser ces images, elles, sont tout à fait classiques de l’ère numérique : de Reddit à Telegram en passant par Twitter, Discord ou Snapchat, tous les moyens classiques de discussion en ligne sont aussi utilisés pour faire communauté autour de l’échange rarement consenti d’images de femmes.

En matière de contenus synthétiques, les trois quarts d’entre eux ne ressentent aucune culpabilité à consommer des contenus de deepfakes pornographiques, relève encore l’étude de Home Security Heroes. « On manque d’une culture du consentement », constate Elisa Garcia Mingo.

Pourtant, « ce type d’agression piétine les droits humains », déclare Clare McGlynn, « et il a un coût pour la société ». Elle cite les coûts financiers en termes de prise en charge des victimes – en 2021, Féministes contre le cyberharcèlement relevait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, et pas loin d’une sur cinq des idées suicidaires –, ceux pour la vie publique, dans la mesure où ces publications incitent les femmes à s’effacer…


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Les Français ont une approche nuancée de l’intelligence artificielle

26 mars 2024 à 09:28
Plutôt attirés par les sciences et techniques

Les Français voient l’IA comme une révolution technologique peu avare en risques, selon le troisième baromètre de l’esprit critique d’Universcience.

On en parle, on y verse des fonds, mais quel est le rapport de la population française à l’intelligence artificielle ? C’est l’une des questions à laquelle a cherché à répondre l’établissement public Universcience (qui réunit la Cité des sciences et le Palais de la découverte) dans son troisième baromètre de l’esprit critique.

Outre analyser le comportement des Français face aux sciences (avec des résultats surprenants, des disciplines comme l’ostéopathie et l’astrologie étant plus souvent qualifiées de sciences par les 2004 personnes interrogées début février 2024 que la sociologie, l’écologie ou l’économie), l’enquête se penche aussi sur leur rapport à l’esprit critique, leurs manières de s’informer et, donc, leur vision de l’IA et de ces dernières itérations génératives.

© Universcience / OpinionWay

Une vision nuancée de l’intelligence artificielle


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Des peines de quatre à dix-huit mois de prison pour les cyberharceleurs de Magali Berdah

20 mars 2024 à 12:27
dont 14 condamnations à de la prison ferme

28 personnes ont été condamnées à des peines de quatre à dix-huit mois de prison, dont la moitié avec sursis, pour avoir participé au cyberharcèlement de l’agence d’influenceurs Magali Berdah.

Douze mois de prison ferme. C’est la peine la plus lourde jamais prononcée dans une affaire de cyberharcèlement en France, et l’une de celles prononcées ce 19 mars contre vingt-huit des cyberharceleurs de l’agence d’influenceurs Magali Berdah. Quatorze ont écopé de peines de prison avec sursis, les quatorze autres ont été condamnés à des peines de prison ferme (aménageables, car ne dépassant pas 1 an, ndlr).

Un nombre et une sévérité de peines « inédits, déclare son avocate Rachel-Flore Pardo à Next, qui montre que la justice française prend conscience de l’ampleur et de la gravité des questions de cyberharcèlement ».

Lors des audiences qui se sont tenues entre novembre 2023 et janvier 2024, la moitié des prévenus ne s’étaient pas présentés devant la cour. Dans la salle, ce 19 mars, seul l’un d’entre eux était présent, rapporte Mediapart. Et ce, alors que les avocats de Magali Berdah avaient par ailleurs comptabilisé plus de 100 000 messages insultants et menaçants.

Dizaines de milliers de messages d’insultes


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Arnaques en ligne : les seniors majoritairement victimes des faux calls centers

19 mars 2024 à 09:50
Les 30-49 ans toujours victimes de faux investissements

La criminalité numérique a provoqué 12,5 milliards de dollars de pertes potentielles aux États-Unis, selon le rapport annuel de l’Internet Crime Complaint Center du FBI.

En 2023, l’Internet Crime Complaint Center (IC3) du FBI, aux États-Unis, a reçu plus de 880 418 plaintes, soit près de 10 % de plus que l’année précédente. En valeur, selon son rapport annuel, les attaques ont provoqué un total potentiel de 12,5 milliards de dollars de pertes, en hausse de 22 % par rapport à 2022.

Le FBI qualifie néanmoins ces chiffres de « conservateurs », dans la mesure où il a « récemment infiltré l’infrastructure du groupe [de ransomware-as-a-service] Hive », et qu’il n’a pour le moment retrouvé que 20 % de ses victimes. Et le bureau d’enjoindre les victimes à se faire connaître.

Comme toujours, le phishing et le spoofing représentent la majeure partie des plaintes (298 878, soit le tiers du total), suivi par les fuites de données personnelles (6,4%), les non-paiements ou non livraisons (5,7%) et les extorsions (5,5%).

Faux investissement et arnaques au président provoquent le plus de pertes


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

US : un courtier de données attaqué pour avoir vendu les données d’un conducteur à un assureur

18 mars 2024 à 14:27
Spy how you drive

Aux États-Unis, un nombre croissant de conducteurs se plaignent de hausses inexpliquées de leur assurance automobile. L’un d’eux a porté plainte contre le courtier LexisNexis et le constructeur General Motors, alors qu’une enquête du New York Times révèle leurs business de données personnelles.

Propriétaire d’une Chevrolet Bolt, Kenn Dahl a toujours été un conducteur attentif. Au New York Times, ce soixantenaire explique avoir été surpris, en 2022, lorsqu’il a vu le coût de son assurance automobile grimper de 21 %. Alors qu’il consulte d’autres assureurs, un agent lui explique qu’un rapport du courtier de données LexisNexis, spécialiste des profils de risques, était un facteur important du prix proposé par les entreprises.

Kenn Dahl demande donc à l’entreprise de lui fournir son « rapport d’information au consommateur », comme la loi états-unienne l’y oblige. Il reçoit un document de 258 pages dans lequel sont répertoriés les détails de chacun de ses trajets en voiture sur les six derniers mois. Parmi les informations recueillies : l’heure de départ et celle d’arrivée, la distance parcourue, les accélérations, les accélérations fortes et les freinages brusques. « La seule donnée manquante était l’adresse à laquelle il avait conduit sa voiture », écrit la journaliste Kashmir Hill.

Selon le document, les données en question avaient été fournies par General Motors, le constructeur de la Chevrolet, à LexisNexis. Ce dernier, de son côté, se sert de ces données pour créer des scores de risques. Ceux-ci sont cédés à des assureurs, pour leur permettre de créer des produits « plus personnalisés », selon le porte-parole de la société. Au New York Times, Kenn Dahl explique s’être senti « trahi ».

Comme lui, Romeo Chicco, propriétaire d’une Cadillac, a vu son assurance doubler à la suite de la constitution d’un score de risque similaire par LexisNexis. La semaine dernière, il a porté plainte en Floride contre LexisNexis et General Motors.

Récupérer des données par tous les moyens


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Comment la réforme du bac a (encore) éloigné les filles des maths et des sciences

14 mars 2024 à 16:16
Des chiffres et des lettres
Une jeune fille sur son smartphone, dans un bus.

La réforme 2019 du bac général a renvoyé les effectifs de bacheliers scientifiques à leur niveau de 1988. Pour les filles, la chute a été encore plus prononcée.

En mettant fin au système de séries générales (littéraire, scientifique et économique) du baccalauréat général, la réforme du lycée de 2019 a offert aux élèves une plus grande latitude de choix dans la composition de leurs programmes. Problème, détaille la mathématicienne Mélanie Guenais dans The Conversation : cela s’est traduit par une chute nette des inscriptions dans les disciplines scientifiques, en particulier chez les filles.

Quand bien même la place des femmes a été déclarée grande cause du quinquennat 2017-2022, le retournement est « d’ampleur inédite » depuis 60 ans, écrit la vice-présidente de la Société Mathématique de France et coordinatrice du Collectif Maths&Sciences Mélanie Guenais.

Chute générale des bacheliers scientifiques


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La neutralité sur Wikipedia ? La question du deadname des personnes trans relance le débat

14 mars 2024 à 14:18
Questions encyclopédiques
Le logo Wikipédia version Yin et Yang

Depuis début février, le débat sur la manière de nommer les personnes trans sur Wikipedia résonne avec de plus larges questions de société sur la neutralité et la représentation.

Courant février, un débat a émergé sur Wikipedia, suffisamment fort pour trouver de l’écho dans les médias : fallait-il mentionner les deadnames (ou morinom, voire nécronyme, le prénom assigné à la naissance et abandonné pour en choisir un qui correspond mieux à l’identité de genre) dans les pages biographiques des personnes transgenres ? Plus précisément, fallait-il les mentionner dans le résumé introductif d’une page ? Et dans l’infobox, cette boîte située à gauche de la page, et dont les informations sont facilement réutilisées par les moteurs de recherche ?

Un sondage – dont la formulation et les modalités sont eux-mêmes débattus – a été ouvert le 12 février pour permettre à la communauté wikipédienne de tenter de trancher. S’il a été clos deux semaines plus tard (le détail de ses résultats est consultable ici), ses résultats comme le fond du sujet continuent d’être ardemment débattus, sur le bistro de Wikipedia, sur le réseau Mastodon et ailleurs : même la brève que nous avons publiée sur le sujet a suscité d’intenses discussions parmi vous, lectrices et lecteurs.

Le sujet, en soi, n’est pas neuf. Des évolutions sont même visibles : par rapport aux intenses débats qui avaient agité la communauté pour adapter la page de Chelsea Manning à l’annonce de sa transition, celle de l’acteur Elliot Page a très rapidement été modifiée pour prendre en compte l’information. Mais il s’inscrit dans des débats plus larges sur les questions de genre : auprès de Next, une wikipédienne qui ne souhaite pas être nommée a constaté que les deux sondages francophones ayant attiré le plus de personnes étaient celui-ci, et un de 2020, sur l’acceptation ou non de l’écriture inclusive (18 000 pages vues dans les six semaines autour de sa publication, près de 23 000 pour celui sur les morinoms).

Chaque fois, la virulence des débats a résonné avec ceux qui traversent, plus largement, la société.

L’état civil, information encyclopédique ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌
❌