Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierNext.ink

Les modèles de langage peuvent contenir des backdoors

6 mars 2024 à 15:38
IA pas de sécurité
des nuages de données s'échappent des cheminées de petites maisons dessinées en rang d'oignon

Des chercheurs de l’entreprise de sécurité JFrog ont détecté des backdoors dans le code de modèles de langage publiés sur Hugging Face, le dépôt phare de l’IA créé par la startup franco-américaine du même nom. En janvier, d’autres chercheurs ont montré qu’il était possible d’en insérer dans l’entrainement de modèles pour qu’ils répondent différemment dans des conditions bien précises.

Récemment, des chercheurs ont alerté sur deux sortes de backdoors qui peuvent se retrouver dans les modèles de langages qui permettent de créer des outils d’intelligence artificielle générative. L’une peut infecter les machines des data scientists qui utilisent les modèles, l’autre affecte les résultats attendus du modèle.

Les chercheurs de l’entreprise JFrog attirent l’attention des data scientists qui récupèrent des modèles pré-entrainés sur Hugging Face. En effet, ils ont trouvé sur cette plateforme de partage très connue dans le milieu, qui peut s’apparenter à un GitHub de l’IA, une centaine de modèles qui comportaient des backdoors ou des malwares.

Un accès total à la machine via internet


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le CNRS veut que ses logiciels libres génèrent des revenus

8 mars 2024 à 13:17
Libres mais pas forcément gratuits
Code informatique

Le logiciel libre a une place importante dans l’univers de la recherche publique. De nombreux chercheurs contribuent à des projets du libre ou en créent. Le CNRS veut maintenant aider ses chercheurs à intégrer leurs logiciels dans une « logique de satisfaction d’objectifs économiques viables » avec un programme de financement appelé « OPEN ».

On ne pouvait pas faire plus classique dans le nom de ce programme du CNRS : « OPEN ». Celui-ci a pour ambition d’accompagner les projets de logiciels libres des chercheurs du centre scientifique le plus connu de France pour « construire les meilleures façons de générer des revenus ou d’avoir un impact sociétal ou environnemental ».

Depuis plusieurs années maintenant, les structures scientifiques ont pris la main sur le mouvement de l’open science. Accès ouvert aux articles scientifiques ou open data. Alors qu’au départ, ces sujets étaient portés par des militants sur le terrain, le mouvement s’est petit à petit institutionnalisé.

Le résultat est une augmentation importante de l’ouverture des publications de leurs chercheuses et chercheurs. Mais elle s’est faite à un coût exorbitant et, contrairement à ce qui était voulu par le mouvement à l’origine, a permis aux multinationales de l’édition scientifique de conforter leurs places et d’augmenter leurs profits.

Institutionnalisation de la gestion des logiciels libres des chercheurs ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Le groupe de pirates russe Midnight Blizzard augmente la pression sur Microsoft

11 mars 2024 à 13:48
Une fuite dans le nuage
Le logo de Microsoft cassé fuit et une flaque s'est formée sur sa droite

Après avoir expliqué en janvier que des pirates russes du groupe Midnight Blizzard ont réussi à avoir accès aux boites mails de ses dirigeants, Microsoft annonce qu’ils ont, depuis, essayé de récupérer du code source et accéder à des systèmes internes.

Dans un billet de blog publié vendredi 8 mars, Microsoft indique que le groupe de pirates russe Midnight Blizzard (aussi connu sous le nom de Nobelium ou Cozy Bear, par ailleurs accusé de travailler pour un ou plusieurs services de renseignement russe) est toujours très activement en train de cibler la multinationale. Cette fois, leurs cibles sont des dépôts de code source et d’autres systèmes internes, ajoute l’entreprise.

Midnight Blizzard s’appuierait sur sa précédente attaque pour récupérer des données plus importantes : « ces dernières semaines, nous avons obtenu la preuve que Midnight Blizzard utilisait des informations initialement exfiltrées de nos systèmes de messagerie d’entreprise pour obtenir, ou tenter d’obtenir, un accès non autorisé. Il s’agit notamment d’accéder à certains dépôts de code source et à d’autres systèmes internes de l’entreprise. À ce jour, nous n’avons trouvé aucune preuve que les systèmes clients hébergés par Microsoft aient été compromis », déclare l’entreprise.

Microsoft a aussi prévenu la Securities and Exchange Commission (SEC, l’organisme américain de contrôle des marchés financiers) en utilisant les mêmes termes que dans son billet de blog.

Des conséquences encore floues


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Sam Altman de retour au conseil d’administration d’OpenAI

12 mars 2024 à 05:55
Illustration Back to the future Job

En novembre, OpenAI a vécu une semaine pour le moins agitée. L’entreprise a limogé son CEO Sam Altman, avant de le réintégrer quelques jours plus tard, avec un nouveau conseil d’administration.

Sam Altman était de nouveau CEO, mais sans faire partie du « board ». C’est désormais le cas, comme l’indique la société dans un communiqué. Nous ne savons toutefois toujours pas pourquoi Sam Altman avait été viré aussi rapidement par l’ancien conseil d’administration.

Quoiqu’il en soit, trois nouvelles personnes sont également ajoutées au conseil d’administration : Sue Desmond-Hellmann (ex-CEO de la fondation Bill and Melinda Gates), Nicole Seligman (ex-vice-présidente de Sony Corporation) et Fidji Simo (CEO et présidente de Instacart, ex-vice-présidente de Facebook).

Elles ont toutes les trois « de l’expérience dans la direction d’organisations mondiales et les environnements réglementaires complexes, y compris des antécédents dans les domaines de la technologie, des organisations à but non lucratif et de la gouvernance des conseils d’administration. Ils travailleront en étroite collaboration avec les membres actuels du conseil d’administration, Adam D’Angelo, Larry Summers et Bret Taylor, ainsi qu’avec Sam et la haute direction d’OpenAI », précise le communiqué.

☕️ Bobby Kotick (ex-Activision) souhaiterait racheter… TikTok

12 mars 2024 à 05:48
TikTok

Alors qu’une interdiction aux États-Unis plane de nouveau au-dessus de la tête de TikTok, le Wall Street Journal rapporte que Bobby Kotick (ex-patron d’Activision Blizzard avant le rachat par Microsoft) serait intéressé par un rachat de filiale américaine de TikTok.

« Kotick est à la recherche de partenaires. Lors d’un diner à une table à laquelle se trouvait notamment le PDG d’OpenAI Sam Altman, […] Kotick a lancé l’idée de s’associer pour acheter TikTok, selon des personnes familières avec la situation. OpenAI pourrait utiliser TikTok pour l’aider à former ses modèles d’IA », explique le Wall Street Journal.

Bobby Kotick aurait également « exprimé son intérêt » à cette opération au cofondateur de ByteDance, Zhang Yiming. Toujours selon nos confrères, le coût d’une telle opération se chiffrerait en centaines de milliards de dollars.

La Commission européenne épinglée pour son utilisation de Microsoft 365 sans protéger suffisamment les données personnelles

12 mars 2024 à 13:26
Balayer devant son cloud
Drapeaux de l’Union européenne

Selon le Contrôleur européen de la protection des données (CEPD), la Commission européenne a enfreint, dans son utilisation de Microsoft 365, certaines règles de protection clés du règlement sur le traitement des données à caractère personnel par les institutions (à ne pas confondre avec le RGPD). La commission a jusqu’au 9 décembre pour se mettre en règle.

Lundi 11 mars, le CEPD, l’autorité de contrôle indépendante des institutions européennes sur la protection des données, a épinglé la Commission européenne elle-même, car elle n’a pas respecté le règlement relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les institutions, organes et organismes de l’Union.

C’est le résultat de son enquête sur l’utilisation de Microsoft 365 par la Commission menée depuis mai 2021, après l’arrêt Schrems II.

Des données personnelles traitées en dehors de l’UE pas assez protégées


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

IA générative : NVIDIA attaquée pour violation du Copyright

13 mars 2024 à 15:36
La pile fragile sur laquelle est assise l'IA générative

Nouvel épisode dans l’opposition juridique qui est en train de se former entre l’industrie de l’IA générative et la culture. Cette fois, c’est NVIDIA qui est attaquée par des auteurs pour l’entrainement de sa famille de modèles de langage NeMo Megatron.

NVIDIA fabrique les GPU qui permettent d’entrainer – dans la plupart des cas – tous les grands modèles de langage sur lesquels s’appuient les IA génératives. Mais l’entreprise propose aussi ses propres modèles.

Notamment, en septembre 2022, alors qu’OpenAI s’apprêtait à sortir ChatGPT, NVIDIA ouvrait son framework et son service « Nemo » permettant d’accéder à sa famille de langage « NeMo Megatron ».

Mais trois auteurs américains de nouvelles accusent l’entreprise d’avoir entrainé ses modèles sur une compilation de livres dans laquelle apparaissent leurs textes, a révélé l’agence de presse Reuters.

Entrainement sur des données venant des « bibliothèques clandestines »


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ SpaceX a réussi à mettre StarShip en orbite

14 mars 2024 à 14:02
StarShip en orbite avec l'image de la Terre.

Le troisième lancement de StarShip, dont SpaceX a obtenu l’autorisation mercredi 13 mars en soirée par la FAA, est un succès.

L’entreprise qui a diffusé l’événement sur son compte X (anciennement Twitter), a réussi à faire décoller à 14h25 ce jeudi 14 mars, puis mettre en orbite son lanceur spatial super-lourd.

Plusieurs objectifs sont atteints : la combustion et l’ascension des deux étages, l’ouverture et la fermeture de la porte de la charge utile de Starship ainsi qu’une démonstration de transfert d’ergols pendant la phase de descente de l’étage supérieur.

Ensuite, SpaceX a perdu tout contact avec Starship. Les ingénieurs n’ont donc pas pu rallumer le moteur Raptor et contrôler le retour de leur fusée. On ne sait pas, pour l’instant, si Starship a explosé ou si elle a plongé sous l’eau en un seul morceau.

Google entraine une IA dans l’univers des jeux vidéo

15 mars 2024 à 12:37
Qu'ils l'envoient dans le metavers
Plusieurs extraits de jeux vidéo

DeepMind, le laboratoire de recherche de Google, a créé une IA capable de suivre des instructions dans un jeu vidéo. L’idée, ici, n’est pas de proposer une IA capable de réussir un jeu le plus rapidement ou le mieux possible, mais de créer un robot capable d’adapter son comportement à l’univers dans lequel il évolue.

SIMA, c’est le nom de cette nouvelle IA de Google, pour Scalable Instructable Multiworld Agent. Celle-ci est capable de « suivre des instructions en langage naturel pour effectuer des tâches dans divers contextes de jeux vidéo », explique DeepMind.

Le laboratoire de Google change sa façon d’utiliser les jeux pour améliorer ses IA. L’idée n’est plus d’essayer de battre des humains à des jeux comme les échecs, le Go ou StarCraft II. Ça, c’est possible depuis quelques années déjà.

Exit le but du jeu à atteindre. Maintenant, les chercheurs de DeepMind s’appuient sur les jeux vidéo comme bacs à sable pour travailler sur la mise en place d’intelligences artificielles qui pourraient s’adapter aux mondes dans lesquels elles évoluent tout en suivant les instructions d’un humain.

Derrière, leur envie est de créer une plateforme de recherche qui permette de travailler sur la connexion entre les grands modèles de langage (popularisés par ChatGPT) et le « monde incarné que nous habitons ».

Le jeu vidéo comme terrain d’expérimentation


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Altice va vendre Altice Media (BFM, RMC) à CMA CGM, pour 1,55 milliard d’euros

15 mars 2024 à 13:04
Des billets de cinquante euros.

Altice France annonce dans un communiqué « être entré en négociations exclusives avec le Groupe CMA CGM et Merit France, holding familiale, pour leur céder 100 % d’Altice Media, pour un montant total en numéraire de 1,55 milliard d’euros ».

Bien évidemment, cette opération est soumise « aux conditions préalables usuelles et à l’obtention des autorisations réglementaires applicables ». Le rachat devrait être finalisé cet été.

CMA CGM (Compagnie maritime d’affrètement – Compagnie générale maritime) est pour rappel un armateur de porte-conteneurs français. La société avait déjà annoncé son intention de racheter 51 % de Colis Privé début 2022 et possède depuis peu le groupe La Provence qui inclut le journal du même nom ainsi que Corse-Matin.

Nous avions également parlé il y a peu de CMA CGM, via son dirigeant Rodolphe Saadé. Avec Xavier Niel et Eric Schmidt, c’est l’un des trois cofondateurs de Kyutai, « le 1ᵉʳ laboratoire d’initiative privée européen dédié à la recherche ouverte en intelligence artificielle ».

Quand l’ASCII art montre les limites des sécurités des IA génératives

18 mars 2024 à 15:36
******** ******* ** ** ******** ** ** ** ** *** *** ** ** ** ** ** ** **** **** ** ** ******** ** ** ** *** ** ******** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ** ******** ******* ** ** ********
Hacking IA en ASCII

Des chercheurs ont montré que les systèmes de sécurité de cinq IA génératives majeures pouvaient être facilement contournés en remplaçant les mots censurés par des mots écrits en ASCII art puis retranscrits par la machine.

GPT-3.5, GPT-4, Gemini, Claude, et Llama2 sont cinq grands modèles de langage capables de reconnaître des mots dans les ASCII arts. Mais des chercheurs se sont emparé de cette capacité pour éviter le contrôle des systèmes de sécurité mis en place par OpenAI, Google, Anthropic et Meta.

Dans un article mis en ligne sur la plateforme de preprints arXiv, Fengqing Jiang et ses collègues montrent qu’il est possible de contourner les systèmes de sécurité de ces modèles de langage en écrivant le mot bloqué en ASCII art.

Cette forme d’art numérique, qui consiste à réaliser des images en utilisant des caractères ASCII en vogue déjà dans les années 60, pourrait être un des talons d’Achille des grands modèles de langage.

Une sécurité au niveau sémantique peu élevé


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[MàJ] Euclid évacue la glace de ses miroirs et retrouve une vision nette

21 mars 2024 à 07:00
Ça caille là haut !
Euclid, vue artistique

Le télescope spatial Euclid, chargé d’étudier l’énergie et la matière noires, a un « petit » problème : de la glace se forme sur ses miroirs. L’ESA essaye de s’en débarrasser sans affecter les mesures optiques, alors que la mission scientifique a déjà commencé.

Mise à jour jeudi 21 mars 8h00 : Après avoir chauffé deux miroirs de l’instrument VIS, l’ESA a annoncé le succès de l’opération : « Euclid retrouve une vision nette. L’analyse initiale des données d’Euclid valide l’approche de dégivrage mise au point par l’équipe. Une analyse plus approfondie des résultats est en cours et une mise à jour suivra dans les prochains jours ».

Article initialement publié le 20 mars à 9h09 :

Le télescope spatial Euclid fait face à un problème de formation de glace sur certains de ses miroirs. De quelques dizaines de nanomètres d’épaisseur, certes, mais le problème est assez sérieux pour que l’équipe fasse tout pour s’en débarrasser.

Pourtant, Euclid a été lancé avec succès en juillet dernier et son voyage vers le point de Lagrange L2 de quelques semaines s’est bien passé. Un mois après, il envoyait ses premières images de test suite à l’allumage de ses deux instruments scientifiques embarqués : un imageur en lumière visible (appelé VIS) et un spectro-imageur infrarouge (Near infrared spectrometer and photometer, NISP).

« Jamais auparavant un télescope n’avait été capable de créer des images astronomiques d’une telle netteté sur une si grande portion du ciel, et en regardant aussi loin dans l’Univers lointain », expliquait alors l’Agence spatiale Européenne.

Mais, au-delà de ces premières images, Euclid a pour mission de photographier pendant au moins six ans l’espace pour étudier matière et énergie noires et envoyer plusieurs millions d’images aux astrophysiciens qui devront ensuite les étudier.

Comme nous l’expliquions la veille du lancement du télescope spatial, Euclid est une mission scientifique unique et incertaine.

La formation de glace, un risque prévu


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Common Corpus : des textes du domaine public pour entrainer des IA (génératives)

20 mars 2024 à 16:53
La FairIA des données
des nuages de données s'échappent des cheminées de petites maisons dessinées en rang d'oignon

Une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d’entrainer les IA génératives tout en respectant les lois régissant les droits d’auteur : Common Corpus. Pierre-Carl Langlais, co-fondateur de Pleias, nous parle de son projet.

Et si on créait un corpus de textes pour l’entrainement des IA génératives qui respecte les lois régissant le droit d’auteur ? Voilà ce qu’ont proposé des chercheurs et ingénieurs. En effet, les intelligences artificielles génératives nécessitent un entrainement sur des milliards de textes. La plupart des entreprises qui proposent ce genre d’IA ont entrainé leurs modèles de langage sur des corpus qui regroupent des textes glanés sur Internet, mais aussi, parfois, des corpus venant de « bibliothèques clandestines » comme LibGen.

Certaines entreprises sont déjà accusées devant la justice d’avoir enfreint les copyrights de certains auteurs en s’appuyant sur ces corpus de textes dont ils n’ont pas les droits. En juillet 2023 déjà, OpenAI et Meta se retrouvaient face à une plainte de plusieurs auteurs. Plus récemment, c’est NVIDIA qui était attaquée pour violation du copyright de milliers de livres.

Une autre partie des textes très utilisés vient de la base de données Common Crawl regroupant des textes moissonnés sur le web. Si la légalité de ce genre de moissonnage pour la recherche ou pour l’indexation ne fait pas de doute, il y en a plus pour des projets commerciaux d’IA générative. L’Autorité de la concurrence aborde le sujet du bout des lèvres dans sa décision contre Google.

Le procès intenté par le New York Times contre OpenAI accusant l’entreprise d’avoir utilisé des millions d’articles du journal pour l’entrainement de ses modèles nous éclairera peut-être sur la question. Mais son issue ne devrait pas arriver avant longtemps, les deux entreprises pouvant aussi conclure un accord avant même qu’elle ait lieu.

C’est dans ce contexte tendu qu’une initiative internationale menée par la startup française Pleias propose un corpus de textes du domaine public permettant d’entrainer les IA génératives tout en respectant les lois régissant les droits d’auteur.

La preuve qu’il est possible de faire sans contenu sous copyright


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Raw Story, AlterNet et The Intercept portent plainte contre OpenAI

21 mars 2024 à 05:45
Des textes partent de trois groupes de personnes pour en faire un quatrième au-dessus d'eux.

C’est au tour de Raw Story, AlterNet et The Intercept d’attaquer OpenAI pour son utilisation de leurs articles pour entrainer ses modèles de langage, explique le Nieman lab.

Mais contrairement au New York Times qui attaque l’entreprise pour violation du Copyright, les deux plaintes (ici et en PDF) des trois médias reprochent à OpenAI d’avoir enfreint le DMCA (Digital Millennium Copyright Act).

« En particulier, les poursuites allèguent qu’OpenAI a supprimé des éléments tels que les noms des auteurs et les conditions d’utilisation lorsqu’elle a ajouté les articles à ses ensembles de données d’entraînement », indique le Nieman Lab.

« Nous pensons qu’il s’agit du modèle qui donnera aux organismes de presse en ligne, en particulier les plus petits, la meilleure opportunité de s’assurer qu’ils sont rémunérés pour l’utilisation de leur travail dans la formation des modèles d’IA », explique Matt Topic l’un des avocats des trois médias à notre confrère.

Le blog du laboratoire de recherche explique qu’il est plus difficile pour les médias numériques d’attaquer directement l’entreprise pour violation du Copyright.

Car pour le faire, il faut avoir enregistré ce copyright auprès du Bureau d’enregistrement américain concerné. Or, alors que les journaux qui publient une version papier comme le New York Times peuvent faire une déposition et payer une fois par mois, les médias numériques doivent payer 65 $ pour chaque article individuellement.

Le Nieman Lab estime que si Raw Story, AlterNet et The Intercept gagnent le procès, les dommages-intérêts pourraient s’élever à 2 500 dollars par infraction.

Hachette et trois autres éditeurs accusent Internet Archive d’être le Napster du livre

21 mars 2024 à 15:02
Au moins...
femme recherchant un livre dans une bibliothèque

Internet Archive est engluée dans une bataille juridique avec les maisons d’édition Hachette, HarperCollins, John Wiley et Penguin Random House qui menace l’existence même du projet. Après avoir perdu en première instance, l’organisation à but non lucratif a fait appel. Les éditeurs répondent en évoquant le précédent Napster et l’entrainement des IA génératives.

Il y a un an, Internet Archive perdait son procès contre Hachette, HarperCollins, John Wiley et Penguin Random House. La bataille juridique est relancée depuis qu’Internet Archive a annoncé, en septembre 2023, faire appel de cette décision. « Nous savons que ce ne sera pas facile, mais c’est un combat nécessaire si nous voulons que les collections des bibliothèques survivent à l’ère numérique » déclarait Chris Freeland, directeur des services de bibliothèque à l’Internet Archive.

Les quatre éditeurs avaient attaqué l’organisation à but non lucratif américaine dont l’objectif est de fournir un « accès universel à toutes les connaissances » car elle avait donné accès sans restriction aux internautes, pendant les confinements de la pandémie de Covid-19, aux epubs des livres qu’elle avait numérisés.

En dehors de cette période, Internet Archive distribuait les copies qu’elle a numérisées comme une bibliothèque : un epub peut-être « emprunté » seulement par un internaute à la fois dans une période de temps limitée, un système appelé « prêt numérique contrôlé ». L’organisation considérait que cette fonctionnalité entrait dans le « fair use ». Mais le juge de première instance a réfuté ce point de vue.

Cette décision a mis fin au projet d’Internet Archive de bibliothèque basée sur la numérisation, en tout cas pour les livres de ces éditeurs.

« Fair use » ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La Commission européenne lance des procédures d’infraction du DMA contre Google, Apple, Meta et Amazon

25 mars 2024 à 15:39
Sulfateuse
Drapeaux de l’Union européenne

La Commission annonce avoir ouvert des enquêtes sur la non-conformité avec le DMA de Google Play, Google Search, l’App Store d’Apple, l’écran de sélection du navigateur, l’alternative « paiement ou publicité comportementale » de Meta et le site d’Amazon.

Quinze jours après l’entrée en vigueur du statut de contrôleurs d’accès prévu par le DMA, Bruxelles a déjà dans le viseur trois d’entre eux : Google, Apple et Meta. Dans un communiqué de presse, la Commission explique qu’elle « soupçonne que les mesures mises en place par ces « contrôleurs d’accès » ne leur permettent pas de se conformer efficacement aux obligations qui leur incombent en vertu de la loi sur les marchés publics ». Elle se donne 12 mois pour conclure la procédure ouverte aujourd’hui.

Trop de contraintes pour la promotion d’autres magasins d’applications


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

ONU : une première résolution mondiale sur l’intelligence artificielle

26 mars 2024 à 10:51
"Don't be evil", again ?
Ces cartes illustrées sont les dos d'un jeu de cartes original assemblant 56 mots A et I et des diagrammes d'échecs, faisant partie d'une expérimentation plus large de jeux analogiques sur l'I.A. Il explore une redéfinition alternative de l'I.A. en tant qu'unités d'un langage social avant une construction mathématique. Son but est d'examiner certains des principes de l'apprentissage automatique comme l'interprétation, la classification, la priorisation, en tant que composants de l'interaction humaine, avant son encodage. Les mains, les bouches et les caractères manuscrits sont choisis comme imagerie pour visualiser les sources et les choix humains exprimés à travers nos architectures techniques. La modularité associative et générative d'un jeu de cartes ouvre une représentation plus intemporelle de l'I.A., pour envisager différemment notre relation à la technologie.

Les Nations unies ont adopté à l’unanimité jeudi 21 mars une résolution sur l’intelligence artificielle pour soutenir des systèmes « sûrs, sécurisés et dignes de confiance » qui doivent bénéficier « également au développement durable pour tous ». Ce texte évoque une collaboration nécessaire avec les pays en développement tout en oubliant les travailleurs du clic.

L’ONU qualifie d ‘« historique » la résolution sur l’intelligence artificielle (IA) adoptée jeudi 21 mars [PDF] par son Assemblée générale. Le texte, proposé par les États-Unis et « coparrainé » par plus de 120 autres États membres (dont la France, la Belgique, le Kenya, le Libéria, l’Ouzbékistan, le Chili et les îles Fidji), n’est pas contraignant, mais appelle les États membres à créer des « cadres de réglementation et de gouvernance permettant de régir des systèmes d’intelligence artificielle qui soient sûrs, sécurisés et dignes de confiance ». Cette résolution contient 13 points sur lesquels l’ONU insiste pour que le développement de l’IA à travers le monde soit « responsable ».

Combler le fossé numérique et favoriser le développement durable

Dans cette résolution, l’ONU se déclare « résolue à combler le fossé numérique entre les pays et à l’intérieur même des pays, et notamment dans le domaine de l’intelligence artificielle ». Les nations unies soutiennent clairement le développement de cette technologie : « l’objectif étant de favoriser, plutôt que d’entraver, la transformation numérique et l’accès équitable aux avantages que procurent ces systèmes ».

Et ce, « en vue d’atteindre les 17 objectifs de développement durable et de réaliser le développement durable dans ses trois dimensions – économique, sociale et environnementale – et de tenter de remédier à d’autres difficultés communes à l’échelle mondiale qu’éprouvent en particulier les pays en développement », même si on sait que l’intelligence artificielle et notamment les grands modèles de langage posent des questions énergétiques complexes.

Coopération avec les pays en développement, mais oubli des travailleurs du clic

La résolution encourage la coopération de tous les acteurs du secteur avec les pays en développement « et à leur apporter une assistance pour favoriser un accès inclusif et équitable aux avantages » de ces technologies.

Elle demande à ses membres de « donner aux pays en développement, en particulier aux pays les moins avancés, les moyens de lever les principaux obstacles structurels et les barrières empêchant l’accès aux avantages que peuvent procurer les technologies nouvelles et naissantes et l’innovation en matière d’intelligence artificielle pour atteindre les 17 objectifs de développement durable », notamment en donnant accès aux sources scientifiques et à la recherche.

Elle incite aussi l’évaluation des incidences du déploiement de l’intelligence sur les marchés du travail « en particulier dans les pays en développement ». Mais elle n’évoque jamais la partie immergée du travail de l’IA impliquant actuellement souvent des travailleurs de ces pays : l’étiquetage des données, indispensable pour l’entraînement des IA.

Une gouvernance des données à mettre en place

Pourtant, le texte affirme que « les données sont fondamentales pour la mise au point et le fonctionnement des systèmes d’intelligence artificielle » et souligne « qu’une gouvernance des données juste, inclusive, responsable et efficace, l’amélioration de la production, de l’accessibilité et de l’infrastructure des données et l’utilisation des biens publics numériques sont essentielles » pour la mise en place d’IA « responsables ». Mais son objectif affiché sur le sujet est d’assurer « une plus grande cohérence et interopérabilité, dans toute la mesure du possible, des stratégies visant à améliorer la fiabilité des flux de données transfrontières ».

Le texte n’évite pas le sujet des discriminations et demande à ses membres de faciliter l’élaboration et l’application de cadres pour « mieux protéger les personnes contre toutes les formes de discrimination, de préjugés et d’utilisation abusive » et « d’éviter de renforcer ou de perpétuer des applications et des résultats discriminatoires ou entachés de préjugés ». Mais il ajoute tout de suite que les mesures prises en ce sens ne doivent pas avoir « une incidence involontaire ou disproportionnée sur le développement positif ou l’accès et l’utilisation des autres utilisateurs et bénéficiaires ».

L’ONU « encourage le secteur privé à respecter les dispositions applicables en droit international et en droit interne et à agir conformément » aux principes directeurs relatifs aux entreprises et aux droits de l’homme qu’elle énonçait déjà dans une résolution prise en 2011.

Un texte bien accueilli par les multinationales du secteur

Porteuse du texte, l’ambassadrice américaine Linda Thomas-Greenfield a exprimé l’espoir que le « dialogue inclusif et constructif qui a conduit à cette résolution serve de modèle pour les conversations futures sur les défis de l’IA dans d’autres domaines, par exemple, en ce qui concerne la paix et la sécurité et l’utilisation militaire responsable de l’autonomie de l’IA ». Elle a également souligné l’opportunité et la responsabilité de la communauté internationale « de gouverner cette technologie plutôt que de la laisser nous gouverner ».

Dans ce contexte d’absence de contraintes concrètes, les responsables des multinationales du secteur comme Meta, Google ou Microsoft se sont montrés en accord avec la résolution. « L’IA doit être conçue de manière à améliorer la vie, peu importe où vous vivez dans le monde » a affirmé sur Twitter Nick Clegg, Président des affaires internationales chez Meta, ajoutant que cette résolution était « une étape significative vers les normes d’interopérabilité dont nous avons besoin pour promouvoir un écosystème d’IA sûr, dynamique, ouvert et inclusif ».

De même, du côté de Microsoft, Brad Smith déclare que « nous soutenons pleinement l’adoption par l’ONU de la résolution globale sur l’IA ». Chez Google, Kent Walker affiche le même enthousiasme en affirmant que cette résolution « montre comment une bonne IA accélérera considérablement les progrès sur les systèmes « sûrs, sécurisés et dignes de confiance » et aidera les gens partout dans le monde ».

Projet Ghostbusters : comment Facebook a espionné le trafic chiffré de Snapchat

27 mars 2024 à 15:45
Business de la surveillance ou surveillance du business ?

Dans le cadre d’un procès de publicitaires contre Meta sur son comportement anticoncurrentiel, des emails entre Mark Zuckerberg et ses équipes montrent que l’entreprise a mis en place un système pour espionner le trafic chiffré de Snapchat et ainsi connaître le fonctionnement de l’engagement dans l’application de son rival.

En 2016, Facebook (qui ne s’était pas encore renommé Meta) est parti à la chasse aux fantômes pour connaître, par tous les moyens, quel était le fonctionnement de son nouveau rival à l’icône en forme de petit spectre sur fond jaune. À l’époque, Snapchat est l’application qui monte et qui menace l’hégémonie de l’entreprise de Mark Zuckerberg sur le marché publicitaire sur les réseaux sociaux.

Facebook veut savoir comment Snapchat attire des annonceurs de façon agressive en prévision de son entrée en bourse. Mais problème : tout le trafic de Snapchat est chiffré et Facebook ne peut pas analyser le fonctionnement de l’application de son concurrent.

Demande explicite de Mark Zuckerberg


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ FDN propose un VPN en accès libre « pour toutes et tous »

28 mars 2024 à 05:55
structure de fils métalliques interconnectée

L’association FDN (French Data Network) met à disposition « pour toutes et tous » son VPN public. Si c’était déjà le cas, l’association ne communiquait jusque-là que très peu sur le sujet. Depuis le week-end dernier, ce n’est plus le cas.

Une page publiée par l’association explique le fonctionnement d’un VPN et les raisons d’en utiliser un. La page permet d’accéder aux fichiers de configuration et certificat du serveur OpenVPN de l’association.

Mais elle met aussi l’accent sur ce que ce VPN public n’offre pas : « pas d’adresse IP fixe, seulement une adresse IP publique dynamique ». Elle met en garde aussi sur le fait que le débit maximal que peuvent atteindre les clients connectés simultanément au VPN public de FDN est limité à 100 Mb/s. L’association insiste aussi sur le fait que le VPN « ne garantit pas l’anonymat » et que « le trafic entre les serveurs de FDN et le reste de l’Internet pourra être observé comme tout trafic Internet ».

« Le VPN public de FDN vous permet seulement de retrouver du réseau propre derrière une connexion potentiellement sale ou bridée » explique l’association.

❌
❌