Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

L’Espagne bloque les fonctionnalités que Meta avait prévues pour les élections européennes

Cambridge analitiquoi ?
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

Éviter un nouveau Cambridge Analytica

Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

Prévues dans toute l’Europe à l’exception de l’Italie

L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce sujet ».

En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

☕️ Une version ChatGPT spéciale université

logo OpenAI dans l'obscurité

Dans un billet de blog, OpenAI annonce une offre de ChatGPT spéciale pour les universités, « ChatGPT Edu ».

Elle intègrera le modèle GPT-4o et son utilisation sera adaptée à ce que l’entreprise considère être les besoins des universitaires. OpenAI explique que ChatGPT Edu intègrera des « fonctionnalités avancées telles que l’analyse de données, la navigation sur le web et la synthèse de documents » et la possibilité de créer des versions adaptées du chatbot en les partageant au sein de l’université.

L’entreprise précise que les conversations et les données utilisées dans ChatGPT Edu ne seront pas utilisées pour entrainer les modèles d’OpenAI.

☕️ Codestral : Mistral se lance dans le code généré par IA

Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.

L’entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.

Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d’autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.

La startup, qui jusqu’à l’annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d’utiliser le modèle en production, mais seulement à des fins de recherche ou de test.

Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d’y accéder :

  • une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d’attente)
  • l’API « classique » de Mistral
  • le chatbot « Le Chat » de la startup
  • des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine

OpenAI : un nouveau comité de sécurité pour tenter de rassurer

logo OpenAI dans l'obscurité

OpenAI annonce la création d’un nouveau comité de sécurité. L’entreprise de Sam Altman a vu la semaine dernière son équipe chargée de contrôler les IA s’autodétruire. Elle veut rassurer alors que GPT-5 est en cours d’entrainement. L’ancienne membre du CA de l’entreprise, Helen Toner, explique la tentative de licenciement de Sam Altman par le fait qu’il aurait donné des informations inexactes sur le processus de sécurité.

Lundi, OpenAI a publié un billet de blog pour indiquer la création d’un comité de « sécurité et de sûreté » en son sein. Il sera « responsable de la formulation de recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations de l’OpenAI ».

Mais l’annonce semble plus être un contre-feu après l’autodestruction de son équipe chargée de contrôler les IA et de préparer l’éventuel avènement d’une intelligence artificielle générale (AGI).

Sam Altman et Bret Taylor membres du comité

Le nouveau comité est composé du président Bret Taylor, du CEO Sam Altman, de l’ancienne présidente de Sony US et toute récente membre du conseil d’administration d’OpenAI Nicole Seligman et d’Adam D’Angelo, lui aussi membre du CA de l’entreprise. Ce dernier est le seul « survivant » du CA qui avait voté pour le départ de Sam Altman en novembre dernier, lors de la semaine de folie qu’a vécu l’entreprise à l’époque.

Cette sorte de CA restreint devra faire des recommandations à l’ensemble du conseil sur les décisions clés en matière de sûreté et de sécurité pour les projets d’OpenAI.

On parle ici de la soi-disant menace d’une éventuelle AGI et, comme le dit Ars Technica, du maintenant classique « nous ne laisserons pas l’IA se comporter comme une menace et prendre le contrôle du monde ». Mais OpenAI présente aussi ce comité comme la prise en compte de thématiques plus vastes concernant la sécurité de ses modèles, les possibilités de « jailbreaks », les mauvaises utilisations en général et la protection des enfants et des élections en particulier, thèmes abordés par l’entreprise à l’AI Seoul Summit la semaine dernière.

Ils seront épaulés par plusieurs experts de l’entreprise : Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.

Ces cinq employés d’OpenAI sont présentés comme responsables de sujets qui ont pourtant l’air de se recouper. Ils sont, respectivement, responsable de la vigilance (en vo « head of Preparedness »), responsable des systèmes de sécurité, responsable de la science de l’alignement (« Alignment Science »), responsable de la sécurité et responsable scientifique.

OpenAI promet que le comité proposera au CA des recommandations d’ici trois mois. Celles-ci seront rendues publiques une fois adoptées par le conseil.

La nouvelle équipe semble beaucoup moins préoccupée par l’avènement d’une AGI que l’ancienne équipe chargée de contrôler les IA. Et OpenAI ne communique plus sur aucun moyen technique qui lui serait dédié. Rappelons qu’elle n’avait pas donné à l’ancienne équipe accès aux capacités de calculs promises à l’époque.

À propos de l’ancienne équipe, Jan Leike vient d’annoncer avoir rejoint Anthropic, la startup rivale d’OpenAI fondée par d’anciens employés de l’entreprise.

Dans le billet de blog d’OpenAI, l’entreprise explique aussi avoir commencé l’entrainement de son prochain modèle qui succédera à GPT-4. Sans pouvoir donner aucun élément probant. Et pour cause, l’entreprise « anticipe que les systèmes qui en résulteront nous mèneront un pas plus loin vers l’AGI ».

Le processus de sécurité d’OpenAI déjà en question en novembre dernier

De son côté, la chercheuse australienne et ancienne membre du CA d’OpenAI, Helen Toner, s’explique dans le Podcast TED AI Show à propos de la tentative de licenciement de Sam Altman en novembre dernier.

Selon elle, comme l’a relevé The Verge, le conseil d’administration a arrêté d’avoir confiance dans le CEO d’OpenAI quand il s’est rendu compte que Sam Altman possédait le fonds « OpenAI Startup », mais aussi parce qu’il avait fourni des informations inexactes sur le processus de sécurité de l’entreprise « à de multiples occasions ».

Elle y explique aussi que le CA a appris le lancement de ChatGPT sur Twitter, comme tout le monde.

☕️ Menace de grève historique chez Samsung Electronics

Le récent « Syndicat national de Samsung Electronics » prévoit l’organisation d’une journée blanche dans l’entreprise le 7 juin. Les grévistes utiliseraient leurs congés annuels à cette fin, explique l’AFP.

Mais selon un porte-parole du syndicat, « cela pourrait déboucher sur une grève générale ». Cette grève serait la première de l’histoire de l’entreprise. Samsung Electronics est une filiale (à 100 %) de Samsung, spécialisée dans la fabrication de produits électroniques.

Le syndicat, créé en 2019, menace d’une grève depuis quelques années le fabricant de semi-conducteurs pour peser sur les négociations d’augmentation de salaires. Après plusieurs mois de négociations, la direction a accepté une augmentation de 5,1 %, selon The Register, le syndicat revendiquant une hausse de 6,5 %. Cette revendication intervient alors que Samsung Electronics a quasiment multiplié par dix son bénéfice d’exploitation au premier trimestre de cette année.

« Nous ne pouvons plus supporter les persécutions contre les syndicats. Nous déclarons une grève face à la négligence de l’entreprise à l’égard des travailleurs », dénonce aussi le syndicat.

Depuis sa création en 1938 et jusqu’en 2018, l’entreprise qui emploie plus de 100 000 personnes en Corée du Sud refusait toute création de syndicat. Le procès pour corruption du vice-président et petit-fils du fondateur de l’entreprise, Lee Jae-yong, a changé la donne.

Le syndicat revendique actuellement représenter 20 % des salariés de l’entreprise, soit 28 000 personnes. Il y a un an, ce chiffre était de 9 % (soit environ 10 000 travailleurs à l’époque), selon RTL.be, alors qu’il menaçait déjà d’organiser une grève.

☕️ La vidéosurveillance algorithmique sera aussi expérimentée à Roland Garros

Après avoir testé la vidéosurveillance algorithmique lors des concerts de Taylor Swift, la RATP utilise de nouveau ce dispositif encadré par la loi « Jeux Olympiques » dans le cadre de Roland Garros.

Un arrêté de la préfecture daté du vendredi 24 mai (pdf) a été repéré par le bot Mastodon « Attrap’Surveillance » de la Quadrature du Net.

Celui-ci prévoit l’autorisation donnée à la RATP de mettre en œuvre l’outil de traitement algorithmique dénommé « Cityvision » développé par la société Wintics entre le 26 mai, 8h et le 10 juin, 8h « à l’occasion du tournoi international de tennis de Roland Garros ».

Les stations concernées sont Boulogne Jean-Jaurès, Porte d’Auteuil, Michel-Ange Molitor, Michel-Ange Auteuil, Porte de Saint-Cloud, Odéon, Franklin Roosevelt, Havre-Caumartin et République.

Un second arrêté autorise la SNCF à connecter 33 caméras des gares de Javel et du Pont de Garigliano au système « Cityvision » de Wintics.

Le dispositif est testé pour détecter les intrusions en zone interdite au public ou sensible, les mouvements de foule dans des zones à risques, les densités anormalement élevées et la présence d’un bagage abandonnée.

Contrairement à la SNCF, qui la mentionne déjà sur sa page consacrée à l’« Expérimentation vidéo augmentée JOP 2024 », la RATP n’a pas encore signalé cette expérimentation sur sa page de Politique générale de confidentialité, ce qu’elle avait pourtant fait pour l’expérimentation lors des concerts de Taylor Swift.

Numérique en Afrique : « Nos conditions de travail s’apparentent à de l’esclavage moderne »

Dj@ngo Unch@ined

97 travailleurs Kényans cosignent une lettre ouverte demandant au président des États-Unis, Joe Biden, de mettre fin « aux conditions de travail qui s’apparentent à de l’esclavage moderne » dans l’industrie du numérique.

Alors que le président Kényan William Ruto entame la première visite officielle d’un leader africain aux États-Unis en plus de 15 ans, des travailleurs kényans du secteur du numérique en profitent pour interpeler le président américain.

Ils travaillent tous pour des entreprises états-uniennes comme Facebook, ScaleAI ou OpenAI via des sous-traitants, soit en tant que modérateurs de contenus, soit en étiquetant des données pour l’entrainement des modèles d’intelligence artificielle.

La Maison-Blanche explique dans son communiqué de presse annonçant l’accueil de William Ruto, que « les dirigeants discuteront des moyens de renforcer notre coopération dans des domaines tels que les relations entre les peuples, le commerce et l’investissement, l’innovation technologique, le climat et l’énergie propre, la santé et la sécurité ».

Cette centaine de travailleurs expliquent que ce sont « des questions dans lesquelles notre force de travail est directement et personnellement concernée ».

Exploitation et maltraitance systématique

Dans cette lettre ouverte publiée sur le site de l’ONG britannique Foxglove, qui « lutte pour rendre la technologie équitable pour tous », ils dénoncent le fait que « les grandes entreprises américaines du secteur des technologies maltraitent et exploitent systématiquement les travailleurs africains ».

Ils précisent qu’ « au Kenya, ces entreprises américaines sapent le droit du travail local, le système judiciaire du pays et violent les normes internationales du travail ». « Nos conditions de travail s’apparentent à de l’esclavage moderne » dénoncent-ils.

Il y a un an, certains travailleurs de ce secteur au Kenya ont créé un syndicat, peu de temps après la publication d’une enquête du magazine américain Time qui révélait que les travailleurs kényans ayant entraîné ChatGPT pour qu’il soit plus éthique avaient été payés moins de 2 dollars de l’heure.

Cela fait suite aussi à la plainte d’un groupe de ces travailleurs contre Meta et son sous-traitant Sama.

Pour ces travailleurs, « toute discussion commerciale entre les États-Unis et le Kenya doit tenir compte de ces abus et garantir la protection des droits de tous les travailleurs ».

Demande d’un engagement du gouvernement Biden

Ils demandent donc au gouvernement de Joe Biden de s’engager à travailler avec les employés des grandes entreprises de la Tech au Kenya. Ils réclament que le gouvernement américain veille à ce que les partenariats à venir comprennent des dispositions pour que les entreprises de son pays se conforment aux réglementations internationales du travail et qu’il empêche le démantèlement des syndicats.

Ces travailleurs kényans revendiquent aussi la possibilité que « les entreprises américaines du secteur des grandes technologies puissent être tenues responsables devant les tribunaux américains pour leurs opérations illégales à l’étranger, en particulier en ce qui concerne les droits humains et les violations du droit du travail ».

Enfin, ils demandent à ce que le « respect fondamental de la constitution et de la souveraineté du Kenya » soit au cœur des négociations entre les deux pays.

« Nous ne devrions pas avoir à sacrifier notre santé, notre bien-être et, malheureusement, dans certains cas, notre vie pour les marges bénéficiaires de Big Tech. Nous vous demandons instamment de prendre des mesures et d’examiner attentivement nos demandes dans le cadre de ces discussions et au-delà », concluent-ils.

Observer des meurtres et des viols, pour moins de 2 $ de l’heure

Kauna Malgwi, du comité directeur de l’Union africaine des modérateurs de contenu, a déclaré : « Tout le monde veut voir plus d’emplois au Kenya – mais pas à n’importe quel prix. Tout ce que nous demandons, c’est un travail digne, équitablement rémunéré, sûr et sécurisé. »

« Notre travail consiste à observer des meurtres et des décapitations, des abus et des viols d’enfants, de la pornographie et de la bestialité, souvent plus de 8 heures par jour. Beaucoup d’entre nous font ce travail pour moins de 2 dollars de l’heure.

Ces entreprises ne nous fournissent pas les soins de santé mentale nécessaires pour assurer notre sécurité. En conséquence, beaucoup d’entre nous vivent et travaillent avec le trouble de stress post-traumatique (SSPT). Nous n’avons pas été prévenus des horreurs des travaux avant de commencer. »

Leur lettre ouverte a également été approuvée par le Dr Willy Mutunga, ancien juge en chef du Kenya et éminent défenseur des droits de l’homme, précise l’ONG.

☕️ L’astronaute Sophie Adenot sélectionnée par l’ESA pour s’envoler vers l’ISS

L’ESA a annoncé que l’astronaute française Sophie Adenot fera partie du prochain équipage qui partira vers l’ISS. Lancement prévu en 2026. À ses côtés, l’astronaute belge Raphaël Liégeois.

Pour le directeur général de l’agence spatiale européenne, Josef Aschbacher, « l’affectation de Sophie et Raphaël en tant que prochains astronautes de l’ESA volant vers la Station spatiale internationale marque une étape importante pour l’ESA et sa promotion d’astronautes de 2022. C’est un résultat tangible de notre engagement à maintenir une forte présence européenne dans un contexte international ».

En effet, Sophie Adenot et Raphaël Liégeois font partie de la promotion d’astronautes de l’ESA 2022.

Josef Aschbacher ajoute qu’ « alors que les activités d’exploration se développent à un rythme sans précédent, l’envoi dans l’espace de deux astronautes de l’ESA récemment diplômés constitue une étape cruciale dans la préservation du savoir-faire européen, garantissant la participation à long terme de l’Europe aux programmes en cours tels qu’Artemis, ainsi qu’à tout projet futur impliquant des vols spatiaux habités et l’exploration ».

Sophie Adenot a réagi en se déclarant « honorée et fière de représenter bientôt l’Europe et la France dans l’espace et de contribuer à la recherche scientifique depuis ce laboratoire orbital ».

« Il y aura des défis à relever, des qualifications à passer, des procédures à apprendre. Cela va être intense et j’ai une énergie folle ! », s’est-elle exclamée.

☕️ Ariane 6 : la planification du premier lancement se resserre

Dans un communiqué publié ce mardi 21 mai, l’Agence spatiale européenne (ESA) indique que la « première tentative de lancement aura lieu au cours des deux premières semaines de juillet 2024 ».

Jusque-là, la période de lancement du vol inaugural s’étalait encore entre le 15 juin et le 31 juillet 2024.

Mi-juin, l’agence prévoit d’avoir fini la qualification du système de lancement. Le 18 juin devrait avoir lieu la répétition générale du lancement à Kourou.

☕️ Selon Scarlett Johansson, OpenAI avait bien l’intention d’utiliser sa voix

Dans un communiqué rendu public par le journaliste américain Yashar Ali et par le média NPR, Scarlett Johansson explique que Sam Altman l’a contactée en septembre dernier pour lui demander de prêter sa voix à sa nouvelle IA. Elle dit avoir décliné l’offre.

Mais cette réaction n’a pas arrêté le CEO d’OpenAI. Dans les démos de son nouveau modèle de langage, GPT-4o, OpenAI a utilisé une voix (nommée « Sky » par l’entreprise) si proche de celle de Scarlett Johansson qu’une bonne partie de ceux qui les ont vues a immédiatement pensé au film Her : l’actrice y prête sa voix à une IA. Et Sam Altman avait confirmé implicitement son intention de s’en approcher en tweetant un simple « her » suite à la publication des démos.

Scarlett Johansson a réagi en expliquant qu’elle a « été choquée, en colère et stupéfiée que M. Altman recherche une voix si étrangement similaire à la [sienne] que [ses] amis les plus proches et les médias n’ont pas pu faire la différence ».

Selon l’actrice, Sam Altman a insisté de nouveau deux jours avant la sortie de ses démos en contactant son agent pour lui demander de reconsidérer sa décision. Mais « avant même que nous soyons en contact, le système était sorti », explique-t-elle.

L’avocat de Scarlett Johansson a été obligé d’envoyer deux lettres avant qu’OpenAI accepte, « à contrecœur » souligne l’actrice, d’arrêter d’utiliser cette voix.

Dans un communiqué transmis à la NPR, Sam Altman affirme qu’OpenAI a recruté l’actrice derrière la voix de Sky avant de prendre contact avec Scarlett Johansson. « Par respect pour Mme Johansson, nous avons cessé d’utiliser la voix de Sky dans nos produits. Nous sommes désolés pour Mme Johansson de ne pas avoir mieux communiqué », ajoute-t-il.

L’actrice a ajouté un commentaire pointant du doigt cette utilisation alors que la manipulation des voix et photos s’intensifie sur Internet : « à une époque où nous sommes tous aux prises avec les deepfakes et la protection de notre propre image, de notre propre travail, de notre propre identité, je pense que ce sont des questions qui méritent une clarté absolue. J’attends avec impatience une solution via la mise en place d’une transparence et l’adoption d’une législation appropriée pour contribuer à garantir la protection des droits individuels ».

Comme dans le film Her, la voix « Sky » répondait dans les démos d’OpenAI avec un ton de flirt. Dans un sketch Desi Lydic, du Daily Show, s’en est moqué en disant que Sky était « clairement programmée pour nourrir l’ego des mecs » :

This is the best (and funniest!) take I've seen on the whole GPT-4o situation so far 😂 https://t.co/4CAJ9e1Vxh

— Sasha Luccioni, PhD 🦋🌎✨🤗 (@SashaMTL) May 20, 2024

☕️ Le blocage de TikTok en Nouvelle-Calédonie attaqué en justice par la Quadrature et la LDH

L’association a déposé ce vendredi 17 mai un référé-liberté (pdf) demandant la suspension du blocage de TikTok en Nouvelle-Calédonie décidé par le Premier ministre Gabriel Attal.

Elle estime que « le gouvernement porte un coup inédit et particulièrement grave à la liberté d’expression en ligne, que ni le contexte local ni la toxicité de la plateforme ne peuvent justifier dans un État de droit ».

Comme nous l’évoquions, le décret du 15 mai interdisant TikTok sur le territoire de la Nouvelle-Calédonie s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence. Elle prévoit que le ministre de l’Intérieur puisse « prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ».

Dans son communiqué, la Quadrature du Net estime que « personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter ».

L’association précise dans son référé qu’elle « lutte de manière ancienne et constante contre le modèle incarné notamment par le service de communication au public en ligne « TikTok », qu’elle considère comme particulièrement nocif à bien des égards, et qui s’oppose aux valeurs qu’elle entend défendre ».

La Ligue des droits de l’Homme a aussi annoncé sur Twitter attaquer « en référé-liberté l’interdiction et le blocage de TikTok sur le territoire de la Nouvelle-Calédonie pour défendre la liberté de communication des idées et des opinions ».

☕️ Rover martien Rosalind Franklin : l’ESA et la NASA officialisent un nouvel accord

Les agences spatiales européenne et américaine ont annoncé avoir signé un nouvel accord de collaboration à propos du rover Rosalind Franklin qui doit finalement être lancé en 2028 pour arpenter la surface de Mars.

Le lancement du rover a été reporté plusieurs fois, d’abord en 2011 avec l’abandon du partenariat par la NASA, puis en raison de problèmes de parachutes et de la pandémie de Covid-19.

En 2022, l’invasion de l’Ukraine par la Russie a mis fin à la collaboration qu’avait signé l’ESA avec l’agence spatiale russe Roscosmos en 2012. Quelques semaines auparavant, Pietro Baglioni, chef de l’équipe chargée du rover ExoMars, lachait : « Le rover est prêt ».

En novembre 2022, la NASA avait donné un avis favorable à la reprise de la collaboration, sans pour autant que celui-ci soit formel. C’est désormais chose faite.

Récemment, nous avions appris que Thales Alenia Space sera responsable de la conception d’une bonne partie du rover : module de rentrée, descente et atterrissage EDLM, du développement de l’altimètre-radar, de l’intégration de l’ALD (Analytical Laboratory Drawer) sur le rover, et du développement de l’ordinateur de bord.

L’entreprise sera aussi responsable de son assemblage, de la partie intégration et test (AIT), et de la supervision de la campagne de lancement.

☕️ Epic condamnée à 1,1 million d’euros pour avoir poussé les enfants à acheter dans Fortnite

L’autorité des marchés néerlandaise ACM explique dans un communiqué de presse avoir donné deux amendes d’un total de 1 125 000 euros à Epic Games pour pratiques commerciales déloyales visant des enfants dans le jeu Fortnite.

L’ACM a épinglé les pratiques de pression qui encourageaient les enfants à acheter des éléments dans le jeu avec des phrases comme « Obtenez-le maintenant » ou « Achetez maintenant ».

L’autorité considère que « Fortnite est destiné aux enfants et le jeu les attire. En raison de leur âge, les enfants sont plus vulnérables à certaines pratiques commerciales que les consommateurs moyens ». Elle rappelle que « les publicités qui incitent directement les enfants à faire des achats constituent une pratique commerciale agressive illégale, quelles que soient les circonstances ». L’ACM a décidé d’une amende de 562 500 euros pour ces pratiques.

Mais durant son enquête, l’ACM a aussi pu constater que le jeu affichait des comptes à rebours « trompeurs » de 24h qui poussaient les enfants à acheter rapidement un objet, alors que celui-ci était toujours disponible à la vente à la fin du décompte. « Les minuteries créent un sentiment de rareté. Les enfants ont donc été poussés à prendre des décisions d’achat rapidement, car ils avaient l’impression de ne pas pouvoir profiter des articles proposés », explique l’autorité néerlandaise. Une autre amende de 562 500 euros a donc été infligée à Epic Games.

L’ACM explique que les comptes à rebours n’étaient pas toujours « trompeurs », ce qui ajoutait à la confusion. Elle considère que la complexité inutile ajoutée ici est un « dark pattern ».

Epic Games doit abandonner ces pratiques d’ici le 10 juin, selon l’injonction faite par l’autorité néerlandaise.

L’entreprise a expliqué avoir déjà supprimé les comptes à rebours de la boutique de Fortnite. Elle affiche maintenant la date et l’heure locale à laquelle chaque objet sera supprimé, ceci pour tous les utilisateurs de Fortnite dans le monde.

Elle a informé l’autorité qu’elle n’allait afficher aux joueurs néerlandais de moins de 18 ans que les objets disponibles pendant 48 heures ou plus.

Dans un communiqué qu’a obtenu l’AFP, Epic Games conteste la décision en affirmant que « les résultats [de l’enquête de l’ACM] contiennent des erreurs factuelles importantes sur le fonctionnement de Fortnite et de la boutique d’objets ». Elle ajoute que les changements vont entrainer une « mauvaise expérience pour les joueurs ».

☕️ « Dans les algorithmes », nouvelle newsletter sur l’impact social de la tech

Une nouvelle newsletter parlant du numérique en français vient d’être lancée sous le nom de « Dans les algorithmes ».

Aux manettes, le journaliste et essayiste Hubert Guillaud. Celui-ci a notamment animé pendant des années le site Internet Actu du think tank La Fing, association pour la Fondation internet nouvelle génération, qui traitait déjà des conséquences sociales du numérique sur la société.

L’ambition de « Dans les algorithmes », newsletter portée cette fois par une association nommée Vecteur créée pour l’occasion, est de « poser les enjeux de la société numérique, comprendre l’impact social des technologies et de l’automatisation sur nos vies ». Dans son manifeste, le média explique s’inspirer des initiatives existantes à l’étranger comme AlgorithmWatch, l’AI Now Institute ou Data & Society.

Les membres fondateurs de l’association Vecteur sont l’association Matrice, le cabinet de conseil Octo Technology et l’agence d’innovation RH Tomorrow Theory.

OpenAI a détruit les jeux de données de livres sur lesquels elle a entrainé ses premiers modèles

Catch me if you can
Deux requins étiquetés par portions avec les marques des entreprises d'IA génératives nagent dans l'océan

Dans le procès qui oppose l’organisation américaine Authors Guild à OpenAI, des documents descellés révèlent que l’entreprise de Sam Altman a affirmé à la FTC avoir détruit toutes ses copies des jeux de données contenant des milliers de livres sur lesquels elle a entrainé ses grands modèles de langage. Pour l’Authors Guild, OpenAI a détruit une preuve directe du contenu copyrighté qu’elle a utilisé pour entrainer ses modèles.

OpenAI ne voulait pas que ces documents soient publiés. Mais finalement, la justice américaine n’a pas suivi l’avis de l’entreprise. Ils proviennent d’un des multiples procès intentés contre OpenAI pour violation de copyright lors de l’entrainement de ses modèles de langage. Ces documents révèlent que l’entreprise a détruit des jeux de données visés par la plainte, comme l’a découvert Business Insider.

Plainte de nombreux auteurs américains

L'organisation américaine Authors Guild, qui rassemble environ 9 000 membres, a porté plainte en septembre 2023 contre l'entreprise aux côtés d'auteurs célèbres comme George R.R. Martin, Michael Connelly, David Baldacci, Mary Bly, Sylvia Day ou encore Roxana Robinson (pdf). Dans ce document, les plaignants ciblent en particulier l'utilisation de trois jeux de données utilisés par l'entreprise : « OpenAI admet que parmi les jeux de données "d'entraînement" qu'elle a utilisés pour "entraîner" le modèle [GPT-3] figuraient "Common Crawl" et deux "corpus de livres basés sur l'internet" de "haute qualité" qu'elle appelle "Books1" et "Books2" », citant un article scientifique des chercheurs de l'entreprise. Mais, si le contenu de Common Crawl est connu (car disponible en accès libre), ceux de Books1 et Books2 ne le sont pas. En effet, ils ont été créés en interne à OpenAI pour entrainer ses modèles de façon unique et notamment GPT-3, le grand modèle de langage sur lequel l'entreprise s'est appuyée, à l'époque, pour sortir ChatGPT.

Des pièces à conviction détruites ?

Après plusieurs mois infructueux de recherche d'information sur Books1 et Books2, car OpenAI se retranchait derrière leur « confidentialité », l'Authors Guild a pu obtenir de l'entreprise de Sam Altman « qu'elle avait détruit toutes ses copies de books1 et books2, et que les deux chercheurs d'OpenAI responsables de la création de ces ensembles de données ne sont plus employés » par la société (PDF). Cette destruction aurait eu lieu mi 2022. Pour l'association de défense des droits des auteurs américains, « étant donné qu'OpenAI a détruit les preuves directes du contenu des books 1 et 2, ces anciens employés sont d'une importance cruciale dans cette affaire ». Elle a donc demandé à l'entreprise leur identité et l'accuse de ne pas donner suffisamment d'information pour les identifier. Les avocats de l'Authors Guild en profitent pour demander l'accès aux réponses d'OpenAI à la Federal Trade Commission (FTC) lors de différentes enquêtes de l'agence indépendante américaine. Celles-ci pourraient, en effet, contenir les informations que l'organisation cherche.

Destruction « avant litige »

Mais OpenAI se défend (PDF) en expliquant qu'elle a apporté à l'Authors Guild des informations sur ces deux chercheurs et qu'elle est prête à répondre à ses questions si elles n'étaient pas suffisamment claires. Elle ajoute que « les jeux de données Books1 et Books2 ont été supprimés pour cause de non-utilisation avant qu'un litige n'ait été intenté contre OpenAI, et qu'OpenAI a activement enquêté pour déterminer si elle pouvait trouver d'autres copies des jeux de données ou d'autres documents à partir desquels les jeux de données peuvent être reconstruits ». OpenAI s'oppose donc à ce que l'Authors Guild puisse accéder à ses réponses données à la FTC dans des enquêtes se concentrant sur les données personnelles et les aspects liés au consommateur, informations « sans rapport avec la présente affaire ». Dans une déclaration citée par Business Insider, OpenAI affirme que « les modèles qui alimentent ChatGPT et notre API aujourd'hui n'ont pas été développés à l'aide de ces jeux de données » et ajoute que « ces jeux de données, créés par d'anciens employés qui ne font plus partie d'OpenAI, ont été utilisés pour la dernière fois en 2021 et supprimés pour cause de non-utilisation en 2022 ». Il n'en reste pas moins que, dans sa réponse récente à la plainte du New York Times, OpenAI affirmait qu' « étant donné que le copyright couvre aujourd’hui pratiquement toutes les formes d’expression humaine – y compris les articles de blog, les photographies, les messages de forum, les bouts de code de logiciel et les documents gouvernementaux – il serait impossible d’entraîner les meilleurs modèles d’IA actuels sans utiliser des documents protégés par le copyright ».

☕️ Granite : IBM lance son pavé dans la mare des modèles de langage pour la génération de code

IBM vient de publier une famille de huit nouveaux grands modèles de langage nommée Granite. Celle-ci a la particularité de se concentrer sur les tâches liées au code : générer du code, corriger des bugs, expliquer et documenter le code.

Les huit modèles (de 3 à 34 milliards de paramètres) sont distribués sous licence Apache 2.0. Dans leur article expliquant la création de ces grands modèles de langage, les chercheurs d’IBM indiquent qu’ils ont été entraînés sur les jeux de données de code Github Code Clean et StarCoderdata mais aussi « des dépôts de code publics sur GitHub et des problèmes signalés [ndt : issues en anglais] supplémentaires » dont le jeu de données n’est pas clairement connu.

Dans les tests de comparaison qu’ils ont effectués, les chercheurs montrent que le modèle Granite-8B devance ses concurrents « ouverts » :

À la fin de l’article sont listés les langages sur lesquels la famille Granite peut être utilisée :

ABAP, Ada, Agda, Alloy, ANTLR, AppleScript, Arduino, ASP, Assembly, Augeas, Awk, Batchfile, Bison, Bluespec, C, C-sharp, C++, Clojure, CMake, COBOL, CoffeeScript, Common-Lisp, CSS, Cucumber, Cuda, Cython, Dart, Dockerfile, Eagle, Elixir, Elm, Emacs-Lisp, Erlang, F-sharp, FORTRAN, GLSL, GO, Gradle, GraphQL, Groovy, Haskell, Haxe, HCL, HTML, Idris, Isabelle, Java, Java-Server-Pages, JavaScript, JSON, JSON5, JSONiq, JSONLD, JSX, Julia, Jupyter, Kotlin, Lean, Literate-Agda, Literate-CoffeeScript, Literate-Haskell, Lua, Makefile, Maple, Markdown, Mathematica, Matlab, Objective-C++, OCaml, OpenCL, Pascal, Perl, PHP, PowerShell, Prolog, Protocol-Buffer, Python, Python-traceback, R, Racket, RDoc, Restructuredtext, RHTML, RMarkdown, Ruby, Rust, SAS, Scala, Scheme, Shell, Smalltalk, Solidity, SPARQL, SQL, Stan, Standard-ML, Stata, Swift, SystemVerilog, Tcl, Tcsh, Tex, Thrift, Twig, TypeScript, Verilog, VHDL, Visual-Basic, Vue, Web-Ontology-Language, WebAssembly, XML, XSLT, Yacc, YAML, Zig.

☕️ La RATP expérimente sa vidéosurveillance algorithmique pour les concerts de Taylor Swift

Une caméra sur un plafond

Comme l’a repéré David Libeau, la préfecture de Paris a publié (pdf) lundi 6 mai un arrêté autorisant la RATP à expérimenter dans les stations Nanterre Préfecture et La Défense Grande Arche son dispositif de vidéosurveillance algorithmique pendant une semaine, du mardi 7 mai 2024 à 08h00 au mardi 14 mai 2024 à 08h00. L’arrêté est donc publié seulement 24h avant le début des opérations.

La RATP veut utiliser les concerts de Taylor Swift qui auront lieu à la salle du Paris La Défense Arena (les 9, 10, 11 et 12 mai) comme moment de test grandeur nature pour son outil de traitement algorithmique dénommé « Cityvision » et développé par la société Wintics.

Sur sa page de politique générale de confidentialité, l’entreprise de transport indiquait que la période d’expérimentation serait du 09 mai au 12 mai (les jours des concerts de l’artiste mais aussi « intégrant une phase de conception (sans usage opérationnel) du 29/04/2024 au 11/05/2024 ».

La préfecture lui a donc autorisé une plage d’expérimentation plus importante que prévu.

☕️ OpenAI signe un contrat avec le Financial Times

des journaux

Après les groupes Axel Springer, Le Monde et Prisa Media (éditeur du journal El País), le Financial Times a annoncé avoir signé un accord avec OpenAI.

Le journal économique américain explique qu’il a accordé une licence à OpenAI pour entrainer ses grands modèles de langage avec les contenus qu’il publie.

ChatGPT pourra aussi résumer des articles du Financial Times et proposer des citations venant du journal avec des liens vers les articles appropriés.

L’annonce ne précise pas le montant de l’accord.

☕️ DMA : la Commission européenne désigne iPadOS comme contrôleur d’accès

Des Ipads d'Apple

On ne s’y attendait pas forcément, mais la Commission européenne vient d’ajouter iPadOS à sa liste de contrôleurs d’accès chez Apple. Le système pour tablettes rejoint ainsi iOS, Safari et bien sûr l’App Store, au cœur de toutes les attentions.

Au moment de ces nominations début septembre, la Commission avait jugé qu’iPadOS ne correspondait pas aux critères. Cependant, elle se demandait si le système ne constituait pas une « passerelle importante » entre les utilisateurs professionnels et finaux (grand public).

À la suite d’une enquête, la Commission dit avoir constaté trois éléments :

  • Le nombre d’utilisateurs professionnels a « dépassé de 11 fois le seuil quantitatif », tandis que celui des utilisateurs grand public était proche du seuil, les ventes dans un futur proche devant lui faire franchir le cap
  • Apple utilise son « vaste écosystème » pour bloquer les utilisateurs finaux et les dissuader de passer à d’autres plateformes
  • Les utilisateurs professionnels sont « attachés à iPadOS en raison de sa base d’utilisateurs importante et commercialement attrayante »

La Commission en conclut que le système est bien une « passerelle importante » et qu’Apple « jouit d’une position bien établie et durable ».

La société a maintenant six mois pour se conformer à la décision. Il va donc falloir qu’iPadOS intègre à son tour les changements apparus dans iOS 17.4 et qui seront probablement complétés par d’autres dans iOS 18, qui sera présenté le 10 juin.

❌