Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 4 juin 2024Next.ink

☕️ Google : des milliers de problèmes concernant des données personnelles entre 2013 et 2018

4 juin 2024 à 09:05

404 Media a eu accès à une base de données interne à Google répertoriant des problèmes sur des données personnelles entre 2013 et 2018.

Cette base de données fait la liste de tous les incidents que Google a rencontrés sur le traitement de données personnelles.

Le média explique lui-même qu’ « individuellement, les incidents, dont la plupart n’ont pas été rendus publics auparavant, peuvent n’avoir affecté qu’un nombre relativement restreint de personnes, ou ont été résolus rapidement ». Mais il ajoute que, « prise dans son ensemble, la base de données interne montre comment l’une des entreprises les plus puissantes et les plus importantes au monde gère, et souvent mal, une quantité stupéfiante de données personnelles et sensibles sur la vie des gens ».

Et, en effet, 404 Media relève que cette base de données contient des milliers de problèmes reportés en interne par des employés de Google.

La liste va de l’enregistrement de plaques d’immatriculation de voitures par Street View à celui d’un millier de voix d’enfants par un service vocal de Google, en passant par l’accès rendu public pendant un an à un million d’emails d’utilisateurs de Socratic, startup achetée par Google, dans le code source du site lui-même.

404 Media explique que certains incidents sont marqués comme réparés dans la base de données. Dans une sous-liste de 30 éléments envoyée par le média à Google, tous étaient résolus selon l’entreprise.

L’entreprise a aussi répondu au média que « chez Google, les employés peuvent rapidement signaler des problèmes potentiels liés aux produits pour qu’ils soient examinés par les équipes concernées. Lorsqu’un employé soumet un signalement, il suggère le niveau de priorité à l’examinateur. Les rapports obtenus par 404 datent d’il y a plus de six ans et sont des exemples de ces signalements – chacun d’entre eux a été examiné et résolu à l’époque. Dans certains cas, les signalements d’employés se sont avérés ne pas être des problèmes du tout ou étaient des problèmes venant de services tiers ».

Hier — 3 juin 2024Next.ink

Ticketmaster : une fuite de données de 560 millions d’utilisateurs

3 juin 2024 à 15:27
Hacked out

La semaine dernière, le groupe de pirates ShinyHunters a revendiqué la récupération de données de 560 millions d’utilisateurs de Ticketmaster. Vendredi, le leader mondial de la vente de billets a confirmé auprès des autorités américaines avoir été victime d’une « activité non autorisée ».

Mardi 28 mai, le média Hackread a repéré l’annonce du piratage des données de Ticketmaster par le groupe ShinyHunters. Celui-ci revendiquait avoir récupéré les données de 560 millions d’utilisateurs de la plateforme de vente de billets (1, 3 Téraoctet de données) et proposait de les revendre pour 500 000 dollars.

Dans cette base de données volée se trouveraient, selon ShinyHunters, des données privées comme les noms, prénoms, adresses, emails, numéro de téléphone, les billets et le détail des concerts et autres événements des utilisateurs de Ticketmaster. Mais elle contiendrait aussi des informations partielles sur la carte de paiement utilisée dont les quatre derniers chiffres du numéro de la carte et la date d’expiration.

Confirmation à la SEC

Vendredi 31 mai, Live Nation, l’entreprise propriétaire de Ticketmaster, a signalé une fuite de données à la Securities and Exchange Commission (SEC), confirmant ainsi au moins partiellement la revendication de ShinyHunters, explique le Time.

L’entreprise y explique avoir identifié une « activité non autorisée dans un environnement de base de données tiers dans le cloud contenant des données de l’entreprise ». Elle affirme avoir lancé à ce moment-là une enquête avec des spécialistes de la sécurité.

Mais Live Nation ne va pas jusqu’à confirmer l’authenticité des données mises en ventes par ShinyHunters : « le 27 mai 2024, un acteur criminel a mis en vente sur le dark web ce qu’il prétendait être des données d’utilisateurs de l’entreprise. Nous nous efforçons de réduire les risques pour nos utilisateurs et pour l’entreprise, et nous avons informé les forces de l’ordre et coopérons avec elles », déclare-t-elle aux autorités américaines.

Live Nation ose même expliquer à la SEC qu’ « à la date du présent document, l’incident n’a pas eu, et nous ne pensons pas qu’il soit raisonnablement susceptible d’avoir, un impact significatif sur l’ensemble de nos activités, notre situation financière ou nos résultats d’exploitation. Nous continuons à évaluer les risques et nos efforts de remédiation sont en cours ».

Si la fuite est d’ampleur aussi importante que ce que revendique ShinyHunters, elle pourrait tout de même avoir des conséquences significatives pour Ticketmaster et Live Nation.

Ticketmaster en position de monopole

D’autant qu’elle arrive alors que le ministère de la Justice américain vient de les attaquer en justice mardi 23 mai dernier, les accusant d’avoir créé un monopole sur la vente de tickets en ligne.

« Du fait de leur comportement, les fans de musique aux États-Unis sont privés de l’innovation en matière de billetterie et contraints d’utiliser une technologie dépassée tout en payant leurs billets plus cher que les fans d’autres pays », explique le communiqué du ministère :

« Dans le même temps, Live Nation-Ticketmaster exerce son pouvoir sur les artistes, les salles et les promoteurs indépendants d’une manière qui nuit à la concurrence. Live Nation-Ticketmaster impose également des barrières à la concurrence qui limitent l’entrée et l’expansion de ses rivaux. »

La plainte du ministère affirme qu’aux États-Unis, « en 2022, Ticketmaster représentait au moins 70 % de la valeur faciale totale associée à tous les billets vendus dans les grandes arènes et amphithéâtres. Aucun autre concurrent n’a vendu plus de 14 % des billets ».

Enquête en cours en Australie

Concernant le piratage de Ticketmaster, une enquête a déjà été lancée en Australie dès le mercredi 29 mai, expliquait le site Cyberdaily. Elle rejoint les nombreuses enquêtes internationales sur le groupe ShinyHunters.

En août 2022, trois français avaient été accusés par le FBI de faire partie de ce groupe. L’un d’eux, Sébastien Raoult, extradé aux États-Unis depuis le Maroc, a été condamné en janvier dernier à trois ans de prison et à rembourser cinq millions de dollars (4,5 millions d’euros) aux sociétés victimes.

☕️ Hugging Face : la sécurité de certains « espaces » compromise

3 juin 2024 à 11:11

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

À partir d’avant-hierNext.ink

L’Espagne bloque les fonctionnalités que Meta avait prévues pour les élections européennes

31 mai 2024 à 13:46
Cambridge analitiquoi ?
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

Éviter un nouveau Cambridge Analytica

Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

Prévues dans toute l’Europe à l’exception de l’Italie

L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce sujet ».

En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

☕️ Une version ChatGPT spéciale université

31 mai 2024 à 09:50
logo OpenAI dans l'obscurité

Dans un billet de blog, OpenAI annonce une offre de ChatGPT spéciale pour les universités, « ChatGPT Edu ».

Elle intègrera le modèle GPT-4o et son utilisation sera adaptée à ce que l’entreprise considère être les besoins des universitaires. OpenAI explique que ChatGPT Edu intègrera des « fonctionnalités avancées telles que l’analyse de données, la navigation sur le web et la synthèse de documents » et la possibilité de créer des versions adaptées du chatbot en les partageant au sein de l’université.

L’entreprise précise que les conversations et les données utilisées dans ChatGPT Edu ne seront pas utilisées pour entrainer les modèles d’OpenAI.

Stack Overflow vs ChatGPT : le chatbot se plante dans la moitié de ses réponses

31 mai 2024 à 08:05
AI overflow

Les entreprises d’IA ciblent notamment le développement logiciel avec la génération de réponses techniques aux problèmes des développeurs et concurrencent des sites comme Stack Overflow. Mais ces outils sont-ils pertinents ?

« Stack Overflow est-il obsolète ? ». C’est la question que s’est posée la chercheuse de l’université de Purdue aux États-Unis, Samia Kabir avec ses collègues.

Depuis l’arrivée des outils d’IA générative, les fréquentations du site diminuent et les développeurs posent de plus en plus leurs questions techniques à ChatGPT ou à un autre outil similaire. Au point que le site, dans ces conditions inconfortables, signe avec OpenAI un accord laissant l’entreprise de Sam Altman entrainer ses modèles sur les questions/réponses postées depuis des années par ses utilisateurs.

ChatGPT : erroné et bavard


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Codestral : Mistral se lance dans le code généré par IA

30 mai 2024 à 07:33

Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.

L’entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.

Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d’autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.

La startup, qui jusqu’à l’annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d’utiliser le modèle en production, mais seulement à des fins de recherche ou de test.

Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d’y accéder :

  • une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d’attente)
  • l’API « classique » de Mistral
  • le chatbot « Le Chat » de la startup
  • des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine

OpenAI : un nouveau comité de sécurité pour tenter de rassurer

29 mai 2024 à 12:12
logo OpenAI dans l'obscurité

OpenAI annonce la création d’un nouveau comité de sécurité. L’entreprise de Sam Altman a vu la semaine dernière son équipe chargée de contrôler les IA s’autodétruire. Elle veut rassurer alors que GPT-5 est en cours d’entrainement. L’ancienne membre du CA de l’entreprise, Helen Toner, explique la tentative de licenciement de Sam Altman par le fait qu’il aurait donné des informations inexactes sur le processus de sécurité.

Lundi, OpenAI a publié un billet de blog pour indiquer la création d’un comité de « sécurité et de sûreté » en son sein. Il sera « responsable de la formulation de recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations de l’OpenAI ».

Mais l’annonce semble plus être un contre-feu après l’autodestruction de son équipe chargée de contrôler les IA et de préparer l’éventuel avènement d’une intelligence artificielle générale (AGI).

Sam Altman et Bret Taylor membres du comité

Le nouveau comité est composé du président Bret Taylor, du CEO Sam Altman, de l’ancienne présidente de Sony US et toute récente membre du conseil d’administration d’OpenAI Nicole Seligman et d’Adam D’Angelo, lui aussi membre du CA de l’entreprise. Ce dernier est le seul « survivant » du CA qui avait voté pour le départ de Sam Altman en novembre dernier, lors de la semaine de folie qu’a vécu l’entreprise à l’époque.

Cette sorte de CA restreint devra faire des recommandations à l’ensemble du conseil sur les décisions clés en matière de sûreté et de sécurité pour les projets d’OpenAI.

On parle ici de la soi-disant menace d’une éventuelle AGI et, comme le dit Ars Technica, du maintenant classique « nous ne laisserons pas l’IA se comporter comme une menace et prendre le contrôle du monde ». Mais OpenAI présente aussi ce comité comme la prise en compte de thématiques plus vastes concernant la sécurité de ses modèles, les possibilités de « jailbreaks », les mauvaises utilisations en général et la protection des enfants et des élections en particulier, thèmes abordés par l’entreprise à l’AI Seoul Summit la semaine dernière.

Ils seront épaulés par plusieurs experts de l’entreprise : Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.

Ces cinq employés d’OpenAI sont présentés comme responsables de sujets qui ont pourtant l’air de se recouper. Ils sont, respectivement, responsable de la vigilance (en vo « head of Preparedness »), responsable des systèmes de sécurité, responsable de la science de l’alignement (« Alignment Science »), responsable de la sécurité et responsable scientifique.

OpenAI promet que le comité proposera au CA des recommandations d’ici trois mois. Celles-ci seront rendues publiques une fois adoptées par le conseil.

La nouvelle équipe semble beaucoup moins préoccupée par l’avènement d’une AGI que l’ancienne équipe chargée de contrôler les IA. Et OpenAI ne communique plus sur aucun moyen technique qui lui serait dédié. Rappelons qu’elle n’avait pas donné à l’ancienne équipe accès aux capacités de calculs promises à l’époque.

À propos de l’ancienne équipe, Jan Leike vient d’annoncer avoir rejoint Anthropic, la startup rivale d’OpenAI fondée par d’anciens employés de l’entreprise.

Dans le billet de blog d’OpenAI, l’entreprise explique aussi avoir commencé l’entrainement de son prochain modèle qui succédera à GPT-4. Sans pouvoir donner aucun élément probant. Et pour cause, l’entreprise « anticipe que les systèmes qui en résulteront nous mèneront un pas plus loin vers l’AGI ».

Le processus de sécurité d’OpenAI déjà en question en novembre dernier

De son côté, la chercheuse australienne et ancienne membre du CA d’OpenAI, Helen Toner, s’explique dans le Podcast TED AI Show à propos de la tentative de licenciement de Sam Altman en novembre dernier.

Selon elle, comme l’a relevé The Verge, le conseil d’administration a arrêté d’avoir confiance dans le CEO d’OpenAI quand il s’est rendu compte que Sam Altman possédait le fonds « OpenAI Startup », mais aussi parce qu’il avait fourni des informations inexactes sur le processus de sécurité de l’entreprise « à de multiples occasions ».

Elle y explique aussi que le CA a appris le lancement de ChatGPT sur Twitter, comme tout le monde.

☕️ Menace de grève historique chez Samsung Electronics

29 mai 2024 à 07:47

Le récent « Syndicat national de Samsung Electronics » prévoit l’organisation d’une journée blanche dans l’entreprise le 7 juin. Les grévistes utiliseraient leurs congés annuels à cette fin, explique l’AFP.

Mais selon un porte-parole du syndicat, « cela pourrait déboucher sur une grève générale ». Cette grève serait la première de l’histoire de l’entreprise. Samsung Electronics est une filiale (à 100 %) de Samsung, spécialisée dans la fabrication de produits électroniques.

Le syndicat, créé en 2019, menace d’une grève depuis quelques années le fabricant de semi-conducteurs pour peser sur les négociations d’augmentation de salaires. Après plusieurs mois de négociations, la direction a accepté une augmentation de 5,1 %, selon The Register, le syndicat revendiquant une hausse de 6,5 %. Cette revendication intervient alors que Samsung Electronics a quasiment multiplié par dix son bénéfice d’exploitation au premier trimestre de cette année.

« Nous ne pouvons plus supporter les persécutions contre les syndicats. Nous déclarons une grève face à la négligence de l’entreprise à l’égard des travailleurs », dénonce aussi le syndicat.

Depuis sa création en 1938 et jusqu’en 2018, l’entreprise qui emploie plus de 100 000 personnes en Corée du Sud refusait toute création de syndicat. Le procès pour corruption du vice-président et petit-fils du fondateur de l’entreprise, Lee Jae-yong, a changé la donne.

Le syndicat revendique actuellement représenter 20 % des salariés de l’entreprise, soit 28 000 personnes. Il y a un an, ce chiffre était de 9 % (soit environ 10 000 travailleurs à l’époque), selon RTL.be, alors qu’il menaçait déjà d’organiser une grève.

☕️ La vidéosurveillance algorithmique sera aussi expérimentée à Roland Garros

27 mai 2024 à 08:16

Après avoir testé la vidéosurveillance algorithmique lors des concerts de Taylor Swift, la RATP utilise de nouveau ce dispositif encadré par la loi « Jeux Olympiques » dans le cadre de Roland Garros.

Un arrêté de la préfecture daté du vendredi 24 mai (pdf) a été repéré par le bot Mastodon « Attrap’Surveillance » de la Quadrature du Net.

Celui-ci prévoit l’autorisation donnée à la RATP de mettre en œuvre l’outil de traitement algorithmique dénommé « Cityvision » développé par la société Wintics entre le 26 mai, 8h et le 10 juin, 8h « à l’occasion du tournoi international de tennis de Roland Garros ».

Les stations concernées sont Boulogne Jean-Jaurès, Porte d’Auteuil, Michel-Ange Molitor, Michel-Ange Auteuil, Porte de Saint-Cloud, Odéon, Franklin Roosevelt, Havre-Caumartin et République.

Un second arrêté autorise la SNCF à connecter 33 caméras des gares de Javel et du Pont de Garigliano au système « Cityvision » de Wintics.

Le dispositif est testé pour détecter les intrusions en zone interdite au public ou sensible, les mouvements de foule dans des zones à risques, les densités anormalement élevées et la présence d’un bagage abandonnée.

Contrairement à la SNCF, qui la mentionne déjà sur sa page consacrée à l’« Expérimentation vidéo augmentée JOP 2024 », la RATP n’a pas encore signalé cette expérimentation sur sa page de Politique générale de confidentialité, ce qu’elle avait pourtant fait pour l’expérimentation lors des concerts de Taylor Swift.

Google se tourne vers l’IA et Bing plante, la recherche sur le web vacille

27 mai 2024 à 06:25
IA plus de moteur

Ces dernières semaines, Google a modifié la page de résultats par défaut de Google Search pour afficher un texte généré par IA plutôt que les résultats de son moteur de recherche. Et, hier, Bing a subi des déboires et ne répondait plus. En cascade, Duckduckgo, Qwant et d’autres restaient aussi en carafe, montrant leur dépendance au moteur de Microsoft.

Mise à jour à 12:00 : modification de l’article sur l’affichage des « extraits optimisés » qui ne sont pas générés par un modèle de langage.

Comme l’avait annoncé Sundar Pichai lors de la conférence I/O, Google a donné les clés de son moteur de recherche à l’IA générative. Comment ? En affichant en premier lieu et par défaut sur sa page de résultats, un texte généré par un de ses grands modèles de langage Gemini, plutôt que la liste des résultats ordonnée par son algorithme PageRank.

Le texte n’apparait pas sur toutes les recherches et doit être affiché, selon la présentation de Google, lorsque la requête n’est pas simplissime. Concrètement, ça dépend.

Reprises de Wikipédia…


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Numérique en Afrique : « Nos conditions de travail s’apparentent à de l’esclavage moderne »

23 mai 2024 à 14:24
Dj@ngo Unch@ined

97 travailleurs Kényans cosignent une lettre ouverte demandant au président des États-Unis, Joe Biden, de mettre fin « aux conditions de travail qui s’apparentent à de l’esclavage moderne » dans l’industrie du numérique.

Alors que le président Kényan William Ruto entame la première visite officielle d’un leader africain aux États-Unis en plus de 15 ans, des travailleurs kényans du secteur du numérique en profitent pour interpeler le président américain.

Ils travaillent tous pour des entreprises états-uniennes comme Facebook, ScaleAI ou OpenAI via des sous-traitants, soit en tant que modérateurs de contenus, soit en étiquetant des données pour l’entrainement des modèles d’intelligence artificielle.

La Maison-Blanche explique dans son communiqué de presse annonçant l’accueil de William Ruto, que « les dirigeants discuteront des moyens de renforcer notre coopération dans des domaines tels que les relations entre les peuples, le commerce et l’investissement, l’innovation technologique, le climat et l’énergie propre, la santé et la sécurité ».

Cette centaine de travailleurs expliquent que ce sont « des questions dans lesquelles notre force de travail est directement et personnellement concernée ».

Exploitation et maltraitance systématique

Dans cette lettre ouverte publiée sur le site de l’ONG britannique Foxglove, qui « lutte pour rendre la technologie équitable pour tous », ils dénoncent le fait que « les grandes entreprises américaines du secteur des technologies maltraitent et exploitent systématiquement les travailleurs africains ».

Ils précisent qu’ « au Kenya, ces entreprises américaines sapent le droit du travail local, le système judiciaire du pays et violent les normes internationales du travail ». « Nos conditions de travail s’apparentent à de l’esclavage moderne » dénoncent-ils.

Il y a un an, certains travailleurs de ce secteur au Kenya ont créé un syndicat, peu de temps après la publication d’une enquête du magazine américain Time qui révélait que les travailleurs kényans ayant entraîné ChatGPT pour qu’il soit plus éthique avaient été payés moins de 2 dollars de l’heure.

Cela fait suite aussi à la plainte d’un groupe de ces travailleurs contre Meta et son sous-traitant Sama.

Pour ces travailleurs, « toute discussion commerciale entre les États-Unis et le Kenya doit tenir compte de ces abus et garantir la protection des droits de tous les travailleurs ».

Demande d’un engagement du gouvernement Biden

Ils demandent donc au gouvernement de Joe Biden de s’engager à travailler avec les employés des grandes entreprises de la Tech au Kenya. Ils réclament que le gouvernement américain veille à ce que les partenariats à venir comprennent des dispositions pour que les entreprises de son pays se conforment aux réglementations internationales du travail et qu’il empêche le démantèlement des syndicats.

Ces travailleurs kényans revendiquent aussi la possibilité que « les entreprises américaines du secteur des grandes technologies puissent être tenues responsables devant les tribunaux américains pour leurs opérations illégales à l’étranger, en particulier en ce qui concerne les droits humains et les violations du droit du travail ».

Enfin, ils demandent à ce que le « respect fondamental de la constitution et de la souveraineté du Kenya » soit au cœur des négociations entre les deux pays.

« Nous ne devrions pas avoir à sacrifier notre santé, notre bien-être et, malheureusement, dans certains cas, notre vie pour les marges bénéficiaires de Big Tech. Nous vous demandons instamment de prendre des mesures et d’examiner attentivement nos demandes dans le cadre de ces discussions et au-delà », concluent-ils.

Observer des meurtres et des viols, pour moins de 2 $ de l’heure

Kauna Malgwi, du comité directeur de l’Union africaine des modérateurs de contenu, a déclaré : « Tout le monde veut voir plus d’emplois au Kenya – mais pas à n’importe quel prix. Tout ce que nous demandons, c’est un travail digne, équitablement rémunéré, sûr et sécurisé. »

« Notre travail consiste à observer des meurtres et des décapitations, des abus et des viols d’enfants, de la pornographie et de la bestialité, souvent plus de 8 heures par jour. Beaucoup d’entre nous font ce travail pour moins de 2 dollars de l’heure.

Ces entreprises ne nous fournissent pas les soins de santé mentale nécessaires pour assurer notre sécurité. En conséquence, beaucoup d’entre nous vivent et travaillent avec le trouble de stress post-traumatique (SSPT). Nous n’avons pas été prévenus des horreurs des travaux avant de commencer. »

Leur lettre ouverte a également été approuvée par le Dr Willy Mutunga, ancien juge en chef du Kenya et éminent défenseur des droits de l’homme, précise l’ONG.

☕️ L’astronaute Sophie Adenot sélectionnée par l’ESA pour s’envoler vers l’ISS

23 mai 2024 à 06:39

L’ESA a annoncé que l’astronaute française Sophie Adenot fera partie du prochain équipage qui partira vers l’ISS. Lancement prévu en 2026. À ses côtés, l’astronaute belge Raphaël Liégeois.

Pour le directeur général de l’agence spatiale européenne, Josef Aschbacher, « l’affectation de Sophie et Raphaël en tant que prochains astronautes de l’ESA volant vers la Station spatiale internationale marque une étape importante pour l’ESA et sa promotion d’astronautes de 2022. C’est un résultat tangible de notre engagement à maintenir une forte présence européenne dans un contexte international ».

En effet, Sophie Adenot et Raphaël Liégeois font partie de la promotion d’astronautes de l’ESA 2022.

Josef Aschbacher ajoute qu’ « alors que les activités d’exploration se développent à un rythme sans précédent, l’envoi dans l’espace de deux astronautes de l’ESA récemment diplômés constitue une étape cruciale dans la préservation du savoir-faire européen, garantissant la participation à long terme de l’Europe aux programmes en cours tels qu’Artemis, ainsi qu’à tout projet futur impliquant des vols spatiaux habités et l’exploration ».

Sophie Adenot a réagi en se déclarant « honorée et fière de représenter bientôt l’Europe et la France dans l’espace et de contribuer à la recherche scientifique depuis ce laboratoire orbital ».

« Il y aura des défis à relever, des qualifications à passer, des procédures à apprendre. Cela va être intense et j’ai une énergie folle ! », s’est-elle exclamée.

Emmanuel Macron veut « l’IA partout et pour tous »

22 mai 2024 à 13:52
Artificiellement vôtre

Alors que le sommet « Choose France » s’achève et que Vivatech s’ouvre, Emmanuel Macron a affiché une nouvelle fois sa volonté de « faire de la France un leader incontesté de l’IA » et diffuser « l’IA partout et pour tous ». Quitte à contredire les discours du gouvernement sur les écrans et les réductions de budget dans l’enseignement supérieur et la recherche annoncées en début d’année.

Entre les deux événements qui intéressent le milieu de la tech en France et juste avant de décoller pour la Nouvelle-Calédonie, Emmanuel Macron a annoncé vouloir « faire de la France un leader incontesté de l’IA ». Il donne cinq priorités pour y arriver : la formation et la recherche, les infrastructures, le financement, l’usage par tous et la gouvernance.

Recherche et formation


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Ariane 6 : la planification du premier lancement se resserre

21 mai 2024 à 09:49

Dans un communiqué publié ce mardi 21 mai, l’Agence spatiale européenne (ESA) indique que la « première tentative de lancement aura lieu au cours des deux premières semaines de juillet 2024 ».

Jusque-là, la période de lancement du vol inaugural s’étalait encore entre le 15 juin et le 31 juillet 2024.

Mi-juin, l’agence prévoit d’avoir fini la qualification du système de lancement. Le 18 juin devrait avoir lieu la répétition générale du lancement à Kourou.

☕️ Selon Scarlett Johansson, OpenAI avait bien l’intention d’utiliser sa voix

21 mai 2024 à 07:28

Dans un communiqué rendu public par le journaliste américain Yashar Ali et par le média NPR, Scarlett Johansson explique que Sam Altman l’a contactée en septembre dernier pour lui demander de prêter sa voix à sa nouvelle IA. Elle dit avoir décliné l’offre.

Mais cette réaction n’a pas arrêté le CEO d’OpenAI. Dans les démos de son nouveau modèle de langage, GPT-4o, OpenAI a utilisé une voix (nommée « Sky » par l’entreprise) si proche de celle de Scarlett Johansson qu’une bonne partie de ceux qui les ont vues a immédiatement pensé au film Her : l’actrice y prête sa voix à une IA. Et Sam Altman avait confirmé implicitement son intention de s’en approcher en tweetant un simple « her » suite à la publication des démos.

Scarlett Johansson a réagi en expliquant qu’elle a « été choquée, en colère et stupéfiée que M. Altman recherche une voix si étrangement similaire à la [sienne] que [ses] amis les plus proches et les médias n’ont pas pu faire la différence ».

Selon l’actrice, Sam Altman a insisté de nouveau deux jours avant la sortie de ses démos en contactant son agent pour lui demander de reconsidérer sa décision. Mais « avant même que nous soyons en contact, le système était sorti », explique-t-elle.

L’avocat de Scarlett Johansson a été obligé d’envoyer deux lettres avant qu’OpenAI accepte, « à contrecœur » souligne l’actrice, d’arrêter d’utiliser cette voix.

Dans un communiqué transmis à la NPR, Sam Altman affirme qu’OpenAI a recruté l’actrice derrière la voix de Sky avant de prendre contact avec Scarlett Johansson. « Par respect pour Mme Johansson, nous avons cessé d’utiliser la voix de Sky dans nos produits. Nous sommes désolés pour Mme Johansson de ne pas avoir mieux communiqué », ajoute-t-il.

L’actrice a ajouté un commentaire pointant du doigt cette utilisation alors que la manipulation des voix et photos s’intensifie sur Internet : « à une époque où nous sommes tous aux prises avec les deepfakes et la protection de notre propre image, de notre propre travail, de notre propre identité, je pense que ce sont des questions qui méritent une clarté absolue. J’attends avec impatience une solution via la mise en place d’une transparence et l’adoption d’une législation appropriée pour contribuer à garantir la protection des droits individuels ».

Comme dans le film Her, la voix « Sky » répondait dans les démos d’OpenAI avec un ton de flirt. Dans un sketch Desi Lydic, du Daily Show, s’en est moqué en disant que Sky était « clairement programmée pour nourrir l’ego des mecs » :

This is the best (and funniest!) take I've seen on the whole GPT-4o situation so far 😂 https://t.co/4CAJ9e1Vxh

— Sasha Luccioni, PhD 🦋🌎✨🤗 (@SashaMTL) May 20, 2024

Comment OpenAI évite toute critique de ses anciens employés

20 mai 2024 à 15:49
NDIA

La semaine dernière, des employés d’OpenAI, dont Ilya Sutskever et Jan Leike, ont quitté l’entreprise, laissant l’équipe de « Superalignement » vide. Mais leur message pour annoncer leur départ était laconique. La raison ? OpenAI imposait jusqu’à présent à ses salariés voulant quitter l’entreprise la signature d’un accord de confidentialité (NDA) à vie, au risque de perdre leurs actions.

Les déclarations des démissionnaires d’OpenAI envers leur ancien employeur étaient plus que succinctes. Ilya Sutskever affirmait ainsi être « convaincu qu’OpenAI construira une AGI à la fois sûre et bénéfique ». Étonnement positif pour quelqu’un quittant l’entreprise. Jan Leike a seulement écrit « « j’ai démissionné ».

Vendredi, OpenAI a finalement annoncé la dissolution pure et simple de leur équipe tout en expliquant intégrer les personnes restantes dans ses autres équipes de recherche « afin d’aider l’entreprise à atteindre ses objectifs en matière de sécurité ».

Le média Vox a trouvé une raison au mutisme des employés : l’entreprise leur a simplement fait signer un accord de confidentialité (NDA) qui leur interdit de la critiquer.

Interdiction de critique à vie


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Le blocage de TikTok en Nouvelle-Calédonie attaqué en justice par la Quadrature et la LDH

17 mai 2024 à 14:39

L’association a déposé ce vendredi 17 mai un référé-liberté (pdf) demandant la suspension du blocage de TikTok en Nouvelle-Calédonie décidé par le Premier ministre Gabriel Attal.

Elle estime que « le gouvernement porte un coup inédit et particulièrement grave à la liberté d’expression en ligne, que ni le contexte local ni la toxicité de la plateforme ne peuvent justifier dans un État de droit ».

Comme nous l’évoquions, le décret du 15 mai interdisant TikTok sur le territoire de la Nouvelle-Calédonie s’appuie sur la loi du 3 avril 1955 relative à l’état d’urgence. Elle prévoit que le ministre de l’Intérieur puisse « prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie ».

Dans son communiqué, la Quadrature du Net estime que « personne n’est dupe : en réalité, le blocage de TikTok n’est absolument pas justifié par une quelconque présence sur la plateforme de contenus terroristes, mais bien par le fait qu’il s’agit d’une plateforme centrale dans l’expression en ligne des personnes qui en viennent aujourd’hui à se révolter ».

L’association précise dans son référé qu’elle « lutte de manière ancienne et constante contre le modèle incarné notamment par le service de communication au public en ligne “TikTok”, qu’elle considère comme particulièrement nocif à bien des égards, et qui s’oppose aux valeurs qu’elle entend défendre ».

La Ligue des droits de l’Homme a aussi annoncé sur Twitter attaquer « en référé-liberté l’interdiction et le blocage de TikTok sur le territoire de la Nouvelle-Calédonie pour défendre la liberté de communication des idées et des opinions ».

Depuis 2020, les émissions de Microsoft ont augmenté de 29 %

17 mai 2024 à 14:14
IA très soif
consommation de l'ia

En 2020, l’entreprise de Redmond planifiait une empreinte « carbone négative » à partir de 2030 et même « effacer », d’ici 2050, l’ensemble de son empreinte carbone depuis 1975. Depuis, notamment à cause de ses investissements dans l’IA, Microsoft a de fait augmenté ses émissions de CO2 de 29 %.

C’est dans le rapport sur le développement durable 2024 de Microsoft (pdf) que le chiffre de l’augmentation de 29,1 % des émissions de CO2 de l’entreprise entre 2020 et 2023 se cache parmi de nombreuses photos de champignons, d’arbres, de roches, d’éoliennes et de panneaux solaires.

La construction de data centers pour l’IA en cause

S’il est répété trois fois dans le rapport, ce chiffre n’est pas mis en exergue du rapport, contrairement aux « 5 millions de tonnes de carbone éliminées pendant l’année 2023 », par exemple. Il a pourtant été repéré par Bloomberg.

Dans son rapport, Microsoft ne fait pas non plus le décompte total de ses émissions de CO2. En parcourant le rapport, The Verge calcule que « l’entreprise a rejeté 15,357 millions de tonnes de dioxyde de carbone au cours de l’exercice fiscal précédent, ce qui est comparable aux émissions d’Haïti ou de Brunei ».

L’entreprise divise ses émissions entre trois catégories de « scopes ». Le Scope 1 désigne les émissions « directes » créées par les activités internes à l’entreprise. Le Scope 2 vise les émissions « indirectes » venant de l’électricité ou du chauffage que Microsoft utilise. Et la troisième représente les émissions « indirectes » venant de toutes les autres activités « dans lesquelles nous sommes engagés », explique l’entreprise dans son rapport.

Si cette catégorisation reste assez vague, on peut voir sur le schéma ci-dessous, tiré du rapport, que ce sont les activités du Scope 3 qui représentent la plupart des émissions de CO2 de Microsoft. Pour l’année 2023, elles en représentent même 96 %.

Donc même si Microsoft explique que les émissions des catégories des scope 1 et 2 ont diminué de 6 % depuis 2020, ces efforts n’ont que peu de poids dans le bilan de l’entreprise.

D’autant que les activités du scope 3 ont augmenté, elles, de 30,9 %. Celles-ci englobent, entre autres, l’énergie de sa chaine d’approvisionnement, et les matériaux de constructions et notamment ceux de ses data centers.

Et la bascule effectuée par Microsoft vers la mise en place de plus en plus importante de l’intelligence artificielle l’a poussée à créer d’autant plus de data centers ces dernières années.

Un objectif cinq fois plus loin qu’en 2020

Interrogé par le média américain, le président de Microsoft, Brad Smith, explique qu’ « en 2020, nous avons dévoilé ce que nous avons appelé notre “carbon moonshot” [objectif carbone dont l’ambition est comparable à celle d’un lancement vers la lune]. C’était avant l’explosion de l’intelligence artificielle ».

Si, dans son rapport, l’entreprise insiste sur son utilisation de l’IA pour « accélérer les solutions de développement durable », Brad Smith est bien obligé d’ajouter qu’ « à bien des égards, la lune est cinq fois plus éloignée qu’elle ne l’était en 2020, si l’on pense seulement à nos propres prévisions concernant l’expansion de l’intelligence artificielle et ses besoins en électricité ».

De plus, comme l’explique le Financial Times, cette concurrence sur la création d’infrastructures de data centers pour l’IA soulève des questions sur la capacité des réseaux énergétiques nationaux à faire face à la hausse attendue de la demande d’électricité. Le média économique américain se demande également si la production d’énergies renouvelables est suffisante sur ces marchés pour répondre aux besoins de l’IA.

❌
❌