Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 31 mai 2024Actualités numériques

L’Espagne bloque les fonctionnalités que Meta avait prévues pour les élections européennes

31 mai 2024 à 13:46
Cambridge analitiquoi ?
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

Éviter un nouveau Cambridge Analytica

Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

Prévues dans toute l’Europe à l’exception de l’Italie

L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce sujet ».

En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

L’Espagne bloque les fonctionnalités que Meta avait prévues pour les élections européennes

31 mai 2024 à 13:46
Cambridge analitiquoi ?
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

La CNIL espagnole vient de décider la suspension de l’implémentation sur son territoire des fonctionnalités prévues par Meta. L’entreprise voulait les ajouter à Instagram et Facebook à l’occasion des élections européennes pour « empêcher la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers ».

L’Agencia Española de Protección de Datos (AEPD) annonce avoir décidé le blocage préventif de l’implémentation des fonctionnalités que Meta voulait intégrer à Facebook et Instagram pour les élections européennes.

L’entreprise de Mark Zuckerberg a prévu de lancer deux outils appelés « Election Day Information » (EDI) et Voter Information Unit (VIU). Et, selon l’autorité, Meta récupérerait et traiterait des données concernant l’utilisation de ces outils.

L’AEPD veut, par cette mesure, empêcher « la collecte de données, le profilage des utilisateurs et le transfert d’informations à des tiers, afin d’éviter que les données personnelles ne soient utilisées par des tiers inconnus et à des fins non explicites ». Cette interdiction aura une durée maximale de trois mois. Meta ne devrait donc pas pouvoir les mettre en place en Espagne lors du scrutin européen.

La CNIL espagnole considère que le traitement des données prévu par Meta implique une action contraire au RGPD. Au minimum, elle « violerait les principes de protection des données que sont la licéité, la minimisation, et la limitation du stockage ».

Selon l’agence, ces deux fonctionnalités traiteraient des données personnelles « telles que, entre autres, le nom de l’utilisateur, l’adresse IP, l’âge et le sexe ou des informations sur la manière dont l’utilisateur interagit avec ces fonctionnalités ».

Éviter un nouveau Cambridge Analytica

Pour l’autorité, cette récupération et ce stockage des données « mettraient gravement en péril les droits et libertés des utilisateurs d’Instagram et de Facebook, qui verraient augmenter le volume d’informations que Meta collecte à leur sujet, permettant un profilage plus complexe, détaillé et exhaustif, et générant un traitement plus intrusif ».

Elle ajoute que donner accès à ces informations à des acteurs tiers « entraînerait une ingérence disproportionnée dans les droits et libertés des personnes concernées ».

Si l’autorité ne le mentionne pas, cette peur qu’elle évoque rappelle l’utilisation des données de millions d’utilisateurs de Facebook lors du scandale de Cambridge Analytica.

Prévues dans toute l’Europe à l’exception de l’Italie

L’AEPD explique que Meta lui a indiqué vouloir lancer ces fonctionnalités pour tous les utilisateurs de ses services qui pourront voter aux élections européennes, « à l’exception de l’Italie, dont l’autorité de protection des données a déjà entamé une procédure à ce sujet ».

En effet, en septembre 2022, l’autorité italienne (GPDP) avait déjà mis en place une procédure contre Meta à propos des élections nationales. Elle y évoquait d’ailleurs plus explicitement le scandale Cambridge Analytica.

Interrogée par TechCrunch, Meta a répondu : « nos outils électoraux ont été expressément conçus pour respecter la vie privée des utilisateurs et se conformer au RGPD. Bien que nous ne soyons pas d’accord avec l’évaluation de l’AEPD, nous avons coopéré ».

☕️ Une version ChatGPT spéciale université

31 mai 2024 à 09:50
logo OpenAI dans l'obscurité

Dans un billet de blog, OpenAI annonce une offre de ChatGPT spéciale pour les universités, « ChatGPT Edu ».

Elle intègrera le modèle GPT-4o et son utilisation sera adaptée à ce que l’entreprise considère être les besoins des universitaires. OpenAI explique que ChatGPT Edu intègrera des « fonctionnalités avancées telles que l’analyse de données, la navigation sur le web et la synthèse de documents » et la possibilité de créer des versions adaptées du chatbot en les partageant au sein de l’université.

L’entreprise précise que les conversations et les données utilisées dans ChatGPT Edu ne seront pas utilisées pour entrainer les modèles d’OpenAI.

☕️ Une version ChatGPT spéciale université

31 mai 2024 à 09:50
logo OpenAI dans l'obscurité

Dans un billet de blog, OpenAI annonce une offre de ChatGPT spéciale pour les universités, « ChatGPT Edu ».

Elle intègrera le modèle GPT-4o et son utilisation sera adaptée à ce que l’entreprise considère être les besoins des universitaires. OpenAI explique que ChatGPT Edu intègrera des « fonctionnalités avancées telles que l’analyse de données, la navigation sur le web et la synthèse de documents » et la possibilité de créer des versions adaptées du chatbot en les partageant au sein de l’université.

L’entreprise précise que les conversations et les données utilisées dans ChatGPT Edu ne seront pas utilisées pour entrainer les modèles d’OpenAI.

Stack Overflow vs ChatGPT : le chatbot se plante dans la moitié de ses réponses

31 mai 2024 à 08:05
AI overflow

Les entreprises d’IA ciblent notamment le développement logiciel avec la génération de réponses techniques aux problèmes des développeurs et concurrencent des sites comme Stack Overflow. Mais ces outils sont-ils pertinents ?

« Stack Overflow est-il obsolète ? ». C’est la question que s’est posée la chercheuse de l’université de Purdue aux États-Unis, Samia Kabir avec ses collègues.

Depuis l’arrivée des outils d’IA générative, les fréquentations du site diminuent et les développeurs posent de plus en plus leurs questions techniques à ChatGPT ou à un autre outil similaire. Au point que le site, dans ces conditions inconfortables, signe avec OpenAI un accord laissant l’entreprise de Sam Altman entrainer ses modèles sur les questions/réponses postées depuis des années par ses utilisateurs.

ChatGPT : erroné et bavard


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

À partir d’avant-hierActualités numériques

☕️ Codestral : Mistral se lance dans le code généré par IA

30 mai 2024 à 07:33

Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.

L’entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.

Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d’autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.

La startup, qui jusqu’à l’annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d’utiliser le modèle en production, mais seulement à des fins de recherche ou de test.

Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d’y accéder :

  • une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d’attente)
  • l’API « classique » de Mistral
  • le chatbot « Le Chat » de la startup
  • des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine

☕️ Codestral : Mistral se lance dans le code généré par IA

30 mai 2024 à 07:33

Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.

L’entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.

Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d’autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.

La startup, qui jusqu’à l’annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d’utiliser le modèle en production, mais seulement à des fins de recherche ou de test.

Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d’y accéder :

  • une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d’attente)
  • l’API « classique » de Mistral
  • le chatbot « Le Chat » de la startup
  • des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine

OpenAI : un nouveau comité de sécurité pour tenter de rassurer

29 mai 2024 à 12:12
logo OpenAI dans l'obscurité

OpenAI annonce la création d’un nouveau comité de sécurité. L’entreprise de Sam Altman a vu la semaine dernière son équipe chargée de contrôler les IA s’autodétruire. Elle veut rassurer alors que GPT-5 est en cours d’entrainement. L’ancienne membre du CA de l’entreprise, Helen Toner, explique la tentative de licenciement de Sam Altman par le fait qu’il aurait donné des informations inexactes sur le processus de sécurité.

Lundi, OpenAI a publié un billet de blog pour indiquer la création d’un comité de « sécurité et de sûreté » en son sein. Il sera « responsable de la formulation de recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations de l’OpenAI ».

Mais l’annonce semble plus être un contre-feu après l’autodestruction de son équipe chargée de contrôler les IA et de préparer l’éventuel avènement d’une intelligence artificielle générale (AGI).

Sam Altman et Bret Taylor membres du comité

Le nouveau comité est composé du président Bret Taylor, du CEO Sam Altman, de l’ancienne présidente de Sony US et toute récente membre du conseil d’administration d’OpenAI Nicole Seligman et d’Adam D’Angelo, lui aussi membre du CA de l’entreprise. Ce dernier est le seul « survivant » du CA qui avait voté pour le départ de Sam Altman en novembre dernier, lors de la semaine de folie qu’a vécu l’entreprise à l’époque.

Cette sorte de CA restreint devra faire des recommandations à l’ensemble du conseil sur les décisions clés en matière de sûreté et de sécurité pour les projets d’OpenAI.

On parle ici de la soi-disant menace d’une éventuelle AGI et, comme le dit Ars Technica, du maintenant classique « nous ne laisserons pas l’IA se comporter comme une menace et prendre le contrôle du monde ». Mais OpenAI présente aussi ce comité comme la prise en compte de thématiques plus vastes concernant la sécurité de ses modèles, les possibilités de « jailbreaks », les mauvaises utilisations en général et la protection des enfants et des élections en particulier, thèmes abordés par l’entreprise à l’AI Seoul Summit la semaine dernière.

Ils seront épaulés par plusieurs experts de l’entreprise : Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.

Ces cinq employés d’OpenAI sont présentés comme responsables de sujets qui ont pourtant l’air de se recouper. Ils sont, respectivement, responsable de la vigilance (en vo « head of Preparedness »), responsable des systèmes de sécurité, responsable de la science de l’alignement (« Alignment Science »), responsable de la sécurité et responsable scientifique.

OpenAI promet que le comité proposera au CA des recommandations d’ici trois mois. Celles-ci seront rendues publiques une fois adoptées par le conseil.

La nouvelle équipe semble beaucoup moins préoccupée par l’avènement d’une AGI que l’ancienne équipe chargée de contrôler les IA. Et OpenAI ne communique plus sur aucun moyen technique qui lui serait dédié. Rappelons qu’elle n’avait pas donné à l’ancienne équipe accès aux capacités de calculs promises à l’époque.

À propos de l’ancienne équipe, Jan Leike vient d’annoncer avoir rejoint Anthropic, la startup rivale d’OpenAI fondée par d’anciens employés de l’entreprise.

Dans le billet de blog d’OpenAI, l’entreprise explique aussi avoir commencé l’entrainement de son prochain modèle qui succédera à GPT-4. Sans pouvoir donner aucun élément probant. Et pour cause, l’entreprise « anticipe que les systèmes qui en résulteront nous mèneront un pas plus loin vers l’AGI ».

Le processus de sécurité d’OpenAI déjà en question en novembre dernier

De son côté, la chercheuse australienne et ancienne membre du CA d’OpenAI, Helen Toner, s’explique dans le Podcast TED AI Show à propos de la tentative de licenciement de Sam Altman en novembre dernier.

Selon elle, comme l’a relevé The Verge, le conseil d’administration a arrêté d’avoir confiance dans le CEO d’OpenAI quand il s’est rendu compte que Sam Altman possédait le fonds « OpenAI Startup », mais aussi parce qu’il avait fourni des informations inexactes sur le processus de sécurité de l’entreprise « à de multiples occasions ».

Elle y explique aussi que le CA a appris le lancement de ChatGPT sur Twitter, comme tout le monde.

OpenAI : un nouveau comité de sécurité pour tenter de rassurer

29 mai 2024 à 12:12
logo OpenAI dans l'obscurité

OpenAI annonce la création d’un nouveau comité de sécurité. L’entreprise de Sam Altman a vu la semaine dernière son équipe chargée de contrôler les IA s’autodétruire. Elle veut rassurer alors que GPT-5 est en cours d’entrainement. L’ancienne membre du CA de l’entreprise, Helen Toner, explique la tentative de licenciement de Sam Altman par le fait qu’il aurait donné des informations inexactes sur le processus de sécurité.

Lundi, OpenAI a publié un billet de blog pour indiquer la création d’un comité de « sécurité et de sûreté » en son sein. Il sera « responsable de la formulation de recommandations à l’ensemble du conseil d’administration sur les décisions critiques en matière de sûreté et de sécurité pour les projets et les opérations de l’OpenAI ».

Mais l’annonce semble plus être un contre-feu après l’autodestruction de son équipe chargée de contrôler les IA et de préparer l’éventuel avènement d’une intelligence artificielle générale (AGI).

Sam Altman et Bret Taylor membres du comité

Le nouveau comité est composé du président Bret Taylor, du CEO Sam Altman, de l’ancienne présidente de Sony US et toute récente membre du conseil d’administration d’OpenAI Nicole Seligman et d’Adam D’Angelo, lui aussi membre du CA de l’entreprise. Ce dernier est le seul « survivant » du CA qui avait voté pour le départ de Sam Altman en novembre dernier, lors de la semaine de folie qu’a vécu l’entreprise à l’époque.

Cette sorte de CA restreint devra faire des recommandations à l’ensemble du conseil sur les décisions clés en matière de sûreté et de sécurité pour les projets d’OpenAI.

On parle ici de la soi-disant menace d’une éventuelle AGI et, comme le dit Ars Technica, du maintenant classique « nous ne laisserons pas l’IA se comporter comme une menace et prendre le contrôle du monde ». Mais OpenAI présente aussi ce comité comme la prise en compte de thématiques plus vastes concernant la sécurité de ses modèles, les possibilités de « jailbreaks », les mauvaises utilisations en général et la protection des enfants et des élections en particulier, thèmes abordés par l’entreprise à l’AI Seoul Summit la semaine dernière.

Ils seront épaulés par plusieurs experts de l’entreprise : Aleksander Madry, Lilian Weng, John Schulman, Matt Knight et Jakub Pachocki.

Ces cinq employés d’OpenAI sont présentés comme responsables de sujets qui ont pourtant l’air de se recouper. Ils sont, respectivement, responsable de la vigilance (en vo « head of Preparedness »), responsable des systèmes de sécurité, responsable de la science de l’alignement (« Alignment Science »), responsable de la sécurité et responsable scientifique.

OpenAI promet que le comité proposera au CA des recommandations d’ici trois mois. Celles-ci seront rendues publiques une fois adoptées par le conseil.

La nouvelle équipe semble beaucoup moins préoccupée par l’avènement d’une AGI que l’ancienne équipe chargée de contrôler les IA. Et OpenAI ne communique plus sur aucun moyen technique qui lui serait dédié. Rappelons qu’elle n’avait pas donné à l’ancienne équipe accès aux capacités de calculs promises à l’époque.

À propos de l’ancienne équipe, Jan Leike vient d’annoncer avoir rejoint Anthropic, la startup rivale d’OpenAI fondée par d’anciens employés de l’entreprise.

Dans le billet de blog d’OpenAI, l’entreprise explique aussi avoir commencé l’entrainement de son prochain modèle qui succédera à GPT-4. Sans pouvoir donner aucun élément probant. Et pour cause, l’entreprise « anticipe que les systèmes qui en résulteront nous mèneront un pas plus loin vers l’AGI ».

Le processus de sécurité d’OpenAI déjà en question en novembre dernier

De son côté, la chercheuse australienne et ancienne membre du CA d’OpenAI, Helen Toner, s’explique dans le Podcast TED AI Show à propos de la tentative de licenciement de Sam Altman en novembre dernier.

Selon elle, comme l’a relevé The Verge, le conseil d’administration a arrêté d’avoir confiance dans le CEO d’OpenAI quand il s’est rendu compte que Sam Altman possédait le fonds « OpenAI Startup », mais aussi parce qu’il avait fourni des informations inexactes sur le processus de sécurité de l’entreprise « à de multiples occasions ».

Elle y explique aussi que le CA a appris le lancement de ChatGPT sur Twitter, comme tout le monde.

☕️ Menace de grève historique chez Samsung Electronics

29 mai 2024 à 07:47

Le récent « Syndicat national de Samsung Electronics » prévoit l’organisation d’une journée blanche dans l’entreprise le 7 juin. Les grévistes utiliseraient leurs congés annuels à cette fin, explique l’AFP.

Mais selon un porte-parole du syndicat, « cela pourrait déboucher sur une grève générale ». Cette grève serait la première de l’histoire de l’entreprise. Samsung Electronics est une filiale (à 100 %) de Samsung, spécialisée dans la fabrication de produits électroniques.

Le syndicat, créé en 2019, menace d’une grève depuis quelques années le fabricant de semi-conducteurs pour peser sur les négociations d’augmentation de salaires. Après plusieurs mois de négociations, la direction a accepté une augmentation de 5,1 %, selon The Register, le syndicat revendiquant une hausse de 6,5 %. Cette revendication intervient alors que Samsung Electronics a quasiment multiplié par dix son bénéfice d’exploitation au premier trimestre de cette année.

« Nous ne pouvons plus supporter les persécutions contre les syndicats. Nous déclarons une grève face à la négligence de l’entreprise à l’égard des travailleurs », dénonce aussi le syndicat.

Depuis sa création en 1938 et jusqu’en 2018, l’entreprise qui emploie plus de 100 000 personnes en Corée du Sud refusait toute création de syndicat. Le procès pour corruption du vice-président et petit-fils du fondateur de l’entreprise, Lee Jae-yong, a changé la donne.

Le syndicat revendique actuellement représenter 20 % des salariés de l’entreprise, soit 28 000 personnes. Il y a un an, ce chiffre était de 9 % (soit environ 10 000 travailleurs à l’époque), selon RTL.be, alors qu’il menaçait déjà d’organiser une grève.

☕️ Menace de grève historique chez Samsung Electronics

29 mai 2024 à 07:47

Le récent « Syndicat national de Samsung Electronics » prévoit l’organisation d’une journée blanche dans l’entreprise le 7 juin. Les grévistes utiliseraient leurs congés annuels à cette fin, explique l’AFP.

Mais selon un porte-parole du syndicat, « cela pourrait déboucher sur une grève générale ». Cette grève serait la première de l’histoire de l’entreprise. Samsung Electronics est une filiale (à 100 %) de Samsung, spécialisée dans la fabrication de produits électroniques.

Le syndicat, créé en 2019, menace d’une grève depuis quelques années le fabricant de semi-conducteurs pour peser sur les négociations d’augmentation de salaires. Après plusieurs mois de négociations, la direction a accepté une augmentation de 5,1 %, selon The Register, le syndicat revendiquant une hausse de 6,5 %. Cette revendication intervient alors que Samsung Electronics a quasiment multiplié par dix son bénéfice d’exploitation au premier trimestre de cette année.

« Nous ne pouvons plus supporter les persécutions contre les syndicats. Nous déclarons une grève face à la négligence de l’entreprise à l’égard des travailleurs », dénonce aussi le syndicat.

Depuis sa création en 1938 et jusqu’en 2018, l’entreprise qui emploie plus de 100 000 personnes en Corée du Sud refusait toute création de syndicat. Le procès pour corruption du vice-président et petit-fils du fondateur de l’entreprise, Lee Jae-yong, a changé la donne.

Le syndicat revendique actuellement représenter 20 % des salariés de l’entreprise, soit 28 000 personnes. Il y a un an, ce chiffre était de 9 % (soit environ 10 000 travailleurs à l’époque), selon RTL.be, alors qu’il menaçait déjà d’organiser une grève.

☕️ La vidéosurveillance algorithmique sera aussi expérimentée à Roland Garros

27 mai 2024 à 08:16

Après avoir testé la vidéosurveillance algorithmique lors des concerts de Taylor Swift, la RATP utilise de nouveau ce dispositif encadré par la loi « Jeux Olympiques » dans le cadre de Roland Garros.

Un arrêté de la préfecture daté du vendredi 24 mai (pdf) a été repéré par le bot Mastodon « Attrap’Surveillance » de la Quadrature du Net.

Celui-ci prévoit l’autorisation donnée à la RATP de mettre en œuvre l’outil de traitement algorithmique dénommé « Cityvision » développé par la société Wintics entre le 26 mai, 8h et le 10 juin, 8h « à l’occasion du tournoi international de tennis de Roland Garros ».

Les stations concernées sont Boulogne Jean-Jaurès, Porte d’Auteuil, Michel-Ange Molitor, Michel-Ange Auteuil, Porte de Saint-Cloud, Odéon, Franklin Roosevelt, Havre-Caumartin et République.

Un second arrêté autorise la SNCF à connecter 33 caméras des gares de Javel et du Pont de Garigliano au système « Cityvision » de Wintics.

Le dispositif est testé pour détecter les intrusions en zone interdite au public ou sensible, les mouvements de foule dans des zones à risques, les densités anormalement élevées et la présence d’un bagage abandonnée.

Contrairement à la SNCF, qui la mentionne déjà sur sa page consacrée à l’« Expérimentation vidéo augmentée JOP 2024 », la RATP n’a pas encore signalé cette expérimentation sur sa page de Politique générale de confidentialité, ce qu’elle avait pourtant fait pour l’expérimentation lors des concerts de Taylor Swift.

☕️ La vidéosurveillance algorithmique sera aussi expérimentée à Roland Garros

27 mai 2024 à 08:16

Après avoir testé la vidéosurveillance algorithmique lors des concerts de Taylor Swift, la RATP utilise de nouveau ce dispositif encadré par la loi « Jeux Olympiques » dans le cadre de Roland Garros.

Un arrêté de la préfecture daté du vendredi 24 mai (pdf) a été repéré par le bot Mastodon « Attrap’Surveillance » de la Quadrature du Net.

Celui-ci prévoit l’autorisation donnée à la RATP de mettre en œuvre l’outil de traitement algorithmique dénommé « Cityvision » développé par la société Wintics entre le 26 mai, 8h et le 10 juin, 8h « à l’occasion du tournoi international de tennis de Roland Garros ».

Les stations concernées sont Boulogne Jean-Jaurès, Porte d’Auteuil, Michel-Ange Molitor, Michel-Ange Auteuil, Porte de Saint-Cloud, Odéon, Franklin Roosevelt, Havre-Caumartin et République.

Un second arrêté autorise la SNCF à connecter 33 caméras des gares de Javel et du Pont de Garigliano au système « Cityvision » de Wintics.

Le dispositif est testé pour détecter les intrusions en zone interdite au public ou sensible, les mouvements de foule dans des zones à risques, les densités anormalement élevées et la présence d’un bagage abandonnée.

Contrairement à la SNCF, qui la mentionne déjà sur sa page consacrée à l’« Expérimentation vidéo augmentée JOP 2024 », la RATP n’a pas encore signalé cette expérimentation sur sa page de Politique générale de confidentialité, ce qu’elle avait pourtant fait pour l’expérimentation lors des concerts de Taylor Swift.

Google se tourne vers l’IA et Bing plante, la recherche sur le web vacille

27 mai 2024 à 06:25
IA plus de moteur

Ces dernières semaines, Google a modifié la page de résultats par défaut de Google Search pour afficher un texte généré par IA plutôt que les résultats de son moteur de recherche. Et, hier, Bing a subi des déboires et ne répondait plus. En cascade, Duckduckgo, Qwant et d’autres restaient aussi en carafe, montrant leur dépendance au moteur de Microsoft.

Mise à jour à 12:00 : modification de l’article sur l’affichage des « extraits optimisés » qui ne sont pas générés par un modèle de langage.

Comme l’avait annoncé Sundar Pichai lors de la conférence I/O, Google a donné les clés de son moteur de recherche à l’IA générative. Comment ? En affichant en premier lieu et par défaut sur sa page de résultats, un texte généré par un de ses grands modèles de langage Gemini, plutôt que la liste des résultats ordonnée par son algorithme PageRank.

Le texte n’apparait pas sur toutes les recherches et doit être affiché, selon la présentation de Google, lorsque la requête n’est pas simplissime. Concrètement, ça dépend.

Reprises de Wikipédia…


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Numérique en Afrique : « Nos conditions de travail s’apparentent à de l’esclavage moderne »

23 mai 2024 à 14:24
Dj@ngo Unch@ined

97 travailleurs Kényans cosignent une lettre ouverte demandant au président des États-Unis, Joe Biden, de mettre fin « aux conditions de travail qui s’apparentent à de l’esclavage moderne » dans l’industrie du numérique.

Alors que le président Kényan William Ruto entame la première visite officielle d’un leader africain aux États-Unis en plus de 15 ans, des travailleurs kényans du secteur du numérique en profitent pour interpeler le président américain.

Ils travaillent tous pour des entreprises états-uniennes comme Facebook, ScaleAI ou OpenAI via des sous-traitants, soit en tant que modérateurs de contenus, soit en étiquetant des données pour l’entrainement des modèles d’intelligence artificielle.

La Maison-Blanche explique dans son communiqué de presse annonçant l’accueil de William Ruto, que « les dirigeants discuteront des moyens de renforcer notre coopération dans des domaines tels que les relations entre les peuples, le commerce et l’investissement, l’innovation technologique, le climat et l’énergie propre, la santé et la sécurité ».

Cette centaine de travailleurs expliquent que ce sont « des questions dans lesquelles notre force de travail est directement et personnellement concernée ».

Exploitation et maltraitance systématique

Dans cette lettre ouverte publiée sur le site de l’ONG britannique Foxglove, qui « lutte pour rendre la technologie équitable pour tous », ils dénoncent le fait que « les grandes entreprises américaines du secteur des technologies maltraitent et exploitent systématiquement les travailleurs africains ».

Ils précisent qu’ « au Kenya, ces entreprises américaines sapent le droit du travail local, le système judiciaire du pays et violent les normes internationales du travail ». « Nos conditions de travail s’apparentent à de l’esclavage moderne » dénoncent-ils.

Il y a un an, certains travailleurs de ce secteur au Kenya ont créé un syndicat, peu de temps après la publication d’une enquête du magazine américain Time qui révélait que les travailleurs kényans ayant entraîné ChatGPT pour qu’il soit plus éthique avaient été payés moins de 2 dollars de l’heure.

Cela fait suite aussi à la plainte d’un groupe de ces travailleurs contre Meta et son sous-traitant Sama.

Pour ces travailleurs, « toute discussion commerciale entre les États-Unis et le Kenya doit tenir compte de ces abus et garantir la protection des droits de tous les travailleurs ».

Demande d’un engagement du gouvernement Biden

Ils demandent donc au gouvernement de Joe Biden de s’engager à travailler avec les employés des grandes entreprises de la Tech au Kenya. Ils réclament que le gouvernement américain veille à ce que les partenariats à venir comprennent des dispositions pour que les entreprises de son pays se conforment aux réglementations internationales du travail et qu’il empêche le démantèlement des syndicats.

Ces travailleurs kényans revendiquent aussi la possibilité que « les entreprises américaines du secteur des grandes technologies puissent être tenues responsables devant les tribunaux américains pour leurs opérations illégales à l’étranger, en particulier en ce qui concerne les droits humains et les violations du droit du travail ».

Enfin, ils demandent à ce que le « respect fondamental de la constitution et de la souveraineté du Kenya » soit au cœur des négociations entre les deux pays.

« Nous ne devrions pas avoir à sacrifier notre santé, notre bien-être et, malheureusement, dans certains cas, notre vie pour les marges bénéficiaires de Big Tech. Nous vous demandons instamment de prendre des mesures et d’examiner attentivement nos demandes dans le cadre de ces discussions et au-delà », concluent-ils.

Observer des meurtres et des viols, pour moins de 2 $ de l’heure

Kauna Malgwi, du comité directeur de l’Union africaine des modérateurs de contenu, a déclaré : « Tout le monde veut voir plus d’emplois au Kenya – mais pas à n’importe quel prix. Tout ce que nous demandons, c’est un travail digne, équitablement rémunéré, sûr et sécurisé. »

« Notre travail consiste à observer des meurtres et des décapitations, des abus et des viols d’enfants, de la pornographie et de la bestialité, souvent plus de 8 heures par jour. Beaucoup d’entre nous font ce travail pour moins de 2 dollars de l’heure.

Ces entreprises ne nous fournissent pas les soins de santé mentale nécessaires pour assurer notre sécurité. En conséquence, beaucoup d’entre nous vivent et travaillent avec le trouble de stress post-traumatique (SSPT). Nous n’avons pas été prévenus des horreurs des travaux avant de commencer. »

Leur lettre ouverte a également été approuvée par le Dr Willy Mutunga, ancien juge en chef du Kenya et éminent défenseur des droits de l’homme, précise l’ONG.

Numérique en Afrique : « Nos conditions de travail s’apparentent à de l’esclavage moderne »

23 mai 2024 à 14:24
Dj@ngo Unch@ined

97 travailleurs Kényans cosignent une lettre ouverte demandant au président des États-Unis, Joe Biden, de mettre fin « aux conditions de travail qui s’apparentent à de l’esclavage moderne » dans l’industrie du numérique.

Alors que le président Kényan William Ruto entame la première visite officielle d’un leader africain aux États-Unis en plus de 15 ans, des travailleurs kényans du secteur du numérique en profitent pour interpeler le président américain.

Ils travaillent tous pour des entreprises états-uniennes comme Facebook, ScaleAI ou OpenAI via des sous-traitants, soit en tant que modérateurs de contenus, soit en étiquetant des données pour l’entrainement des modèles d’intelligence artificielle.

La Maison-Blanche explique dans son communiqué de presse annonçant l’accueil de William Ruto, que « les dirigeants discuteront des moyens de renforcer notre coopération dans des domaines tels que les relations entre les peuples, le commerce et l’investissement, l’innovation technologique, le climat et l’énergie propre, la santé et la sécurité ».

Cette centaine de travailleurs expliquent que ce sont « des questions dans lesquelles notre force de travail est directement et personnellement concernée ».

Exploitation et maltraitance systématique

Dans cette lettre ouverte publiée sur le site de l’ONG britannique Foxglove, qui « lutte pour rendre la technologie équitable pour tous », ils dénoncent le fait que « les grandes entreprises américaines du secteur des technologies maltraitent et exploitent systématiquement les travailleurs africains ».

Ils précisent qu’ « au Kenya, ces entreprises américaines sapent le droit du travail local, le système judiciaire du pays et violent les normes internationales du travail ». « Nos conditions de travail s’apparentent à de l’esclavage moderne » dénoncent-ils.

Il y a un an, certains travailleurs de ce secteur au Kenya ont créé un syndicat, peu de temps après la publication d’une enquête du magazine américain Time qui révélait que les travailleurs kényans ayant entraîné ChatGPT pour qu’il soit plus éthique avaient été payés moins de 2 dollars de l’heure.

Cela fait suite aussi à la plainte d’un groupe de ces travailleurs contre Meta et son sous-traitant Sama.

Pour ces travailleurs, « toute discussion commerciale entre les États-Unis et le Kenya doit tenir compte de ces abus et garantir la protection des droits de tous les travailleurs ».

Demande d’un engagement du gouvernement Biden

Ils demandent donc au gouvernement de Joe Biden de s’engager à travailler avec les employés des grandes entreprises de la Tech au Kenya. Ils réclament que le gouvernement américain veille à ce que les partenariats à venir comprennent des dispositions pour que les entreprises de son pays se conforment aux réglementations internationales du travail et qu’il empêche le démantèlement des syndicats.

Ces travailleurs kényans revendiquent aussi la possibilité que « les entreprises américaines du secteur des grandes technologies puissent être tenues responsables devant les tribunaux américains pour leurs opérations illégales à l’étranger, en particulier en ce qui concerne les droits humains et les violations du droit du travail ».

Enfin, ils demandent à ce que le « respect fondamental de la constitution et de la souveraineté du Kenya » soit au cœur des négociations entre les deux pays.

« Nous ne devrions pas avoir à sacrifier notre santé, notre bien-être et, malheureusement, dans certains cas, notre vie pour les marges bénéficiaires de Big Tech. Nous vous demandons instamment de prendre des mesures et d’examiner attentivement nos demandes dans le cadre de ces discussions et au-delà », concluent-ils.

Observer des meurtres et des viols, pour moins de 2 $ de l’heure

Kauna Malgwi, du comité directeur de l’Union africaine des modérateurs de contenu, a déclaré : « Tout le monde veut voir plus d’emplois au Kenya – mais pas à n’importe quel prix. Tout ce que nous demandons, c’est un travail digne, équitablement rémunéré, sûr et sécurisé. »

« Notre travail consiste à observer des meurtres et des décapitations, des abus et des viols d’enfants, de la pornographie et de la bestialité, souvent plus de 8 heures par jour. Beaucoup d’entre nous font ce travail pour moins de 2 dollars de l’heure.

Ces entreprises ne nous fournissent pas les soins de santé mentale nécessaires pour assurer notre sécurité. En conséquence, beaucoup d’entre nous vivent et travaillent avec le trouble de stress post-traumatique (SSPT). Nous n’avons pas été prévenus des horreurs des travaux avant de commencer. »

Leur lettre ouverte a également été approuvée par le Dr Willy Mutunga, ancien juge en chef du Kenya et éminent défenseur des droits de l’homme, précise l’ONG.

☕️ L’astronaute Sophie Adenot sélectionnée par l’ESA pour s’envoler vers l’ISS

23 mai 2024 à 06:39

L’ESA a annoncé que l’astronaute française Sophie Adenot fera partie du prochain équipage qui partira vers l’ISS. Lancement prévu en 2026. À ses côtés, l’astronaute belge Raphaël Liégeois.

Pour le directeur général de l’agence spatiale européenne, Josef Aschbacher, « l’affectation de Sophie et Raphaël en tant que prochains astronautes de l’ESA volant vers la Station spatiale internationale marque une étape importante pour l’ESA et sa promotion d’astronautes de 2022. C’est un résultat tangible de notre engagement à maintenir une forte présence européenne dans un contexte international ».

En effet, Sophie Adenot et Raphaël Liégeois font partie de la promotion d’astronautes de l’ESA 2022.

Josef Aschbacher ajoute qu’ « alors que les activités d’exploration se développent à un rythme sans précédent, l’envoi dans l’espace de deux astronautes de l’ESA récemment diplômés constitue une étape cruciale dans la préservation du savoir-faire européen, garantissant la participation à long terme de l’Europe aux programmes en cours tels qu’Artemis, ainsi qu’à tout projet futur impliquant des vols spatiaux habités et l’exploration ».

Sophie Adenot a réagi en se déclarant « honorée et fière de représenter bientôt l’Europe et la France dans l’espace et de contribuer à la recherche scientifique depuis ce laboratoire orbital ».

« Il y aura des défis à relever, des qualifications à passer, des procédures à apprendre. Cela va être intense et j’ai une énergie folle ! », s’est-elle exclamée.

☕️ L’astronaute Sophie Adenot sélectionnée par l’ESA pour s’envoler vers l’ISS

23 mai 2024 à 06:39

L’ESA a annoncé que l’astronaute française Sophie Adenot fera partie du prochain équipage qui partira vers l’ISS. Lancement prévu en 2026. À ses côtés, l’astronaute belge Raphaël Liégeois.

Pour le directeur général de l’agence spatiale européenne, Josef Aschbacher, « l’affectation de Sophie et Raphaël en tant que prochains astronautes de l’ESA volant vers la Station spatiale internationale marque une étape importante pour l’ESA et sa promotion d’astronautes de 2022. C’est un résultat tangible de notre engagement à maintenir une forte présence européenne dans un contexte international ».

En effet, Sophie Adenot et Raphaël Liégeois font partie de la promotion d’astronautes de l’ESA 2022.

Josef Aschbacher ajoute qu’ « alors que les activités d’exploration se développent à un rythme sans précédent, l’envoi dans l’espace de deux astronautes de l’ESA récemment diplômés constitue une étape cruciale dans la préservation du savoir-faire européen, garantissant la participation à long terme de l’Europe aux programmes en cours tels qu’Artemis, ainsi qu’à tout projet futur impliquant des vols spatiaux habités et l’exploration ».

Sophie Adenot a réagi en se déclarant « honorée et fière de représenter bientôt l’Europe et la France dans l’espace et de contribuer à la recherche scientifique depuis ce laboratoire orbital ».

« Il y aura des défis à relever, des qualifications à passer, des procédures à apprendre. Cela va être intense et j’ai une énergie folle ! », s’est-elle exclamée.

Emmanuel Macron veut « l’IA partout et pour tous »

22 mai 2024 à 13:52
Artificiellement vôtre

Alors que le sommet « Choose France » s’achève et que Vivatech s’ouvre, Emmanuel Macron a affiché une nouvelle fois sa volonté de « faire de la France un leader incontesté de l’IA » et diffuser « l’IA partout et pour tous ». Quitte à contredire les discours du gouvernement sur les écrans et les réductions de budget dans l’enseignement supérieur et la recherche annoncées en début d’année.

Entre les deux événements qui intéressent le milieu de la tech en France et juste avant de décoller pour la Nouvelle-Calédonie, Emmanuel Macron a annoncé vouloir « faire de la France un leader incontesté de l’IA ». Il donne cinq priorités pour y arriver : la formation et la recherche, les infrastructures, le financement, l’usage par tous et la gouvernance.

Recherche et formation


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌
❌