Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ Lutte contre la désinformation : des républicains attaquent le Stanford Internet Observatory

Le Stanford Internet Observatory est peu connu, mais très actif dans la recherche sur les problématiques de désinformation et mésinformation sur les réseaux sociaux, en particulier sur les questions de menace contre les élections et le débat démocratique, les effets de l’intelligence artificielle et les logiques de diffusion de contenus pédocriminels.

Mais l’entité est sur le point de disparaître, rapporte Platformer, alors que le camp républicain multiplie les actions pour discréditer la recherche sur l’évolution des discours politiques et les campagnes d’influence.

Très concrètement, le Stanford Internet Observatory a été poursuivi par plusieurs plaintes dans lesquelles des groupes conservateurs accusaient les chercheurs du centre de collusion avec le gouvernement fédéral, supposément pour s’attaquer à la liberté d’expression.

À force, des membres éminents du centre s’en vont : son fondateur Alex Stamos a quitté son poste en novembre, tandis que la directrice de recherche Renee DiResta est parti la semaine dernière, alors que son contrat n’était pas renouvelé. 
D’autres employés se seraient entendus suggérer de chercher des emplois ailleurs. 


Si Stanford réfute toute disparition du centre de recherche, Platformer suggère que l’université ait fini par trouver son Internet Observatory plus coûteux que bénéfique.

Le Journal of Online Trust and Safety lancé par l’Observatoire, ainsi que sa Trust and Safety Research Conference devraient être maintenus, tout comme son Trust & Safety Teaching Consortium. Cela dit, le Stanford Internet Observatory ne réalisera aucune recherche sur les élections de 2024, ni sur de prochains rendez-vous électoraux.

L’Observatoire vient de son côté de préciser qu’il « continue d’employer des chercheurs et des universitaires, des analystes politiques, du personnel administratif et de nombreux étudiants » afin de poursuivre son travail sur les questions de recherche psychologique et médiatique associées à la désinformation autour des élections de 2024 :

« Stanford n’a pas fermé ou démantelé SIO à la suite de pressions extérieures. Le SIO est cependant confronté à des défis de financement, car ses subventions de démarrage seront bientôt épuisées. En conséquence, SIO continue de rechercher activement du soutien pour ses programmes de recherche et d’enseignement sous la nouvelle direction. »

☕️ Lutte contre la désinformation : des républicains attaquent le Stanford Internet Observatory

Le Stanford Internet Observatory est peu connu, mais très actif dans la recherche sur les problématiques de désinformation et mésinformation sur les réseaux sociaux, en particulier sur les questions de menace contre les élections et le débat démocratique, les effets de l’intelligence artificielle et les logiques de diffusion de contenus pédocriminels.

Mais l’entité est sur le point de disparaître, rapporte Platformer, alors que le camp républicain multiplie les actions pour discréditer la recherche sur l’évolution des discours politiques et les campagnes d’influence.

Très concrètement, le Stanford Internet Observatory a été poursuivi par plusieurs plaintes dans lesquelles des groupes conservateurs accusaient les chercheurs du centre de collusion avec le gouvernement fédéral, supposément pour s’attaquer à la liberté d’expression.

À force, des membres éminents du centre s’en vont : son fondateur Alex Stamos a quitté son poste en novembre, tandis que la directrice de recherche Renee DiResta est parti la semaine dernière, alors que son contrat n’était pas renouvelé. 
D’autres employés se seraient entendus suggérer de chercher des emplois ailleurs. 


Si Stanford réfute toute disparition du centre de recherche, Platformer suggère que l’université ait fini par trouver son Internet Observatory plus coûteux que bénéfique.

Le Journal of Online Trust and Safety lancé par l’Observatoire, ainsi que sa Trust and Safety Research Conference devraient être maintenus, tout comme son Trust & Safety Teaching Consortium. Cela dit, le Stanford Internet Observatory ne réalisera aucune recherche sur les élections de 2024, ni sur de prochains rendez-vous électoraux.

L’Observatoire vient de son côté de préciser qu’il « continue d’employer des chercheurs et des universitaires, des analystes politiques, du personnel administratif et de nombreux étudiants » afin de poursuivre son travail sur les questions de recherche psychologique et médiatique associées à la désinformation autour des élections de 2024 :

« Stanford n’a pas fermé ou démantelé SIO à la suite de pressions extérieures. Le SIO est cependant confronté à des défis de financement, car ses subventions de démarrage seront bientôt épuisées. En conséquence, SIO continue de rechercher activement du soutien pour ses programmes de recherche et d’enseignement sous la nouvelle direction. »

Un ingénieur alerte contre des pratiques sexistes, Meta cherche à le faire démissionner

Représailles sur allié

Spécialiste de l’intelligence artificielle, l’ingénieur Jeffrey Smith porte plainte contre Meta pour son traitement différencié des femmes et des hommes, ainsi que pour les représailles qu’il aurait subies après avoir dénoncé ces problématiques. Un enjeu généralisé dans l’industrie technologique.

Meta est poursuivi en justice pour sa gestion des comportements sexistes dans le cadre du travail. Selon la plainte obtenue par Ars Technica, l’entreprise est accusée d’embaucher et de promouvoir régulièrement des hommes moins qualifiés que des femmes candidates aux postes concernés.

La plainte a été déposée à New-York par Jeffrey Smith, un ingénieur employé par Meta depuis 2018. Au sein de l’entreprise, Jeffrey Smith a occupé divers postes de management dans les laboratoires de l’entreprise dédiés à l’intelligence artificielle et à la réalité virtuelle et augmentée : AI Platform/PyTorch, FAIR (Fundamental AI Research) et Reality Labs.

Il indique avoir reçu de très bonnes évaluations tout au long de ses six années de travail chez Meta et s’être trouvé sur le point de recevoir une nouvelle promotion lorsqu’il a commencé à s’inquiéter ouvertement des problématiques de misogynie sur son lieu de travail. Il aurait alors reçu sa première évaluation négative, bientôt suivie de la suggestion de démissionner.

Traitements différenciés récurrents


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Deepfakes pornographiques : des spécialistes de l’IA sensibilisent la jeunesse

Que faire face aux deepfakes pornographiques ?

Dans une tribune pour Teen Vogue, magazine états-unien dédié aux adolescentes, les spécialistes de l’intelligence artificielle Margaret Mitchell, Sasha Luccioni, Emily Witko et Bruna Trevelin, toutes employées par Hugging Face, prennent la plume pour s’adresser directement aux premiers concernés : les jeunes.

Outre expliquer les fondements technologiques qui ont permis la prolifération de ce type d’images trafiquées, elles proposent divers types de réaction : le partage d’information, d’abord.

Auprès des adultes, il s’agit de signaler l’existence de ces outils, pour que ceux-ci aident les plus jeunes à discuter et comprendre les notions de consentement et de responsabilité lors de la création d’image à caractère sexuel.

Entre jeunes aussi, les expertes appellent à discuter et faire connaître la problématique. « L’un des moyens les plus efficaces de perturber la normalisation des technologies nuisibles est de les qualifier pour ce qu’elles sont : inacceptables », écrivent-elles.

Et de partager ensuite des outils concrets relatifs à la protection de la vie privée : si vous êtes visé ou visée par un deepfake pornographique, demandez à l’auteur de le supprimer, utilisez les outils de signalement des plateformes, demandez aux moteurs de recherche de les supprimer des résultats.

Les autrices signalent par ailleurs que l’intelligence artificielle peut aussi servir à se protéger contre ce type de publication problématique.

Citant les outils Glaze et Photoguard, elles sensibilisent les lectrices et lecteurs adolescents à la technique de l’empoisonnement de modèles génératifs.

☕️ Deepfakes pornographiques : des spécialistes de l’IA sensibilisent la jeunesse

Que faire face aux deepfakes pornographiques ?

Dans une tribune pour Teen Vogue, magazine états-unien dédié aux adolescentes, les spécialistes de l’intelligence artificielle Margaret Mitchell, Sasha Luccioni, Emily Witko et Bruna Trevelin, toutes employées par Hugging Face, prennent la plume pour s’adresser directement aux premiers concernés : les jeunes.

Outre expliquer les fondements technologiques qui ont permis la prolifération de ce type d’images trafiquées, elles proposent divers types de réaction : le partage d’information, d’abord.

Auprès des adultes, il s’agit de signaler l’existence de ces outils, pour que ceux-ci aident les plus jeunes à discuter et comprendre les notions de consentement et de responsabilité lors de la création d’image à caractère sexuel.

Entre jeunes aussi, les expertes appellent à discuter et faire connaître la problématique. « L’un des moyens les plus efficaces de perturber la normalisation des technologies nuisibles est de les qualifier pour ce qu’elles sont : inacceptables », écrivent-elles.

Et de partager ensuite des outils concrets relatifs à la protection de la vie privée : si vous êtes visé ou visée par un deepfake pornographique, demandez à l’auteur de le supprimer, utilisez les outils de signalement des plateformes, demandez aux moteurs de recherche de les supprimer des résultats.

Les autrices signalent par ailleurs que l’intelligence artificielle peut aussi servir à se protéger contre ce type de publication problématique.

Citant les outils Glaze et Photoguard, elles sensibilisent les lectrices et lecteurs adolescents à la technique de l’empoisonnement de modèles génératifs.

Une attaque DDoS aurait visé une dizaine de sites gouvernementaux français

Hum, nous ne parvenons pas à trouver ce site

Une quinzaine de sites gouvernementaux auraient été touchés par une attaque DDoS à partir du 15 juin.

Quatorze sites du gouvernement ont été mis hors ligne ce week-end à la suite d’une attaque par déni de service distribuée (DDoS) lancé le 15 juin, d’après le chercheur en sécurité Mr SaxX. Parmi la liste des sites touchés, celui du ministère de la Culture ou celui dédié à la fonction publique sont revenus à la normale.

En revanche, certaines adresses renvoyant sur des sites de la délégation française à l’OCDE, du ministère du Travail et du ministère de l’Europe et des Affaires Étrangères restaient inaccessibles ce 18 juin à 15h30.

Attaque DDoS sur étagère

Pour rappel, si elle vise à mettre hors ligne pendant un temps précis un site web, une attaque DDoS a peu d’effet au long terme. Elle consiste en effet à envoyer des requêtes en masse au site web visé, de sorte à en perturber l’accès. Une fois l’envoi stoppé, le site web peut recommencer à fonctionner. 



D’après Mr SaxX, l’attaque aurait été perpétrée par un groupe nationaliste d’hacktivistes pro-russe nommé « NoName057(16) », en opération depuis mars 2022. Ce collectif gère la « boîte à outils » DDoSia, qui facilite l’orchestration d’attaques DDoS.

Organisé via Telegram, le canal principal de NoName057(16) comptait 45 000 abonnés en juin 2023 et son canal dédié à DDoSia 10 000 utilisateurs à la même époque, selon le suivi de l’entreprise de cybersécurité Sekoia. À l’époque, selon les travaux d’Avast, DDoSia avait déjà été utilisée pour attaquer des sites gouvernementaux en Pologne, en Lettonie, en Lituanie et en Ukraine.

Le groupe motive les attaquants en les rémunérant pour leurs actes et leur utilisation de DDoSia, détaille Zataz, en fonction du nombre d’attaques « réussies », c’est-à-dire de suspensions effectives de sites web.

Successions d’attaques

On l’aura compris, NoName057(16) est très actif depuis deux ans, un peu partout sur le sol européen. Il cherche aussi à augmenter sa notoriété, se faisant passer pour partie prenante de cyberattaques imaginaires, comme celle qui aurait supposément attaqué des milliers de brosses à dents connectées suisses, débunkée depuis.

Il y a un peu plus d’un an, le groupe s’en était aussi pris au site web de l’Assemblée nationale.

Outre ce groupe spécifique, les sites de plusieurs ministères se sont retrouvés temporairement hors d’atteinte en mars à la suite d’une attaque du groupe Anonymous Sudan, lui aussi pro-russe.

Que l’on pense à la période d’instabilité politique provoquée par la dissolution de l’Assemblée Nationale ou à la tenue prochaine des Jeux Olympiques, le contexte laisse présager de nouvelles attaques contre les institutions françaises. Cyberattaques qui se doublent d’opérations de désinformation variées.

Une attaque DDoS aurait visé une dizaine de sites gouvernementaux français

Hum, nous ne parvenons pas à trouver ce site

Une quinzaine de sites gouvernementaux auraient été touchés par une attaque DDoS à partir du 15 juin.

Quatorze sites du gouvernement ont été mis hors ligne ce week-end à la suite d’une attaque par déni de service distribuée (DDoS) lancé le 15 juin, d’après le chercheur en sécurité Mr SaxX. Parmi la liste des sites touchés, celui du ministère de la Culture ou celui dédié à la fonction publique sont revenus à la normale.

En revanche, certaines adresses renvoyant sur des sites de la délégation française à l’OCDE, du ministère du Travail et du ministère de l’Europe et des Affaires Étrangères restaient inaccessibles ce 18 juin à 15h30.

Attaque DDoS sur étagère

Pour rappel, si elle vise à mettre hors ligne pendant un temps précis un site web, une attaque DDoS a peu d’effet au long terme. Elle consiste en effet à envoyer des requêtes en masse au site web visé, de sorte à en perturber l’accès. Une fois l’envoi stoppé, le site web peut recommencer à fonctionner. 



D’après Mr SaxX, l’attaque aurait été perpétrée par un groupe nationaliste d’hacktivistes pro-russe nommé « NoName057(16) », en opération depuis mars 2022. Ce collectif gère la « boîte à outils » DDoSia, qui facilite l’orchestration d’attaques DDoS.

Organisé via Telegram, le canal principal de NoName057(16) comptait 45 000 abonnés en juin 2023 et son canal dédié à DDoSia 10 000 utilisateurs à la même époque, selon le suivi de l’entreprise de cybersécurité Sekoia. À l’époque, selon les travaux d’Avast, DDoSia avait déjà été utilisée pour attaquer des sites gouvernementaux en Pologne, en Lettonie, en Lituanie et en Ukraine.

Le groupe motive les attaquants en les rémunérant pour leurs actes et leur utilisation de DDoSia, détaille Zataz, en fonction du nombre d’attaques « réussies », c’est-à-dire de suspensions effectives de sites web.

Successions d’attaques

On l’aura compris, NoName057(16) est très actif depuis deux ans, un peu partout sur le sol européen. Il cherche aussi à augmenter sa notoriété, se faisant passer pour partie prenante de cyberattaques imaginaires, comme celle qui aurait supposément attaqué des milliers de brosses à dents connectées suisses, débunkée depuis.

Il y a un peu plus d’un an, le groupe s’en était aussi pris au site web de l’Assemblée nationale.

Outre ce groupe spécifique, les sites de plusieurs ministères se sont retrouvés temporairement hors d’atteinte en mars à la suite d’une attaque du groupe Anonymous Sudan, lui aussi pro-russe.

Que l’on pense à la période d’instabilité politique provoquée par la dissolution de l’Assemblée Nationale ou à la tenue prochaine des Jeux Olympiques, le contexte laisse présager de nouvelles attaques contre les institutions françaises. Cyberattaques qui se doublent d’opérations de désinformation variées.

☕️ 200 personnalités d’internet appellent à voter Nouveau Front Populaire

Réunis sous la bannière « le Stream Populaire », 200 créatrices et créateurs de l’internet français appellent leur public à voter en faveur du Nouveau Front Populaire.

« L’heure n’est plus à la neutralité », écrivent-ils. « L’extrême-droite n’était pas, n’est pas et ne sera jamais la solution. »

Et de préciser qu’en visant les minorités, le RN cible « une partie d’entre nous, et les personnes qui nous regardent, nous suivent et nous écoutent ». S’attaquer à ces populations, « c’est aussi la première étape avant de s’en prendre aux droits de toutes et tous ».

Citant les besoins de « répondre à l’urgence écologique », « sauvegarder les services publics » et « améliorer le quotidien des travailleurs et travailleuses », ils appellent expressément à voter pour le Nouveau Front Populaire.

Parmi les signataires, le vidéaste et humoriste Antoine Daniel, le chroniqueur et spécialiste de jeux FibreTigre, la vulgarisatrice d’histoire Manon Bril et l’animateur tech et mode Lâm Hua (avec lequel nous collaborons quelquefois) se retrouvent aux côtés de figures plus classiques de l’internet de gauche, comme les chroniqueurs Usul, Ostpolitik ou la gameuse féministe Nat’Ali.

Avec eux, divers collectifs et associations, dont les médias Origami et Canard PC ou les collectifs Afrogameuses et Persos Cachés.

Quelques jours avant la publication de leur tribune, le 2ᵉ youtubeur le plus suivi de France, Squeezie, était sorti de sa réserve habituelle sur les questions politiques. Dans une publication Instagram, il appelait son public à « s’opposer fermement à une idéologie qui prône la haine et les discriminations » et à aller voter en conséquence.

☕️ 200 personnalités d’internet appellent à voter Nouveau Front Populaire

Réunis sous la bannière « le Stream Populaire », 200 créatrices et créateurs de l’internet français appellent leur public à voter en faveur du Nouveau Front Populaire.

« L’heure n’est plus à la neutralité », écrivent-ils. « L’extrême-droite n’était pas, n’est pas et ne sera jamais la solution. »

Et de préciser qu’en visant les minorités, le RN cible « une partie d’entre nous, et les personnes qui nous regardent, nous suivent et nous écoutent ». S’attaquer à ces populations, « c’est aussi la première étape avant de s’en prendre aux droits de toutes et tous ».

Citant les besoins de « répondre à l’urgence écologique », « sauvegarder les services publics » et « améliorer le quotidien des travailleurs et travailleuses », ils appellent expressément à voter pour le Nouveau Front Populaire.

Parmi les signataires, le vidéaste et humoriste Antoine Daniel, le chroniqueur et spécialiste de jeux FibreTigre, la vulgarisatrice d’histoire Manon Bril et l’animateur tech et mode Lâm Hua (avec lequel nous collaborons quelquefois) se retrouvent aux côtés de figures plus classiques de l’internet de gauche, comme les chroniqueurs Usul, Ostpolitik ou la gameuse féministe Nat’Ali.

Avec eux, divers collectifs et associations, dont les médias Origami et Canard PC ou les collectifs Afrogameuses et Persos Cachés.

Quelques jours avant la publication de leur tribune, le 2ᵉ youtubeur le plus suivi de France, Squeezie, était sorti de sa réserve habituelle sur les questions politiques. Dans une publication Instagram, il appelait son public à « s’opposer fermement à une idéologie qui prône la haine et les discriminations » et à aller voter en conséquence.

☕️ Santé : aux États-Unis, Amazon emploie des contractuels non formés pour répondre à des patients

Début 2023, Amazon faisait l’acquisition de One Medical, un service qui combine offre de soins en présentiel et à distance.

Depuis, les nombreux patients âgés qui l’ont appelé ont été redirigés vers des call centers, où des employés non formés aux soins médicaux étaient chargés de leur répondre.

Selon les informations du Washington Post, ces derniers n’ont pas su relever l’urgence de certains symptômes dans plus d’une dizaine de cas, avec des conséquences graves pour la santé des patients.

L’enquête du média américain paraît alors que les alertes sur les conditions d’exercice de One Medical se multiplient, notamment sur la réduction de la durée des rendez-vous et le licenciement de certaines équipes.

Amazon déclare au Washington Post prendre les alertes au sérieux.

☕️ Santé : aux États-Unis, Amazon emploie des contractuels non formés pour répondre à des patients

Début 2023, Amazon faisait l’acquisition de One Medical, un service qui combine offre de soins en présentiel et à distance.

Depuis, les nombreux patients âgés qui l’ont appelé ont été redirigés vers des call centers, où des employés non formés aux soins médicaux étaient chargés de leur répondre.

Selon les informations du Washington Post, ces derniers n’ont pas su relever l’urgence de certains symptômes dans plus d’une dizaine de cas, avec des conséquences graves pour la santé des patients.

L’enquête du média américain paraît alors que les alertes sur les conditions d’exercice de One Medical se multiplient, notamment sur la réduction de la durée des rendez-vous et le licenciement de certaines équipes.

Amazon déclare au Washington Post prendre les alertes au sérieux.

Législatives : le numérique abordé par l’industrie, la souveraineté et les libertés numériques

Que dites-vous ?

Tour d’horizon des mesures numériques envisagées par les différentes forces politiques.

Les candidatures ont été déposées à la préfecture, les professions de foi sont parties en impression… Ce lundi 17 juin s’ouvrent les deux semaines de campagne pure. Le premier tour des élections législatives, lui, est prévu pour le 30 juin prochain.

En matière de numériques, quelles mesures prévoient les principales forces politiques en présence ? Comme souvent, la moisson de mesures spécifiques au domaine est maigre. Si Ensemble promet d’investir, le Rassemblement National ne formule rien de spécifique, mais a pris position à plusieurs reprises en faveur de la souveraineté numérique. Quant au Nouveau Front Populaire (alliance des principaux partis de gauche), il déclare s’engager en faveur des libertés numériques, et chercher à « réindustrialiser » la France, notamment sur des sujets technologiques.

Le Rassemblement National promeut la souveraineté numérique

Le Rassemblement National n’a pas publié de programme précis. Cela dit, les mesures qu’il proposait en amont des présidentielles de 2022 et diverses prises de parole permettent de dessiner sa position sur divers sujets numériques.

Comme il y a deux ans, le parti d’extrême-droite propose de supprimer l’impôt sur la fortune immobilière (IFI) pour créer à la place un impôt sur la fortune financière (IFF). Si à l’échelle mondiale (ou, au minimum, états-unienne), la taxation des plus grandes fortunes toucherait bon nombre de fortunes de l’industrie numérique, c’est moins le cas en France.

Soulignons tout de même, parmi la liste des plus grandes fortunes de l’Hexagone, la présence de Xavier Niel, patron d’Iliad (Free), instigateur de l’École 42 et de Station F, de la Famille Dassault qui détient notamment des parts dans Thales, ou encore d’Olivier Pomel et Alexis Lê-Quôc, cofondateurs de Datadog.

Autre mesure proposée par le député RN De la Somme Jean-Philippe Tanguy : modifier le financement de La Poste pour le tirer d’une augmentation de la taxe GAFAM. Une proposition qui a pu être détournée pour laisser entendre que le RN souhaitait confier les services de La Poste au géant Amazon. Globalement, le Rassemblement national prône une forte régulation des géants numériques étrangers et une recherche de souveraineté numérique, y compris dans le domaine du cloud.

En amont des européennes, Jordan Bardella s’est, cela dit, exprimé sur un ton quasiment technophile, critiquant notamment d’éventuels excès de régulation en matière d’intelligence artificielle.

Ensemble promet d’investir

Sur son site, Ensemble ne donne pas beaucoup plus d’information que la promesse, pour « l’avenir », d’« investissements dans la recherche et les technologies ». Les détails du programme sont plus nombreux dans les pages du Parisien et des journaux régionaux auxquels s’est adressé le Premier ministre Gabriel Attal.

Au-delà des promesses d’une mutuelle « à un euro par jour », des exonérations de frais de notaires pour les primo-accédants et d‘une promesse de « sursaut d’autorité » pour faire face à l’« addiction à la violence » que présenteraient certains jeunes, aucun détail ne filtre, cela dit, sur d’éventuelles mesures numériques.

Les politiques passées, notamment en faveur de l’investissement dans l’intelligence artificielle, laissent néanmoins présager d’une poursuite des efforts dans le domaine.

Sur l’utilisation intensive des « écrans », Renaissance a une position plutôt ambivalente, reprenant à son compte le rapport de la Commission sur les écrans et les enfants tout en prônant des solutions numériques comme l’outil MIA pour l’aide scolaire et l’approfondissement des cours.

Le Nouveau Front Populaire met l’accent sur les libertés numériques et la réindustrialisation

Le Nouveau Front Populaire a, lui, rendu public un programme de 24 pages (.pdf) et 150 mesures. Dès le préambule, il indique lutter « contre la multiplication des discours de haine et contre la prolifération des menaces et des violences qui abîment notre démocratie ». Il traduit cet axe par l’engagement de sa majorité et de ses parlementaires « en refusant la diffusion de fausses informations, la calomnie, le cyberharcèlement, et les incitations à la haine », en ligne comme hors ligne.

Sur les questions de droits numériques, le Nouveau Front Populaire prévoir d’« interdire la reconnaissance faciale » et d’évaluer les dispositifs de vidéosurveillance « de manière indépendante », « en lien avec la défenseure des droits ».

Parmi les mesures que le Nouveau Front Populaire prévoit de déployer dans le temps long, la « réindustrialisation » est citée à plusieurs reprises, tant dans le contexte de mesures pour la France que des sujets européens. Le NFP prévoit d’« engager un plan de reconstruction industrielle pour mettre fin à la dépendance de la France et de l’Europe dans les domaines stratégiques », parmi lesquels celui des semi-conducteurs et ceux des technologies de pointes, des voitures électriques, des panneaux solaires, « etc ».

Comme le Rassemblement National, le Nouveau Front Populaire est très critique envers les traités de libre-échange, auxquels il propose de « mettre fin ». Sans plus de précision, difficile de savoir dans quelle mesure cet axe concernera les accords dédiés au commerce des services numériques.

Un expert cyber en candidat libre

Signalons enfin un « électron libre » dans les candidatures : Baptiste Robert, hacker éthique et spécialiste en cybersécurité. Il se présente dans la 3ᵉ circonscription de Haute-Garonne, sans aucune étiquette politique, un choix assumé et revendiqué.

Sa motivation tient en deux phrases : « Les parlementaires manquent souvent de compétences numériques. Ils ne sont qu’une poignée à maîtriser le sujet. Il est urgent de combler ce retard. Je veux prendre le lead sur la question numérique à l’Assemblée nationale ». Sa proposition politique prend la forme d’une courte vidéo.

Désinformation : pendant les européennes, la réponse des plateformes a été faible

Déformation

Face à la désinformation politique, en amont des européennes, Facebook a eu la modération la plus efficace, YouTube la pire.

Pendant la campagne des élections européennes, Facebook aurait été le meilleur élève en matière de lutte contre la désinformation, YouTube le pire. Ce sont du moins ce qu’indiquent les résultats du travail de la Fundación Maldita, une plateforme journalistique espagnole dédiée à la lutte contre la désinformation.

Dans un rapport publié le 11 juin, Maldita constate que 45 % des contenus de désinformation n’ont été traités d’aucune manière visible par les réseaux sociaux. Cela dit, les disparités sont grandes d’une plateforme à l’autre et d’un sujet à l’autre : dans 57 % des cas, la désinformation concernant les sujets de migration n’a pas du tout été modérée. Une problématique d’autant plus flagrante du côté de TikTok et de YouTube, qui n’ont, chacun, réagi à aucune des publications fausses sur le sujet. De même, la désinformation s’attaquant à l’intégrité des élections n’a été modérée que dans 44 % des cas.

Effets positifs du fact-checking en contexte

Conflit entre Israël et le Hamas / Gaza, climat ou encore institutions européennes, en termes de sujet, Maldita a choisi les thématiques « les plus courantes liées aux élections » et celles « mentionnées dans le DSA comme particulièrement pertinent en termes de risques systémiques ».

En pratique, la Fondation indique avoir analysé le parcours de 1 321 publications de désinformation débunkées par le réseau européen de fact-checkers Elections24Check et publiées entre le 1er février et le 6 juin 2024 dans 26 pays européens.

Elections24Check est une initiative réunissant une quarantaine d’entités de fact-checking de l’Union européenne. Le but : constituer une base de données de fact-checking des discours politiques et de débunker les fausses informations détectées en ligne en contexte électoral.

Une association logique : Maldita se prononce ouvertement en faveur des logiques de modération affichant des fact-checking aux côtés des publications problématiques. De fait, de nombreuses études démontrent que l’ajout de fact-checking directement sur les publications erronées a un effet concret de réduction de leur diffusion.

Meta affiche plus de contexte, TikTok dépublie plus vite

Selon les travaux de la Fondation, chez Meta, Facebook a pris des actions contre 88 % des publications problématiques, contre 70 % pour Instagram. Dans la grande majorité (77%) des cas, du côté de Facebook, il s’agissait d’ajouter des étiquettes indiquant l’existence de fact-checking et de fournir un contexte supplémentaire, de manière relativement cohérente d’un sujet à l’autre.

Instagram, de son côté, a recouru aux étiquettes dans un peu plus d’un cas sur deux en général. La désinformation liée aux sujets climatiques n’a été modérée que dans un cas sur trois, tandis que l’intégralité des publications liées à la guerre en Ukraine se sont vues accolées des éléments de contexte.

Si TikTok n’a agi que contre 40 % des publications, la plateforme les a le plus souvent dépubliées (32 % des contenus en question). Sur les 8 % restant, le réseau social a affiché un panneau d’information avec un lien vers « des informations sur les élections européennes ». Aucune des publications liées aux questions de migration n’ont été modérées, tandis que l’intégralité de celles liées à l’intégrité des élections a été supprimée.

Modération de TikTok selon les sujets – Fundación Maldita

X et YouTube ont été les deux plateformes les moins réactives, X ne réagissant d’aucune manière dans 70 % des cas. Dans près de 15 % des cas, la principale action de modération a consisté à ajouter des Community Notes. Le réseau a aussi recouru, dans une plus faible mesure, à l’affichage d’étiquettes génériques (sur 5,5 % des contenus), à de la suspension de comptes (1,54 %) et à de la limitation de visibilité (0,2 % des contenus étudiés).

Le réseau social se démarque par ailleurs par la présence de 18 des 20 fausses informations les plus virales en amont des élections européennes. Toutes y avaient dépassé 1,5 million de vues.

Quant à YouTube, la plateforme n’a opéré aucune action visible sur 75 % des publications de désinformation recensées, dont certaines ont atteint les 500 000 vues. Lorsqu’action il y a eu, il s’est agi, dans 80 % des cas, d’ajouter « une étiquette générique » ou de signaler « la source de la vidéo comme média d’État, sans fournir d’explication sur le fait que le contenu était faux ».

Pour ces deux dernières plateformes, les publications les plus sujettes à modération sont celles liées à la guerre menée par Israël contre le Hamas à Gaza.

Thomas Dautieu (CNIL) : « le temps accordé aux entreprises sert au plus grand nombre »

Du service public au secret des affaires
Dessin d'un homme invisible, lunettes noires, avec une tapette RGPD

Thomas Dautieu, directeur de la conformité juridique de la CNIL, explique dans une interview accordée à Next pourquoi, et comment, l’autorité indépendante a lancé des dispositifs d’ « accompagnement renforcé » d’entreprises privées.

Peu avant la dissolution de l’Assemblée Nationale, un projet de loi de simplification de la vie économique était étudié au Sénat. Dans le texte, un amendement visait à réduire l’obligation de transparence de la CNIL en matière d’accompagnement des entreprises.

Si les travaux du Sénat sont suspendus jusqu’à l’élection d’une nouvelle Assemblée nationale (s’il ne siège pas, les travaux en commissions et les missions d’information, eux, continuent), Next a tout de même voulu en savoir plus sur la position de la Commission. Thomas Dautieu, son directeur de la conformité juridique, a répondu à nos questions.

> Dans quel cadre la CNIL accompagne-t-elle les entreprises ?

La CNIL est engagée depuis 20 ans dans une stratégie qui repose sur deux grands axes [la loi informatique et libertés de 1978 avait en effet profondément été mise à jour, revue et corrigée en 2004, NDLR]. Il y a l’aspect répressif, d’abord, pour lequel nous recevons entre 14 000 et 15 000 plaintes par an et prononçons environ 400 sanctions. Par ailleurs, au regard de l’évolution des textes, nous avons toujours considéré qu’on ne pouvait pas se contenter de délivrer des amendes, mais qu’il fallait expliquer le cadre de la protection des données aux administrations et aux entreprises.

Cet accompagnement se résume dans une charte de l’accompagnement des professionnels (.pdf). Un niveau relève du droit souple : ce sont des recommandations, des lignes directrices, des fiches, pour aider les responsables de traitement, à savoir ce qu’attend le régulateur sur tel ou tel point. Un deuxième niveau, plus individuel, s’adresse à des administrations ou des entreprises. Ça existe depuis longtemps, sous forme de permanence téléphonique ou de réponses à des demandes de conseil, dans la limite de nos moyens [la CNIL déclarait 288 emplois fin 2023, NDLR].

Depuis un an ou deux, on a décidé d’ouvrir de nouveaux canaux de discussions avec les responsables de traitement qui sont, d’une part, le développement de bacs à sable, sur une thématique précise, qui permet des échanges privilégiés entre les responsables de traitement sélectionnés et les acteurs de la CNIL.

Nous avons enfin lancé un programme d’accompagnement renforcé à destination des acteurs qui ne sont ni start-ups, ni gros groupes installés, plutôt entre les deux. Et cela permet aussi à la CNIL de les accompagner, sur toutes les questions qu’elles peuvent se poser, qu’elles soient techniques, juridiques, etc., pour qu’à la fin, l’entreprise considérée ait toutes les clés en main pour assurer une conformité aussi bonne que possible au RGPD.

> Sur la page de présentation de cet « accompagnement renforcé », la CNIL promet une garantie de confidentialité des échanges à l’égard des tiers (« par ex. : concurrents, clients ou salariés »). Dans quelle mesure celle-ci s’applique-t-elle ?


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Désinformation : pendant les européennes, la réponse des plateformes a été faible

Déformation

Face à la désinformation politique, en amont des européennes, Facebook a eu la modération la plus efficace, YouTube la pire.

Pendant la campagne des élections européennes, Facebook aurait été le meilleur élève en matière de lutte contre la désinformation, YouTube le pire. Ce sont du moins ce qu’indiquent les résultats du travail de la Fundación Maldita, une plateforme journalistique espagnole dédiée à la lutte contre la désinformation.

Dans un rapport publié le 11 juin, Maldita constate que 45 % des contenus de désinformation n’ont été traités d’aucune manière visible par les réseaux sociaux. Cela dit, les disparités sont grandes d’une plateforme à l’autre et d’un sujet à l’autre : dans 57 % des cas, la désinformation concernant les sujets de migration n’a pas du tout été modérée. Une problématique d’autant plus flagrante du côté de TikTok et de YouTube, qui n’ont, chacun, réagi à aucune des publications fausses sur le sujet. De même, la désinformation s’attaquant à l’intégrité des élections n’a été modérée que dans 44 % des cas.

Effets positifs du fact-checking en contexte

Conflit entre Israël et le Hamas / Gaza, climat ou encore institutions européennes, en termes de sujet, Maldita a choisi les thématiques « les plus courantes liées aux élections » et celles « mentionnées dans le DSA comme particulièrement pertinent en termes de risques systémiques ».

En pratique, la Fondation indique avoir analysé le parcours de 1 321 publications de désinformation débunkées par le réseau européen de fact-checkers Elections24Check et publiées entre le 1er février et le 6 juin 2024 dans 26 pays européens.

Elections24Check est une initiative réunissant une quarantaine d’entités de fact-checking de l’Union européenne. Le but : constituer une base de données de fact-checking des discours politiques et de débunker les fausses informations détectées en ligne en contexte électoral.

Une association logique : Maldita se prononce ouvertement en faveur des logiques de modération affichant des fact-checking aux côtés des publications problématiques. De fait, de nombreuses études démontrent que l’ajout de fact-checking directement sur les publications erronées a un effet concret de réduction de leur diffusion.

Meta affiche plus de contexte, TikTok dépublie plus vite

Selon les travaux de la Fondation, chez Meta, Facebook a pris des actions contre 88 % des publications problématiques, contre 70 % pour Instagram. Dans la grande majorité (77%) des cas, du côté de Facebook, il s’agissait d’ajouter des étiquettes indiquant l’existence de fact-checking et de fournir un contexte supplémentaire, de manière relativement cohérente d’un sujet à l’autre.

Instagram, de son côté, a recouru aux étiquettes dans un peu plus d’un cas sur deux en général. La désinformation liée aux sujets climatiques n’a été modérée que dans un cas sur trois, tandis que l’intégralité des publications liées à la guerre en Ukraine se sont vues accolées des éléments de contexte.

Si TikTok n’a agi que contre 40 % des publications, la plateforme les a le plus souvent dépubliées (32 % des contenus en question). Sur les 8 % restant, le réseau social a affiché un panneau d’information avec un lien vers « des informations sur les élections européennes ». Aucune des publications liées aux questions de migration n’ont été modérées, tandis que l’intégralité de celles liées à l’intégrité des élections a été supprimée.

Modération de TikTok selon les sujets – Fundación Maldita

X et YouTube ont été les deux plateformes les moins réactives, X ne réagissant d’aucune manière dans 70 % des cas. Dans près de 15 % des cas, la principale action de modération a consisté à ajouter des Community Notes. Le réseau a aussi recouru, dans une plus faible mesure, à l’affichage d’étiquettes génériques (sur 5,5 % des contenus), à de la suspension de comptes (1,54 %) et à de la limitation de visibilité (0,2 % des contenus étudiés).

Le réseau social se démarque par ailleurs par la présence de 18 des 20 fausses informations les plus virales en amont des élections européennes. Toutes y avaient dépassé 1,5 million de vues.

Quant à YouTube, la plateforme n’a opéré aucune action visible sur 75 % des publications de désinformation recensées, dont certaines ont atteint les 500 000 vues. Lorsqu’action il y a eu, il s’est agi, dans 80 % des cas, d’ajouter « une étiquette générique » ou de signaler « la source de la vidéo comme média d’État, sans fournir d’explication sur le fait que le contenu était faux ».

Pour ces deux dernières plateformes, les publications les plus sujettes à modération sont celles liées à la guerre menée par Israël contre le Hamas à Gaza.

☕️ La plateforme de bug bounty YesWeHack lève 26 millions d’euros

Des billets de cinquante euros.

La plateforme de gestion de hackers éthiques YesWeHack lève 26 millions d’euros dans un tour de financement de série C.

Parmi ses investisseurs : Adelie, Seventure Partners et des noms déjà présents à son capital comme Bpifrance, Open CNIP et Eiffel Investment Group.

Fondée en 2015 par Guillaume Vassault-Houlière et Manuel Dorne, l’entreprise prévoit d’utiliser les fonds pour « investir dans l’intelligence artificielle, lancer de nouvelles solutions innovantes » et s’étendre à l’international.

À l’heure actuelle, elle déclare compter 500 clients dans une quarantaine de pays, parmi lesquels Decathlon, Tencent, Doctolib ou Telenor.

☕️ La plateforme de bug bounty YesWeHack lève 26 millions d’euros

Des billets de cinquante euros.

La plateforme de gestion de hackers éthiques YesWeHack lève 26 millions d’euros dans un tour de financement de série C.

Parmi ses investisseurs : Adelie, Seventure Partners et des noms déjà présents à son capital comme Bpifrance, Open CNIP et Eiffel Investment Group.

Fondée en 2015 par Guillaume Vassault-Houlière et Manuel Dorne, l’entreprise prévoit d’utiliser les fonds pour « investir dans l’intelligence artificielle, lancer de nouvelles solutions innovantes » et s’étendre à l’international.

À l’heure actuelle, elle déclare compter 500 clients dans une quarantaine de pays, parmi lesquels Decathlon, Tencent, Doctolib ou Telenor.

☕️ Voodoo rachète le réseau social BeReal pour 500 millions d’euros

Voodoo, connue pour éditer plus de 200 jeux mobiles dits « casual », continue son bonhomme de chemin. 


Fondée par Alexandre Yazdi et Laurent Ritter, elle vient d’annoncer l’acquisition du réseau social BeReal et de ses 40 millions d’utilisateurs actifs (parmi lesquels diverses marques… et le premier ministre Gabriel Attal).

Créé en 2019, BeReal est un des rares réseaux sociaux français à avoir percé aux États-Unis et au Japon. Dans son communiqué, Voodoo indique que « ses utilisateurs sont très engagés avec l’application : la moitié d’entre eux l’utilisent au moins 6 jours par semaine ».

Son fonctionnement : une fois par jour, à heure variable, l’internaute reçoit une notification à la suite de laquelle il doit envoyer une photo. Pas de filtres, ni de likes, l’application fait la promesse d’une forme d’authenticité.

Malgré l’explosion de son usage en 2022 puis sa stabilisation, elle ne dégage pour le moment aucun revenu.

Voodoo, qui déclare « 800 collaborateurs, 7 milliards de téléchargements et plus de 150 millions d’utilisateurs actifs », avait enregistré un chiffre d’affaires de 425 millions de dollars en 2021 et visait les 600 millions de dollars pour l’exercice 2022.

☕️ Voodoo rachète le réseau social BeReal pour 500 millions d’euros

Voodoo, connue pour éditer plus de 200 jeux mobiles dits « casual », continue son bonhomme de chemin. 


Fondée par Alexandre Yazdi et Laurent Ritter, elle vient d’annoncer l’acquisition du réseau social BeReal et de ses 40 millions d’utilisateurs actifs (parmi lesquels diverses marques… et le premier ministre Gabriel Attal).

Créé en 2019, BeReal est un des rares réseaux sociaux français à avoir percé aux États-Unis et au Japon. Dans son communiqué, Voodoo indique que « ses utilisateurs sont très engagés avec l’application : la moitié d’entre eux l’utilisent au moins 6 jours par semaine ».

Son fonctionnement : une fois par jour, à heure variable, l’internaute reçoit une notification à la suite de laquelle il doit envoyer une photo. Pas de filtres, ni de likes, l’application fait la promesse d’une forme d’authenticité.

Malgré l’explosion de son usage en 2022 puis sa stabilisation, elle ne dégage pour le moment aucun revenu.

Voodoo, qui déclare « 800 collaborateurs, 7 milliards de téléchargements et plus de 150 millions d’utilisateurs actifs », avait enregistré un chiffre d’affaires de 425 millions de dollars en 2021 et visait les 600 millions de dollars pour l’exercice 2022.

❌