Vue normale

Aujourd’hui — 30 janvier 2025Flux principal

☕️ Réseaux sociaux : l’attente pour récupérer ses données en moyenne de 19h et 23 minutes

30 janvier 2025 à 15:41

Réseaux sociaux : l’attente pour récupérer ses données en moyenne de 19h et 23 minutes

Comment Discord, Facebook, Instagram, LinkedIn, Meta, Pinterest, Snapchat, TikTok, Twitch, X (ex-Twitter) ou encore YouTube ont mis concrètement en place le droit d’accès aux données personnelles de leurs utilisateurs ? Le Laboratoire d’innovation numérique de la CNIL (LINC) s’est penché sur ces 10 réseaux sociaux pour voir quelles étaient les pratiques sur le terrain.

Le LINC a analysé les parcours d’accès aux copies des données personnelles de ces réseaux sociaux en s’appuyant sur une grille d’analyse de 27 critères. L’idée est de « recenser les bonnes pratiques mises en place » et d’attribuer un score pour chacun des réseaux.

Comme le rappelle la CNIL dans un communiqué de presse, le RGPD prévoit, pour les utilisateurs, un droit d’accès à leurs données personnelles qui s’applique aux réseaux sociaux et aux plateformes. «  Il permet de savoir si vos données personnelles sont traitées et d’en obtenir la communication dans un format compréhensible. Il permet également de contrôler l’exactitude des données et, au besoin, de les faire rectifier ou effacer », explique l’autorité.

Le laboratoire de l’autorité publie son analyse effectuée en février 2024. Il précise que « l’étude ne tient pas compte des changements qui ont pu être réalisés depuis ». Entre autres, ils ont mesuré que « le temps d’attente est en moyenne de 19 heures et 23 minutes avant réception de la copie des données pour 9 des réseaux sociaux étudiés ».

« Le LINC a échangé avec ces réseaux sociaux à la fin de l’année 2024, ce qui a permis de réajuster quelques points de la méthodologie », indique la CNIL, ce qui pourrait expliquer une publication presque un an après. Espérons que le laboratoire renouvellera régulièrement son étude en y ajoutant d’autres réseaux sociaux comme Bluesky et Mastodon, et en publiant rapidement les résultats pour obtenir un réel observatoire de ces parcours.

☕️ Réseaux sociaux : l’attente pour récupérer ses données en moyenne de 19h et 23 minutes

30 janvier 2025 à 15:41

Réseaux sociaux : l’attente pour récupérer ses données en moyenne de 19h et 23 minutes

Comment Discord, Facebook, Instagram, LinkedIn, Meta, Pinterest, Snapchat, TikTok, Twitch, X (ex-Twitter) ou encore YouTube ont mis concrètement en place le droit d’accès aux données personnelles de leurs utilisateurs ? Le Laboratoire d’innovation numérique de la CNIL (LINC) s’est penché sur ces 10 réseaux sociaux pour voir quelles étaient les pratiques sur le terrain.

Le LINC a analysé les parcours d’accès aux copies des données personnelles de ces réseaux sociaux en s’appuyant sur une grille d’analyse de 27 critères. L’idée est de « recenser les bonnes pratiques mises en place » et d’attribuer un score pour chacun des réseaux.

Comme le rappelle la CNIL dans un communiqué de presse, le RGPD prévoit, pour les utilisateurs, un droit d’accès à leurs données personnelles qui s’applique aux réseaux sociaux et aux plateformes. «  Il permet de savoir si vos données personnelles sont traitées et d’en obtenir la communication dans un format compréhensible. Il permet également de contrôler l’exactitude des données et, au besoin, de les faire rectifier ou effacer », explique l’autorité.

Le laboratoire de l’autorité publie son analyse effectuée en février 2024. Il précise que « l’étude ne tient pas compte des changements qui ont pu être réalisés depuis ». Entre autres, ils ont mesuré que « le temps d’attente est en moyenne de 19 heures et 23 minutes avant réception de la copie des données pour 9 des réseaux sociaux étudiés ».

« Le LINC a échangé avec ces réseaux sociaux à la fin de l’année 2024, ce qui a permis de réajuster quelques points de la méthodologie », indique la CNIL, ce qui pourrait expliquer une publication presque un an après. Espérons que le laboratoire renouvellera régulièrement son étude en y ajoutant d’autres réseaux sociaux comme Bluesky et Mastodon, et en publiant rapidement les résultats pour obtenir un réel observatoire de ces parcours.

CNRS : fronde de 10 000 chercheurs contre la création de « key labs »

30 janvier 2025 à 13:35
Et si on perd les clés ?
CNRS : fronde de 10 000 chercheurs contre la création de « key labs »

Mi décembre, le PDG du CNRS, Antoine Petit, a annoncé la création d’un nouveau label pour les laboratoires du CNRS : les « key labs ». Celui-ci doit concentrer les efforts de financements sur 25 % des unités du centre. Une motion de défiance signée par 10 000 personnels de recherche réclame la démission du PDG et les universités partenaires du CNRS demandent un moratoire.

L’ambiance est à la baisse des crédits dans le milieu de la recherche française. Le 20 janvier dernier, la droite sénatoriale a voté une nouvelle coupe dans les crédits de l’enseignement supérieur et de la recherche (ESR) de 630 millions d’euros voulue par le gouvernement. Le nouveau ministre de l’ESR et ancien président du CNES, Philippe Baptiste, a précisé que l’économie faisait « porter sur le CNRS une grande partie de cet effort, à hauteur de 100 millions d’euros, grâce à sa trésorerie », rapporte Public Sénat.

Les efforts budgétaires du CNRS concentrés sur 25 % des laboratoires

Parallèlement, Antoine Petit, le PDG du CNRS, s’est embarqué dans un bras de fer avec une bonne partie des employés du CNRS et des universités sur la répartition des financements dans les laboratoires du centre. En effet, il a annoncé en fin d’année 2024 sa décision de créer une nouvelle catégorie de laboratoires dans le centre : les « key labs ». La direction explique vouloir « faire porter un effort particulier sur un nombre plus restreint d’unités, celles qui peuvent légitimement prétendre à être qualifiées “de rang mondial” ». Et elle prévoit de concentrer les efforts de financements sur les 25 % de ses laboratoires qui obtiendraient ce label prévu pour être renouvelé (ou pas) tous les cinq ans.

Au départ très peu claire, lors de l’annonce de la création de ces « key labs », l’explication de ce nouveau label s’est faite au fur et à mesure des réactions négatives qu’elle a provoquées.

« Le CNRS se propose de mettre en valeur, parmi les laboratoires dont il assure la tutelle, les plus remarquables d’entre eux, ceux qui sont réellement “de rang mondial” », dans lesquels « naturellement, l’implication du CNRS serait plus forte, et plus pérenne », expliquait la direction de l’établissement dans son projet de contrat d’objectifs, de moyens et de performance pour la période 2024 - 2028.

Beaucoup de critères mais une pondération variable selon les instituts et domaines

Selon AEF Info, un texte daté de janvier 2025 encore qualifié de « document de travail » donnait un peu plus d’informations sur les critères qu’envisagerait la direction du centre pour décider quels laboratoires seraient considérés comme « clés ». « Qualité de l’impact des productions scientifiques, nombre d’ERC, participation aux PEPR, reconnaissance dans les classements, nombre de start-up créées, brevets et licences... », un certain nombre de critères sont évoqués sans toutefois être arrêtés.

Aucune pondération entre ces différents critères n’est d’ailleurs pour l’instant établie précisément. Selon ce document, ils seraient « pondérés en fonction de chaque institut [Le centre est divisé en 10 instituts], ou grand domaine disciplinaire, pour tenir compte de ses spécificités ».

10 000 personnels de recherche et les instances du CNRS vent debout

Cette annonce a hautement fait réagir dans les laboratoires du CNRS. Une motion de défiance envers les keylabs et la présidence du CNRS a été mise en ligne le 10 janvier dernier. Le texte demande l’arrêt du projet des key labs mais aussi la démission d’Antoine Petit et la réforme de la gouvernance du CNRS. Vingt jours après, elle est maintenant signée par plus de 10 000 personnels de recherche.

Les orientations de la direction, « notamment matérialisées par le projet des « Key Labs », constituent une remise en cause profonde de l’essence même de la recherche scientifique publique telle que le CNRS la défend depuis sa création », affirme ce texte.

Il pointe notamment le fait que ce projet « se dresse contre les principes fondamentaux de la liberté académique », « renforce des inégalités territoriales et disciplinaires en concentrant les financements et les ressources sur quelques laboratoires jugés « stratégiques », au détriment de l’écosystème scientifique global et en mettant ainsi à son ban la plus grande partie (75 %) de ses laboratoires et personnels » ou encore qu’il « fragilise le statut des chercheuses et chercheurs et des ITA [Ingénieurs, techniciens et personnels administratifs] en favorisant des modèles de financement précaires et ponctuels, au lieu d’un soutien durable et structurant ».

Une bonne partie des instances du CNRS est aussi vent debout contre ce projet. La Coordination des responsables des instances du CoNRS a, par exemple, voté une motion [PDF] dans laquelle elle affirme refuser « une politique qui consisterait, pour le CNRS, à laisser les trois quarts de ses laboratoires au bord du chemin ». Elle y explique que « cette proposition aboutirait à ce que les moyens humains (personnels ingénieurs, techniciens et chercheurs) soient concentrés sur un nombre réduit de laboratoires élus, au détriment des autres ». Et elle ajoute que « cela risquerait d’entraîner un tarissement des recrutements et une augmentation des mobilités vers des laboratoires que le label « CNRS key-labs » aurait rendus plus attractifs ».

Ce lundi 27 janvier, plusieurs centaines de personnes se sont rassemblées devant le siège de l’institution de recherche à l’appel d’une intersyndicale allant de la CFDT à Solidaires en passant par la CGT, le SNCS-FSU ou encore le SNPTES-UNSA [PDF].

Les universités et leurs présidents demandent un moratoire

Cette annonce ne fait pas seulement réagir en interne. En effet, en France, les laboratoires sont souvent des Unités mixtes de recherche (UMR) placés sous la tutelle de différentes institutions de recherche. Les laboratoires du CNRS sont donc souvent aussi des laboratoires d’universités. Et la direction ne semble même pas avoir averti ses partenaires avant l’annonce de cette mesure. À Bordeaux comme à Aix-Marseille, les deux universités refusent de valider ou de cautionner la liste de ces key labs.

France Universités, le lobby des présidents d’Universités, a, dès le 20 décembre, annoncé « suspendre toute discussion » avec le CNRS au sujet des key labs et a ensuite maintenu sa demande de moratoire en appelant « le CNRS au dialogue ».

Mais comme le relève le chercheur Julien Gossa sur son blog, pour Antoine Petit, ces UMR seraient maintenant trop nombreuses et ne joueraient plus leur rôle de label de qualité : « Aujourd’hui, le CNRS assure la co-tutelle de plus de 860 UMR réparties sur l’ensemble du territoire national. […] Être associé au CNRS a longtemps été considéré comme un label de qualité. […] Le CNRS a ainsi dilué son action et réduit sa plus-value, comme en atteste le nombre de ses agents permanents dans les UMR ». Le chercheur commente : « présenter les UMR comme un simple label de qualité est très réducteur, il s’agit aussi, et peut-être avant tout, de moyens matériels, financiers et humains dont les laboratoires sans co-tutelle ne disposent pas ».

Une partie de la classe politique réagit

Cette nouvelle disposition a aussi fait réagir dans le milieu politique. Le Parti Communiste a estimé dans un communiqué [PDF] que c’est « un projet autoritaire qui menace l’avenir de la recherche publique ». De son côté, le député LFI Arnaud Saint-Martin (qui est aussi un chercheur travaillant sur le « newspace ») a qualifié la vision du PDG du CNRS de « mortifère et délétère » devant le siège du centre lors de la manifestation.

Pour l’ancienne ministre LREM du secteur, Sylvie Retailleau, relève News Tank, « que le CNRS définisse ses priorités, avec des conséquences sur les moyens, les postes : c’est normal et légitime. Cependant, l’attribution ou non de labels à des unités mixtes de recherche impactera l’attractivité, la visibilité et la reconnaissance des laboratoires, c’est pourquoi cela concerne l’ensemble des tutelles. Ce label, imposé sans concertation, soulève des questions ».

Une gestion guidée par le « darwinisme social »

Au Monde, Antoine Petit affirmait le 20 janvier dernier que « c’est infondé de dire que les CNRS Key Labs sont une réponse à la pénurie de moyens, dont je dis souvent qu’elle est préjudiciable au pays. Le dispositif doit renforcer la France sur une scène internationale où la compétition est féroce. Il n’y a aucune raison que cela crée une catastrophe. » Il ajoutait qu’ « il était normal d’élaborer en interne ce concept, ne serait-ce que pour assurer la cohérence entre disciplines. Maintenant, nous discutons avec nos partenaires et différentes instances ».

Avec ce concept de « key labs », le PDG reste cohérent avec sa volonté d’une politique de la recherche guidée par le « darwinisme social » (ou plutôt le spencérisme d’Herbert Spencer) qu’il appelait de ses vœux, lors de la mise en place, en 2019, de la Loi de programmation de la recherche et à laquelle les conseils scientifiques du CNRS s’opposaient déjà.

CNRS : fronde de 10 000 chercheurs contre la création de « key labs »

30 janvier 2025 à 13:35
Et si on perd les clés ?
CNRS : fronde de 10 000 chercheurs contre la création de « key labs »

Mi décembre, le PDG du CNRS, Antoine Petit, a annoncé la création d’un nouveau label pour les laboratoires du CNRS : les « key labs ». Celui-ci doit concentrer les efforts de financements sur 25 % des unités du centre. Une motion de défiance signée par 10 000 personnels de recherche réclame la démission du PDG et les universités partenaires du CNRS demandent un moratoire.

L’ambiance est à la baisse des crédits dans le milieu de la recherche française. Le 20 janvier dernier, la droite sénatoriale a voté une nouvelle coupe dans les crédits de l’enseignement supérieur et de la recherche (ESR) de 630 millions d’euros voulue par le gouvernement. Le nouveau ministre de l’ESR et ancien président du CNES, Philippe Baptiste, a précisé que l’économie faisait « porter sur le CNRS une grande partie de cet effort, à hauteur de 100 millions d’euros, grâce à sa trésorerie », rapporte Public Sénat.

Les efforts budgétaires du CNRS concentrés sur 25 % des laboratoires

Parallèlement, Antoine Petit, le PDG du CNRS, s’est embarqué dans un bras de fer avec une bonne partie des employés du CNRS et des universités sur la répartition des financements dans les laboratoires du centre. En effet, il a annoncé en fin d’année 2024 sa décision de créer une nouvelle catégorie de laboratoires dans le centre : les « key labs ». La direction explique vouloir « faire porter un effort particulier sur un nombre plus restreint d’unités, celles qui peuvent légitimement prétendre à être qualifiées “de rang mondial” ». Et elle prévoit de concentrer les efforts de financements sur les 25 % de ses laboratoires qui obtiendraient ce label prévu pour être renouvelé (ou pas) tous les cinq ans.

Au départ très peu claire, lors de l’annonce de la création de ces « key labs », l’explication de ce nouveau label s’est faite au fur et à mesure des réactions négatives qu’elle a provoquées.

« Le CNRS se propose de mettre en valeur, parmi les laboratoires dont il assure la tutelle, les plus remarquables d’entre eux, ceux qui sont réellement “de rang mondial” », dans lesquels « naturellement, l’implication du CNRS serait plus forte, et plus pérenne », expliquait la direction de l’établissement dans son projet de contrat d’objectifs, de moyens et de performance pour la période 2024 - 2028.

Beaucoup de critères mais une pondération variable selon les instituts et domaines

Selon AEF Info, un texte daté de janvier 2025 encore qualifié de « document de travail » donnait un peu plus d’informations sur les critères qu’envisagerait la direction du centre pour décider quels laboratoires seraient considérés comme « clés ». « Qualité de l’impact des productions scientifiques, nombre d’ERC, participation aux PEPR, reconnaissance dans les classements, nombre de start-up créées, brevets et licences... », un certain nombre de critères sont évoqués sans toutefois être arrêtés.

Aucune pondération entre ces différents critères n’est d’ailleurs pour l’instant établie précisément. Selon ce document, ils seraient « pondérés en fonction de chaque institut [Le centre est divisé en 10 instituts], ou grand domaine disciplinaire, pour tenir compte de ses spécificités ».

10 000 personnels de recherche et les instances du CNRS vent debout

Cette annonce a hautement fait réagir dans les laboratoires du CNRS. Une motion de défiance envers les keylabs et la présidence du CNRS a été mise en ligne le 10 janvier dernier. Le texte demande l’arrêt du projet des key labs mais aussi la démission d’Antoine Petit et la réforme de la gouvernance du CNRS. Vingt jours après, elle est maintenant signée par plus de 10 000 personnels de recherche.

Les orientations de la direction, « notamment matérialisées par le projet des « Key Labs », constituent une remise en cause profonde de l’essence même de la recherche scientifique publique telle que le CNRS la défend depuis sa création », affirme ce texte.

Il pointe notamment le fait que ce projet « se dresse contre les principes fondamentaux de la liberté académique », « renforce des inégalités territoriales et disciplinaires en concentrant les financements et les ressources sur quelques laboratoires jugés « stratégiques », au détriment de l’écosystème scientifique global et en mettant ainsi à son ban la plus grande partie (75 %) de ses laboratoires et personnels » ou encore qu’il « fragilise le statut des chercheuses et chercheurs et des ITA [Ingénieurs, techniciens et personnels administratifs] en favorisant des modèles de financement précaires et ponctuels, au lieu d’un soutien durable et structurant ».

Une bonne partie des instances du CNRS est aussi vent debout contre ce projet. La Coordination des responsables des instances du CoNRS a, par exemple, voté une motion [PDF] dans laquelle elle affirme refuser « une politique qui consisterait, pour le CNRS, à laisser les trois quarts de ses laboratoires au bord du chemin ». Elle y explique que « cette proposition aboutirait à ce que les moyens humains (personnels ingénieurs, techniciens et chercheurs) soient concentrés sur un nombre réduit de laboratoires élus, au détriment des autres ». Et elle ajoute que « cela risquerait d’entraîner un tarissement des recrutements et une augmentation des mobilités vers des laboratoires que le label « CNRS key-labs » aurait rendus plus attractifs ».

Ce lundi 27 janvier, plusieurs centaines de personnes se sont rassemblées devant le siège de l’institution de recherche à l’appel d’une intersyndicale allant de la CFDT à Solidaires en passant par la CGT, le SNCS-FSU ou encore le SNPTES-UNSA [PDF].

Les universités et leurs présidents demandent un moratoire

Cette annonce ne fait pas seulement réagir en interne. En effet, en France, les laboratoires sont souvent des Unités mixtes de recherche (UMR) placés sous la tutelle de différentes institutions de recherche. Les laboratoires du CNRS sont donc souvent aussi des laboratoires d’universités. Et la direction ne semble même pas avoir averti ses partenaires avant l’annonce de cette mesure. À Bordeaux comme à Aix-Marseille, les deux universités refusent de valider ou de cautionner la liste de ces key labs.

France Universités, le lobby des présidents d’Universités, a, dès le 20 décembre, annoncé « suspendre toute discussion » avec le CNRS au sujet des key labs et a ensuite maintenu sa demande de moratoire en appelant « le CNRS au dialogue ».

Mais comme le relève le chercheur Julien Gossa sur son blog, pour Antoine Petit, ces UMR seraient maintenant trop nombreuses et ne joueraient plus leur rôle de label de qualité : « Aujourd’hui, le CNRS assure la co-tutelle de plus de 860 UMR réparties sur l’ensemble du territoire national. […] Être associé au CNRS a longtemps été considéré comme un label de qualité. […] Le CNRS a ainsi dilué son action et réduit sa plus-value, comme en atteste le nombre de ses agents permanents dans les UMR ». Le chercheur commente : « présenter les UMR comme un simple label de qualité est très réducteur, il s’agit aussi, et peut-être avant tout, de moyens matériels, financiers et humains dont les laboratoires sans co-tutelle ne disposent pas ».

Une partie de la classe politique réagit

Cette nouvelle disposition a aussi fait réagir dans le milieu politique. Le Parti Communiste a estimé dans un communiqué [PDF] que c’est « un projet autoritaire qui menace l’avenir de la recherche publique ». De son côté, le député LFI Arnaud Saint-Martin (qui est aussi un chercheur travaillant sur le « newspace ») a qualifié la vision du PDG du CNRS de « mortifère et délétère » devant le siège du centre lors de la manifestation.

Pour l’ancienne ministre LREM du secteur, Sylvie Retailleau, relève News Tank, « que le CNRS définisse ses priorités, avec des conséquences sur les moyens, les postes : c’est normal et légitime. Cependant, l’attribution ou non de labels à des unités mixtes de recherche impactera l’attractivité, la visibilité et la reconnaissance des laboratoires, c’est pourquoi cela concerne l’ensemble des tutelles. Ce label, imposé sans concertation, soulève des questions ».

Une gestion guidée par le « darwinisme social »

Au Monde, Antoine Petit affirmait le 20 janvier dernier que « c’est infondé de dire que les CNRS Key Labs sont une réponse à la pénurie de moyens, dont je dis souvent qu’elle est préjudiciable au pays. Le dispositif doit renforcer la France sur une scène internationale où la compétition est féroce. Il n’y a aucune raison que cela crée une catastrophe. » Il ajoutait qu’ « il était normal d’élaborer en interne ce concept, ne serait-ce que pour assurer la cohérence entre disciplines. Maintenant, nous discutons avec nos partenaires et différentes instances ».

Avec ce concept de « key labs », le PDG reste cohérent avec sa volonté d’une politique de la recherche guidée par le « darwinisme social » (ou plutôt le spencérisme d’Herbert Spencer) qu’il appelait de ses vœux, lors de la mise en place, en 2019, de la Loi de programmation de la recherche et à laquelle les conseils scientifiques du CNRS s’opposaient déjà.

Hier — 29 janvier 2025Flux principal

☕️ Test-Achats porte plainte contre DeepSeek

29 janvier 2025 à 15:20


L’organisation de consommateurs belge Test-Achats annonce porter plainte contre DeepSeek auprès de l’Autorité de Protection des Données (APD) belge pour non-respect du RGPD. « Testachats alerte sur son non-respect des normes européennes de protection des données, mettant en lumière plusieurs failles majeures », explique l’organisation. Celle-ci l’accuse de transférer les adresses e-mail, interactions et prompts des utilisateurs belges vers la Chine sans garanties suffisantes.

Elle estime aussi que la politique de confidentialité de l’entreprise chinoise est en violation des réglementations européennes, « avec un manque d’informations claires sur la conservation et le traitement des données ».

Elle ajoute qu’il y aurait un flou sur l’exploitation des données à des fins de profilage ou de décisions automatisées. Enfin, elle estime que DeepSeek n’amène « aucune garantie pour la protection des mineurs » en ne mentionnant aucune vérification d’âge ni de règles spécifiques concernant leurs données.

L’organisation demande une restriction temporaire du chatbot. Elle affirme que son homologue italien, Altroconsumo, a également saisi son autorité compétente. Celle-ci, la Garante per la protezione dei dati personali, s’est déjà auto-saisie du dossier de DeepSeek.

Remarquons que le site de Test-Achats utilise un « dark pattern » dans son bandeau de cookies en faisant ressortir fortement le bouton « tout accepter » et en n’offrant aucun moyen de tout refuser, technique contraire au règlement européen (le bandeau n’apparait pas en navigation privée).

☕️ Test-Achats porte plainte contre DeepSeek

29 janvier 2025 à 15:20


L’organisation de consommateurs belge Test-Achats annonce porter plainte contre DeepSeek auprès de l’Autorité de Protection des Données (APD) belge pour non-respect du RGPD. « Testachats alerte sur son non-respect des normes européennes de protection des données, mettant en lumière plusieurs failles majeures », explique l’organisation. Celle-ci l’accuse de transférer les adresses e-mail, interactions et prompts des utilisateurs belges vers la Chine sans garanties suffisantes.

Elle estime aussi que la politique de confidentialité de l’entreprise chinoise est en violation des réglementations européennes, « avec un manque d’informations claires sur la conservation et le traitement des données ».

Elle ajoute qu’il y aurait un flou sur l’exploitation des données à des fins de profilage ou de décisions automatisées. Enfin, elle estime que DeepSeek n’amène « aucune garantie pour la protection des mineurs » en ne mentionnant aucune vérification d’âge ni de règles spécifiques concernant leurs données.

L’organisation demande une restriction temporaire du chatbot. Elle affirme que son homologue italien, Altroconsumo, a également saisi son autorité compétente. Celle-ci, la Garante per la protezione dei dati personali, s’est déjà auto-saisie du dossier de DeepSeek.

Remarquons que le site de Test-Achats utilise un « dark pattern » dans son bandeau de cookies en faisant ressortir fortement le bouton « tout accepter » et en n’offrant aucun moyen de tout refuser, technique contraire au règlement européen (le bandeau n’apparait pas en navigation privée).

DeepSeek : la recherche chinoise paradoxalement boostée par les restrictions américaines

29 janvier 2025 à 14:19
Toujours plus profond
DeepSeek : la recherche chinoise paradoxalement boostée par les restrictions américaines

La startup chinoise a sorti son modèle DeepSeek-R1 rivalisant avec o1 d’OpenAI. Si certains doutent des affirmations des chercheurs de l’entreprise, leur rapport technique apporte des indications précises sur les nouveautés pour rendre leur modèle plus efficace.

Ne nous précipitons pas pour dire que la startup chinoise Deepseek a révolutionné le champ des IA génératives jusqu’à penser que l’Intelligence artificielle générale est proche, comme ses chercheurs le suggèrent dans leur rapport technique, reprenant les discours des startups américaines comme OpenAI à leur compte.

Mais ne renvoyons pas non plus d’un revers de la main les prétentions de cette jeune entreprise chinoise, qui vient de faire trembler la bourse américaine et fait craindre aux investisseurs l’éclatement de la bulle spéculative dont bénéficient ses concurrents états-uniens. Comme le modèle o1 d’OpenAI, le modèle DeepSeek-R1 se base sur de l’apprentissage par renforcement à grande échelle.

DeepSeek n’est pas une startup sortie de nulle part, comme le rappellent certains : son laboratoire rassemble plus de 100 chercheurs et elle a mis en ligne 16 articles de recherche en lien avec l’IA générative.

Un rapport technique détaillant l’architecture du modèle

Si certains, comme le CEO de l’entreprise américaine Scale AI, Alexandr Wang, estiment que l’entreprise chinoise ment sur l’efficacité de son modèle, le rapport technique mis en ligne [PDF] donne des indications montrant qu’elle a, de fait, innové dans le domaine.


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ [MAJ] L’application de DeepSeek n’est plus disponible en Italie

29 janvier 2025 à 14:50


Mise à jour le 29 janvier à 15:38 : Selon Reuters, l’application DeepSeek n’est plus disponible sur les app stores de Google et d’Apple en Italie ce mercredi. Un message de l’App Store d’Apple indiquait que l’application n’était « actuellement pas disponible dans le pays ou la région où vous vous trouvez ». Le site de Google indique que le téléchargement « n’est pas pris en charge » en Italie.

Garante per la protezione dei dati personali (GPDP, l’équivalent de la CNIL en Italie) considère qu’il existe un risque élevé pour les données de millions de personnes en Italie dans la mise à disposition du chatbot DeepSeek basé sur le modèle R1 dont le nom est sur toutes les lèvres actuellement.

Elle a donc envoyé une demande d’informations aux entreprises DeepSeek Artificial Intelligence basées à Hangzhou et Pékin pour connaître les données personnelles collectées, à partir de quelles sources, à quelles fins, quelle est la base juridique du traitement et si elles étaient stockées sur des serveurs situés en Chine.

Sans nommer le règlement européen, l’autorité italienne veut donc vérifier que le chatbot chinois respecte le RGPD.

Kayla-Kozlowski-Unsplash

Elle précise aussi avoir demandé quel type d’informations est utilisé pour entrainer le modèle de l’entreprise et « si les données personnelles sont collectées par le biais d’activités de « web scraping » ».

Enfin, elle a interrogé l’entreprise chinoise sur la façon dont les utilisateurs inscrits et non inscrits sont informés du traitement de leurs données.

La Garante a donné 20 jours à DeepSeek pour répondre.

Rappelons que l’autorité italienne avait fait de même pour ChatGPT lors de la sortie du chatbot d’OpenAI, suspendant un temps son accès en Italie. Elle a ensuite infligé une amende de 15 millions d’euros à OpenAI pour avoir, entre autres, utilisé des données personnelles pour entrainer ses modèles utilisés par ChatGPT.

Outre-Atlantique, la Maison-Blanche se penche aussi sur la nouvelle intelligence artificielle avec en tâche de fond la question de « la sécurité nationale », rapporte Reuters. « C’est un signal d’alarme pour l’industrie américaine de l’IA », explique la porte-parole Karoline Leavitt. Elle rappelle que la Maison-Blanche s’efforce d’« assurer la domination américaine de l’IA ».

☕️ [MAJ] L’application de DeepSeek n’est plus disponible en Italie

29 janvier 2025 à 14:50


Mise à jour le 29 janvier à 15:38 : Selon Reuters, l’application DeepSeek n’est plus disponible sur les app stores de Google et d’Apple en Italie ce mercredi. Un message de l’App Store d’Apple indiquait que l’application n’était « actuellement pas disponible dans le pays ou la région où vous vous trouvez ». Le site de Google indique que le téléchargement « n’est pas pris en charge » en Italie.

Garante per la protezione dei dati personali (GPDP, l’équivalent de la CNIL en Italie) considère qu’il existe un risque élevé pour les données de millions de personnes en Italie dans la mise à disposition du chatbot DeepSeek basé sur le modèle R1 dont le nom est sur toutes les lèvres actuellement.

Elle a donc envoyé une demande d’informations aux entreprises DeepSeek Artificial Intelligence basées à Hangzhou et Pékin pour connaître les données personnelles collectées, à partir de quelles sources, à quelles fins, quelle est la base juridique du traitement et si elles étaient stockées sur des serveurs situés en Chine.

Sans nommer le règlement européen, l’autorité italienne veut donc vérifier que le chatbot chinois respecte le RGPD.

Kayla-Kozlowski-Unsplash

Elle précise aussi avoir demandé quel type d’informations est utilisé pour entrainer le modèle de l’entreprise et « si les données personnelles sont collectées par le biais d’activités de « web scraping » ».

Enfin, elle a interrogé l’entreprise chinoise sur la façon dont les utilisateurs inscrits et non inscrits sont informés du traitement de leurs données.

La Garante a donné 20 jours à DeepSeek pour répondre.

Rappelons que l’autorité italienne avait fait de même pour ChatGPT lors de la sortie du chatbot d’OpenAI, suspendant un temps son accès en Italie. Elle a ensuite infligé une amende de 15 millions d’euros à OpenAI pour avoir, entre autres, utilisé des données personnelles pour entrainer ses modèles utilisés par ChatGPT.

Outre-Atlantique, la Maison-Blanche se penche aussi sur la nouvelle intelligence artificielle avec en tâche de fond la question de « la sécurité nationale », rapporte Reuters. « C’est un signal d’alarme pour l’industrie américaine de l’IA », explique la porte-parole Karoline Leavitt. Elle rappelle que la Maison-Blanche s’efforce d’« assurer la domination américaine de l’IA ».

À partir d’avant-hierFlux principal

La communauté scientifique plébiscite Bluesky

28 janvier 2025 à 13:01
Un ciel bleu pour la communication scientifique
La communauté scientifique plébiscite Bluesky

Alors qu’Elon Musk a joué un rôle central dans l’élection de Donald Trump, les chercheurs semblent avoir migré vers Bluesky, y trouvant un havre de paix comparé à X.

Le ciel est plus bleu ailleurs que sur X pour les chercheurs. Et notamment pour les lecteurs et lectrices de la revue scientifique Nature, qui déclarent avoir massivement migré vers Bluesky.

Mi-janvier, la revue leur a envoyé un sondage pour savoir si le réseau social dirigé par Jay Graber avait pris le pas sur celui racheté par Elon Musk en 2022. 70 % des 5 300 personnes qui ont répondu utilisent Bluesky, explique-t-elle.

Nature s’empresse d’expliquer que ce sondage n’est pas statistiquement représentatif des lecteurs de Nature ou de la communauté scientifique au sens large. Mais il montre néanmoins « l’enthousiasme récent des chercheurs pour Bluesky et le mécontentement envers X », interprète la revue. D’ailleurs, à une question sur leur discipline, les chercheurs qui y ont répondu (près de 4 000) ont indiqué travailler à 38 % en biologie, à 11 % en informatique et sciences de l’information, 9 % en physique et 9 % en sciences environnementales.

Exode massif

Plus de la moitié des répondants (52,5 %) ont, par contre, répondu qu’ils ont quitté X alors qu’ils l’utilisaient auparavant :

Pour la revue, ces chiffres montrent un « exode massif » de la communauté scientifique. Nature a aussi recueilli les sentiments de ses lecteurs sur la plateforme au papillon bleu.

Bluesky, le bon vieux Twitter d’il y a 10 ans pour les chercheurs ?

« Bluesky est bien meilleur pour la science. Il y a beaucoup moins de toxicité, de désinformation et de distractions », affirme l’un d’entre eux. Un autre explique : « mon flux est presque entièrement composé de scientifiques et je reçois des mises à jour sur la recherche qui sont pertinentes et opportunes ».

Et effectivement, les chercheurs semblent se servir de Bluesky pour discuter entre eux. 19 % de ceux qui y ont un compte répondent l’utiliser pour se connecter avec d’autres chercheurs, 3 % pour promouvoir leur recherche, 18,5 % pour suivre les avancées d’autres recherches/chercheurs et 55 % pour tout ça à la fois :

Ces échos ressemblent à ceux qu’exprimaient certains chercheurs comme Sylvain Deville en 2014, s’agissant de Twitter.

Dans les réponses libres à la comparaison entre les deux réseaux sociaux, la revue note que les chercheurs renvoient des impressions plus positives pour qualifier Bluesky, expliquant que ce réseau serait « plus agréable, plus favorable, plus amical, plus gentil, plus collégial, plus stimulant, plus paisible et plus sûr ». Mais certains trouvent BlueSky plus « ennuyeux ».

Des chercheurs ont spécifiquement expliqué à la revue qu’ils avaient l’impression qu’il y avait moins de nazis et de racisme sur Bluesky que sur X.

« Tous les lecteurs de Nature n’aiment pas Bluesky. L’une des critiques qui ressort des réponses à l’enquête est qu’il s’agit d’une chambre d’écho de gauche », explique la revue qui cite l’un d’entre eux : « Bluesky est rempli de « wokes » fous qui vous menacent violemment si vous n’êtes pas d’accord avec le discours libéral ».

Début janvier, la revue Science a aussi interrogé des chercheurs sur leur éventuelle bascule de l’une vers l’autre des plateformes. Le chercheur en digital humanities Philipp Lorenz-Spreen, qui étudie les comportements sur les médias sociaux, y expliquait : « Chaque fois que je vais sur X, je vois des choses scandaleuses, et je me laisse entraîner », ajoutant « « Bluesky est plus lent et plus ennuyeux, mais c’est un bon ennui ».

Les « starter packs », la killer feature ?

Nature explique aussi que certains ont mentionné préférer Mastodon. S’il est vrai que certains chercheurs sont très enthousiastes concernant la plateforme décentralisée basée sur le fediverse, l’été dernier, nous ne pouvions que constater que les chercheurs n’avaient pas migré en masse dans sa direction.

Interrogé par Nature, le chercheur de l’université Queen Mary à Londres, Ignacio Castro, qui étudie l’utilisation des réseaux sociaux, explique la popularité émergente de Bluesky notamment par certaines fonctionnalités comme les « starter packs » mis en place en juin 2024, des listes de comptes « à suivre » créés par les utilisateurs. Ils permettent de trouver une communauté rapidement.

Du côté du Fediverse et Mastodon, cette fonctionnalité a récemment été aussi implémentée. Si la communauté de ce réseau social ne revendique pas forcément d’être dans une course avec les autres, cette inspiration venant du réseau à la mode montre quand même qu’elle ne veut pas que son réseau soit laissé de côté.

La communauté scientifique plébiscite Bluesky

28 janvier 2025 à 13:01
Un ciel bleu pour la communication scientifique
La communauté scientifique plébiscite Bluesky

Alors qu’Elon Musk a joué un rôle central dans l’élection de Donald Trump, les chercheurs semblent avoir migré vers Bluesky, y trouvant un havre de paix comparé à X.

Le ciel est plus bleu ailleurs que sur X pour les chercheurs. Et notamment pour les lecteurs et lectrices de la revue scientifique Nature, qui déclarent avoir massivement migré vers Bluesky.

Mi-janvier, la revue leur a envoyé un sondage pour savoir si le réseau social dirigé par Jay Graber avait pris le pas sur celui racheté par Elon Musk en 2022. 70 % des 5 300 personnes qui ont répondu utilisent Bluesky, explique-t-elle.

Nature s’empresse d’expliquer que ce sondage n’est pas statistiquement représentatif des lecteurs de Nature ou de la communauté scientifique au sens large. Mais il montre néanmoins « l’enthousiasme récent des chercheurs pour Bluesky et le mécontentement envers X », interprète la revue. D’ailleurs, à une question sur leur discipline, les chercheurs qui y ont répondu (près de 4 000) ont indiqué travailler à 38 % en biologie, à 11 % en informatique et sciences de l’information, 9 % en physique et 9 % en sciences environnementales.

Exode massif

Plus de la moitié des répondants (52,5 %) ont, par contre, répondu qu’ils ont quitté X alors qu’ils l’utilisaient auparavant :

Pour la revue, ces chiffres montrent un « exode massif » de la communauté scientifique. Nature a aussi recueilli les sentiments de ses lecteurs sur la plateforme au papillon bleu.

Bluesky, le bon vieux Twitter d’il y a 10 ans pour les chercheurs ?

« Bluesky est bien meilleur pour la science. Il y a beaucoup moins de toxicité, de désinformation et de distractions », affirme l’un d’entre eux. Un autre explique : « mon flux est presque entièrement composé de scientifiques et je reçois des mises à jour sur la recherche qui sont pertinentes et opportunes ».

Et effectivement, les chercheurs semblent se servir de Bluesky pour discuter entre eux. 19 % de ceux qui y ont un compte répondent l’utiliser pour se connecter avec d’autres chercheurs, 3 % pour promouvoir leur recherche, 18,5 % pour suivre les avancées d’autres recherches/chercheurs et 55 % pour tout ça à la fois :

Ces échos ressemblent à ceux qu’exprimaient certains chercheurs comme Sylvain Deville en 2014, s’agissant de Twitter.

Dans les réponses libres à la comparaison entre les deux réseaux sociaux, la revue note que les chercheurs renvoient des impressions plus positives pour qualifier Bluesky, expliquant que ce réseau serait « plus agréable, plus favorable, plus amical, plus gentil, plus collégial, plus stimulant, plus paisible et plus sûr ». Mais certains trouvent BlueSky plus « ennuyeux ».

Des chercheurs ont spécifiquement expliqué à la revue qu’ils avaient l’impression qu’il y avait moins de nazis et de racisme sur Bluesky que sur X.

« Tous les lecteurs de Nature n’aiment pas Bluesky. L’une des critiques qui ressort des réponses à l’enquête est qu’il s’agit d’une chambre d’écho de gauche », explique la revue qui cite l’un d’entre eux : « Bluesky est rempli de « wokes » fous qui vous menacent violemment si vous n’êtes pas d’accord avec le discours libéral ».

Début janvier, la revue Science a aussi interrogé des chercheurs sur leur éventuelle bascule de l’une vers l’autre des plateformes. Le chercheur en digital humanities Philipp Lorenz-Spreen, qui étudie les comportements sur les médias sociaux, y expliquait : « Chaque fois que je vais sur X, je vois des choses scandaleuses, et je me laisse entraîner », ajoutant « « Bluesky est plus lent et plus ennuyeux, mais c’est un bon ennui ».

Les « starter packs », la killer feature ?

Nature explique aussi que certains ont mentionné préférer Mastodon. S’il est vrai que certains chercheurs sont très enthousiastes concernant la plateforme décentralisée basée sur le fediverse, l’été dernier, nous ne pouvions que constater que les chercheurs n’avaient pas migré en masse dans sa direction.

Interrogé par Nature, le chercheur de l’université Queen Mary à Londres, Ignacio Castro, qui étudie l’utilisation des réseaux sociaux, explique la popularité émergente de Bluesky notamment par certaines fonctionnalités comme les « starter packs » mis en place en juin 2024, des listes de comptes « à suivre » créés par les utilisateurs. Ils permettent de trouver une communauté rapidement.

Du côté du Fediverse et Mastodon, cette fonctionnalité a récemment été aussi implémentée. Si la communauté de ce réseau social ne revendique pas forcément d’être dans une course avec les autres, cette inspiration venant du réseau à la mode montre quand même qu’elle ne veut pas que son réseau soit laissé de côté.

Erreurs, absences de modération : Lucie, le chatbot de Linagora, rapidement fermé

27 janvier 2025 à 15:29
No sky, no diamonds
Erreurs, absences de modération : Lucie, le chatbot de Linagora, rapidement fermé

Après avoir annoncé, l’arrivée de son « IA véritablement open source fondée sur la transparence, la confiance et l’efficacité », Linagora ferme « temporairement » son chatbot Lucie. Ce dernier a subi de nombreuses critiques sur les réseaux sociaux.

Lucie, le chatbot qui devait permettre à l’éditeur historique de logiciels libres français Linagora de faire la publicité de son nouveau modèle de langage, a sacrément dérapé. Mis en place sans aucune « instruction approfondie », Renforcement par Apprentissage Humain (RHLF) ni garde-fous (guardrails), ce chatbot a subi dès son ouverture au public les critiques de divers internautes sur les réseaux sociaux. Et l’entreprise a dû fermer l’accès à son chatbot.

Mauvais calculs, œufs de vache et parlant comme Hitler si on lui demande

Le chatbot faisait des erreurs de calcul comme 5(3 + 2) qui serait égal à 17 sans le détail de l’opération, puis à 50 une fois que l’IA de Linagora expliquait comment elle y arrivait.

D’autres internautes ont rapidement montré que ce chatbot pouvait disserter sur les œufs de vache sans expliquer que ça n’existe pas, ou n’avait aucun filtre bloquant la possibilité de lui faire rédiger un texte en parlant comme Adolf Hitler.

Ces problèmes des modèles de langage sont pourtant connus depuis longtemps. En 2022, une semaine avant la sortie de ChatGPT, Google devait se résoudre à dépublier son IA générative Galactica au bout de trois jours seulement suite à des critiques sur la génération d’articles racistes et mensongers, alors qu’elle devait aider les chercheurs à écrire leurs articles scientifiques.

Si tous les chatbots basés sur des modèles de langage génèrent de la désinformation, le sujet de la modération est connu et ne peut plus être ignoré. C’est d’ailleurs sous cet angle qu’OpenAI a lancé en septembre dernier o1 qui évalue sa réponse avant de l’envoyer à son utilisateur.

Dans son communiqué de presse, Linagora reconnait : « nous savons bien entendu que les capacités de « raisonnement » (y compris sur des problèmes mathématiques simples) ou encore la capacité à générer du code de la version actuelle de LUCIE sont insatisfaisantes. Nous aurions dû informer les utilisateurs de la plate-forme de ces limites de telle manière à ne pas créer d’attente inutile ».

Avant de mettre en ligne son outil, l’entreprise avait pourtant annoncé (voir sur Internet Archive) sur le site dédié que Lucie serait « l’IA véritablement open source fondée sur la transparence, la confiance et l’efficacité » :

Une « interface de chat », pas un chatbot

« Il est évident que nous n’avons pas suffisamment bien communiqué et clarifié sur ce que LUCIE peut ou ne peut pas faire dans son état actuel, ainsi que la nature des travaux réalisés jusqu’à présent », affirme Linagora.

Et alors que Linagora avait utilisé le TLD .chat, pour l’entreprise, ce n’est maintenant plus un chatbot mais « une interface de chat », « soyez précis » comme nous le demande le responsable de l’ingénierie R&D chez Linagora Damien Lainé. La confusion serait, selon lui, un « présupposé erroné ».

Next lui a fait remarquer que « ce chatbot n’est pas seulement un LLM « brut » mis en ligne sur Hugging Face, comme vous l’avez d’ailleurs fait il y a 2 semaines » et lui a demandé « en quoi Lucie (le chatbot) se différenciait de ChatGPT, Le Chat ou autres, concernant les besoins de modération et de RAG (génération augmentée par récupération) ? ».

Damien Lainé nous a répondu : « et bien si, le chat Lucie était juste un moyen d’interagir avec le modèle fondation (pas de module de raisonnement, pas de guardrails, encore moins de RAG). Juste un instruct minimal pour permettre la modalité « chat ». Encore une fois, et j’ai pourtant été clair, ce n’est ni un produit, ni un démonstrateur pour un produit. C’est juste une interface de chat sur un modèle fondation qui n’est ni fine-tuné ni rien… ».

Une interface développée par Linagora seule, mais un modèle entrainé sur Jean ZAY du CNRS

Linagora a développé seule cette «  interface de chat » « dans le simple but de permettre d’interagir avec le modèle et qu’il était possible donner une « parole » », ajoute-t-il. Le CNRS n’est donc en rien responsable de cette interface contrairement à ce que certains ont pu affirmer.

« Il ne faut pas confondre le modèle de langage Lucie avec le site Lucie.chat qui avait été proposé pour permettre à chacun de tester le modèle sur une interface chat », nous explique Damien Lainé. Il faut dire que le choix des dénominations des produits, chez Linagora comme ailleurs (souvenons-nous du Copilot de Microsoft, par exemple), n’aide pas à les différencier.

Car, en effet, le modèle de langage Lucie, est créé au sein du consortium OpenLLM-France qui rassemble Linagora, le CNRS, le CEA et la startup OpinionScience. Ce groupement a été lauréat en mai 2024 de l’appel à projets « Communs numériques pour l’IA générative » [PDF] ironiquement pour élaborer « une suite d’outils pour l’IA générative, notamment pour l’évaluation de modèles francophones ».

Mais le COO de Linagora, Michel-Marie Maudet l’affirme, « LUCIE a été pour le moment financée quasiment à 100% sur les fonds propres de LINAGORA », tout en reconnaissant bénéficier « d’un accès à la machine Jean ZAY », le supercalculateur du CNRS.

Encore une IA au nom féminin

Un autre point a soulevé des questions lors de la mise en ligne de Lucie : incarné par l’image d’une femme blonde drapée dans un drapeau bleu-blanc-rouge numérisé (digitalisé diront certains), le projet de Linagora reprend encore un prénom féminin.

Le syndicat SNCS-FSU du personnel de recherche d’Inria pose la question : « Est-ce qu’on peut arrêter de donner des noms de femme aux logiciels de recherche ? ». Il est vrai que les logiciels, et notamment ceux d’IA, sont souvent nommés avec des prénoms féminins. Pensons à Alexa, Siri, Tay ou encore Matilda. On trouvera des contre-exemples comme le chatbot juridique Ross ou Einstein GPT de Saleforce, cherchant à cibler un côté plus « expert ».

Comme l’expliquait déjà Norbert Wiener, l’inventeur d’une science appelée la cybernétique, certains informaticiens ont tendance à se voir en Pygmalion sculptant Galatée. Isabelle Collet, en 2009, remarquait que « dans ce mythe, le but de la création de Pygmalion est d’améliorer le modèle : les femmes nées de la différence des sexes n’apportent pas satisfaction ». L’incarnation des IA en femmes n’a donc pas débuté avec Lucie, mais celle-ci se place dans un historique d’objectivisation des femmes.

Continuant dans la même veine, mais traitant en dérision Lucie, un site parodique nommé « Lucienne » propose « l’IA dégénérative open bar, mais franchement basée sur des secrets, des doutes et une efficacité discutable ».

Erreurs, absences de modération : Lucie, le chatbot de Linagora, rapidement fermé

27 janvier 2025 à 15:29
No sky, no diamonds
Erreurs, absences de modération : Lucie, le chatbot de Linagora, rapidement fermé

Après avoir annoncé, l’arrivée de son « IA véritablement open source fondée sur la transparence, la confiance et l’efficacité », Linagora ferme « temporairement » son chatbot Lucie. Ce dernier a subi de nombreuses critiques sur les réseaux sociaux.

Lucie, le chatbot qui devait permettre à l’éditeur historique de logiciels libres français Linagora de faire la publicité de son nouveau modèle de langage, a sacrément dérapé. Mis en place sans aucune « instruction approfondie », Renforcement par Apprentissage Humain (RHLF) ni garde-fous (guardrails), ce chatbot a subi dès son ouverture au public les critiques de divers internautes sur les réseaux sociaux. Et l’entreprise a dû fermer l’accès à son chatbot.

Mauvais calculs, œufs de vache et parlant comme Hitler si on lui demande

Le chatbot faisait des erreurs de calcul comme 5(3 + 2) qui serait égal à 17 sans le détail de l’opération, puis à 50 une fois que l’IA de Linagora expliquait comment elle y arrivait.

D’autres internautes ont rapidement montré que ce chatbot pouvait disserter sur les œufs de vache sans expliquer que ça n’existe pas, ou n’avait aucun filtre bloquant la possibilité de lui faire rédiger un texte en parlant comme Adolf Hitler.

Ces problèmes des modèles de langage sont pourtant connus depuis longtemps. En 2022, une semaine avant la sortie de ChatGPT, Google devait se résoudre à dépublier son IA générative Galactica au bout de trois jours seulement suite à des critiques sur la génération d’articles racistes et mensongers, alors qu’elle devait aider les chercheurs à écrire leurs articles scientifiques.

Si tous les chatbots basés sur des modèles de langage génèrent de la désinformation, le sujet de la modération est connu et ne peut plus être ignoré. C’est d’ailleurs sous cet angle qu’OpenAI a lancé en septembre dernier o1 qui évalue sa réponse avant de l’envoyer à son utilisateur.

Dans son communiqué de presse, Linagora reconnait : « nous savons bien entendu que les capacités de « raisonnement » (y compris sur des problèmes mathématiques simples) ou encore la capacité à générer du code de la version actuelle de LUCIE sont insatisfaisantes. Nous aurions dû informer les utilisateurs de la plate-forme de ces limites de telle manière à ne pas créer d’attente inutile ».

Avant de mettre en ligne son outil, l’entreprise avait pourtant annoncé (voir sur Internet Archive) sur le site dédié que Lucie serait « l’IA véritablement open source fondée sur la transparence, la confiance et l’efficacité » :

Une « interface de chat », pas un chatbot

« Il est évident que nous n’avons pas suffisamment bien communiqué et clarifié sur ce que LUCIE peut ou ne peut pas faire dans son état actuel, ainsi que la nature des travaux réalisés jusqu’à présent », affirme Linagora.

Et alors que Linagora avait utilisé le TLD .chat, pour l’entreprise, ce n’est maintenant plus un chatbot mais « une interface de chat », « soyez précis » comme nous le demande le responsable de l’ingénierie R&D chez Linagora Damien Lainé. La confusion serait, selon lui, un « présupposé erroné ».

Next lui a fait remarquer que « ce chatbot n’est pas seulement un LLM « brut » mis en ligne sur Hugging Face, comme vous l’avez d’ailleurs fait il y a 2 semaines » et lui a demandé « en quoi Lucie (le chatbot) se différenciait de ChatGPT, Le Chat ou autres, concernant les besoins de modération et de RAG (génération augmentée par récupération) ? ».

Damien Lainé nous a répondu : « et bien si, le chat Lucie était juste un moyen d’interagir avec le modèle fondation (pas de module de raisonnement, pas de guardrails, encore moins de RAG). Juste un instruct minimal pour permettre la modalité « chat ». Encore une fois, et j’ai pourtant été clair, ce n’est ni un produit, ni un démonstrateur pour un produit. C’est juste une interface de chat sur un modèle fondation qui n’est ni fine-tuné ni rien… ».

Une interface développée par Linagora seule, mais un modèle entrainé sur Jean ZAY du CNRS

Linagora a développé seule cette «  interface de chat » « dans le simple but de permettre d’interagir avec le modèle et qu’il était possible donner une « parole » », ajoute-t-il. Le CNRS n’est donc en rien responsable de cette interface contrairement à ce que certains ont pu affirmer.

« Il ne faut pas confondre le modèle de langage Lucie avec le site Lucie.chat qui avait été proposé pour permettre à chacun de tester le modèle sur une interface chat », nous explique Damien Lainé. Il faut dire que le choix des dénominations des produits, chez Linagora comme ailleurs (souvenons-nous du Copilot de Microsoft, par exemple), n’aide pas à les différencier.

Car, en effet, le modèle de langage Lucie, est créé au sein du consortium OpenLLM-France qui rassemble Linagora, le CNRS, le CEA et la startup OpinionScience. Ce groupement a été lauréat en mai 2024 de l’appel à projets « Communs numériques pour l’IA générative » [PDF] ironiquement pour élaborer « une suite d’outils pour l’IA générative, notamment pour l’évaluation de modèles francophones ».

Mais le COO de Linagora, Michel-Marie Maudet l’affirme, « LUCIE a été pour le moment financée quasiment à 100% sur les fonds propres de LINAGORA », tout en reconnaissant bénéficier « d’un accès à la machine Jean ZAY », le supercalculateur du CNRS.

Encore une IA au nom féminin

Un autre point a soulevé des questions lors de la mise en ligne de Lucie : incarné par l’image d’une femme blonde drapée dans un drapeau bleu-blanc-rouge numérisé (digitalisé diront certains), le projet de Linagora reprend encore un prénom féminin.

Le syndicat SNCS-FSU du personnel de recherche d’Inria pose la question : « Est-ce qu’on peut arrêter de donner des noms de femme aux logiciels de recherche ? ». Il est vrai que les logiciels, et notamment ceux d’IA, sont souvent nommés avec des prénoms féminins. Pensons à Alexa, Siri, Tay ou encore Matilda. On trouvera des contre-exemples comme le chatbot juridique Ross ou Einstein GPT de Saleforce, cherchant à cibler un côté plus « expert ».

Comme l’expliquait déjà Norbert Wiener, l’inventeur d’une science appelée la cybernétique, certains informaticiens ont tendance à se voir en Pygmalion sculptant Galatée. Isabelle Collet, en 2009, remarquait que « dans ce mythe, le but de la création de Pygmalion est d’améliorer le modèle : les femmes nées de la différence des sexes n’apportent pas satisfaction ». L’incarnation des IA en femmes n’a donc pas débuté avec Lucie, mais celle-ci se place dans un historique d’objectivisation des femmes.

Continuant dans la même veine, mais traitant en dérision Lucie, un site parodique nommé « Lucienne » propose « l’IA dégénérative open bar, mais franchement basée sur des secrets, des doutes et une efficacité discutable ».

Sauver les données du climat tant qu’il est encore temps

22 janvier 2025 à 09:02
NASA Rogue Two
Sauver les données du climat tant qu’il est encore temps

Les chercheurs et militants écologistes américains ont peur d’une nouvelle suppression de données concernant le climat stockées par les agences publiques américaines alors que Trump entame son deuxième mandat.

Donald Trump vient d’être investi ce lundi 20 janvier. Ne perdant pas de temps, il a déjà pris plusieurs décrets dont l’un repousse de 75 jours la vente ou l’interdiction de TikTok. Des informations publiées par des agences institutionnelles sont menacées de dépublication. Le site reproductiverights.gov, dédié à la contraception et à l’avortement, n’est déjà plus accessible.

La question est d’autant plus problématique qu’une partie importante des données scientifiques mondiales sont stockées et gérées par des institutions américaines. En biologie, par exemple, le National Center for Biotechnology Information (NCBI) héberge des outils comme PubMed. Concernant l’environnement et le climat, les agences américaines comme la NASA, la National Oceanic and Atmospheric Administration (NOAA) ou encore l’Environmental protection Agency (EPA) jouent aussi un rôle très important tout autant pour les données à propos de l’Amérique du Nord que celles concernant la planète entière.

Sous le premier mandat de Donald Trump, la suppression d’informations publiées par les agences américaines

Le sujet n’est pas théorique alors que Donald Trump vient de retirer de nouveau les États-Unis de l’accord de Paris issu de la COP21, le considérant comme une « arnaque unilatérale et injuste ». Il avait fait de même lors de son premier mandat et avait imposé la suppression de certaines pages ou sites des différentes agences du pays.

Comme le montraient en 2021 des chercheurs dans la revue scientifique PLOS One, 20 % du site de l’EPA avait été supprimé. Notamment, la page qui rassemblait les ressources d’informations sur le changement climatique, le climat, les mesures d’atténuation et d’adaptation : epa.gov/climatechange.

« Sa suppression a marqué un tournant important dans les efforts déployés pour influencer la compréhension de la science climatique par le public : la propagation du déni climatique par l’intermédiaire de l’agence fédérale chargée de la protection de l’environnement », expliquent ces chercheurs.

Rogue NASA and co

À l’époque, les informations sur le changement climatique de la NASA ont moins été touchées. L’ancien responsable de l’EPA, Stan Meiburg, expliquait d’ailleurs en 2018 cette différence de traitement par le fait que la NASA était une agence de recherche alors que l’EPA est avant tout une agence de régulation, rédigeant et ayant pour mission de faire appliquer la réglementation sur l’environnement. Et donc une cible importante pour les climato-négationnistes.

En réaction, à la pression mise par la première administration Trump sur les agences, certains de leurs employés avaient créé des comptes Twitter « rebels », comme Rogue NASA ou Alt NOAA pour s’assurer que « les informations factuelles sur le changement climatique et d’autres recherches scientifiques continuent d’être partagées pendant l’administration Trump ».

Des chercheurs qui travaillent sur ces sujets s’étaient regroupés, en 2016, autour d’un collectif nommé Environmental Data and Governance Initiative (EDGI) afin d’organiser des « événements de guérilla » d’archivage pour « sauver les données environnementales de Trump ». 200 To de données avaient été sauvés à l’époque.

Archivage préventif

Voyant Donald Trump revenir pour un second mandat, chercheurs et militants américains veulent cette fois prémunir les informations et données des agences de leur suppression, explique The Verge, notamment en archivant autant que possible les données déjà publiées avant toute action du gouvernement.

« Le financement, les personnes, les connaissances culturelles associées à ces outils et à ces données sont tout aussi importants, sinon plus, que les données elles-mêmes », souligne Gabriel Watson, responsable « data science » à l’Environmental Policy Innovation Center.

Gretchen Gehrke, cofondatrice d’EDGI et responsable du programme de surveillance des sites web, a peur que les équipes de Trump soient mieux préparées cette fois : « Je pense que la menace est beaucoup plus grande cette fois-ci […] Nous pourrions assister à des suppressions massives de données, mais aussi à leur détérioration parce qu’elles ne seront plus gérées ou qu’elles deviennent inaccessibles », explique-t-elle à The Verge.

EDGI travaillent maintenant avec une autre initiative nommée End of Term Web Archive qui s’est donné pour mission d’archiver les sites des différentes agences américaines via Internet Archive.

Si les outils développés par ces agences restent en ligne mais ne sont pas mis à jour, ils vont peu à peu perdre de leur intérêt informatif.

Sauver les données du climat tant qu’il est encore temps

22 janvier 2025 à 09:02
NASA Rogue Two
Sauver les données du climat tant qu’il est encore temps

Les chercheurs et militants écologistes américains ont peur d’une nouvelle suppression de données concernant le climat stockées par les agences publiques américaines alors que Trump entame son deuxième mandat.

Donald Trump vient d’être investi ce lundi 20 janvier. Ne perdant pas de temps, il a déjà pris plusieurs décrets dont l’un repousse de 75 jours la vente ou l’interdiction de TikTok. Des informations publiées par des agences institutionnelles sont menacées de dépublication. Le site reproductiverights.gov, dédié à la contraception et à l’avortement, n’est déjà plus accessible.

La question est d’autant plus problématique qu’une partie importante des données scientifiques mondiales sont stockées et gérées par des institutions américaines. En biologie, par exemple, le National Center for Biotechnology Information (NCBI) héberge des outils comme PubMed. Concernant l’environnement et le climat, les agences américaines comme la NASA, la National Oceanic and Atmospheric Administration (NOAA) ou encore l’Environmental protection Agency (EPA) jouent aussi un rôle très important tout autant pour les données à propos de l’Amérique du Nord que celles concernant la planète entière.

Sous le premier mandat de Donald Trump, la suppression d’informations publiées par les agences américaines

Le sujet n’est pas théorique alors que Donald Trump vient de retirer de nouveau les États-Unis de l’accord de Paris issu de la COP21, le considérant comme une « arnaque unilatérale et injuste ». Il avait fait de même lors de son premier mandat et avait imposé la suppression de certaines pages ou sites des différentes agences du pays.

Comme le montraient en 2021 des chercheurs dans la revue scientifique PLOS One, 20 % du site de l’EPA avait été supprimé. Notamment, la page qui rassemblait les ressources d’informations sur le changement climatique, le climat, les mesures d’atténuation et d’adaptation : epa.gov/climatechange.

« Sa suppression a marqué un tournant important dans les efforts déployés pour influencer la compréhension de la science climatique par le public : la propagation du déni climatique par l’intermédiaire de l’agence fédérale chargée de la protection de l’environnement », expliquent ces chercheurs.

Rogue NASA and co

À l’époque, les informations sur le changement climatique de la NASA ont moins été touchées. L’ancien responsable de l’EPA, Stan Meiburg, expliquait d’ailleurs en 2018 cette différence de traitement par le fait que la NASA était une agence de recherche alors que l’EPA est avant tout une agence de régulation, rédigeant et ayant pour mission de faire appliquer la réglementation sur l’environnement. Et donc une cible importante pour les climato-négationnistes.

En réaction, à la pression mise par la première administration Trump sur les agences, certains de leurs employés avaient créé des comptes Twitter « rebels », comme Rogue NASA ou Alt NOAA pour s’assurer que « les informations factuelles sur le changement climatique et d’autres recherches scientifiques continuent d’être partagées pendant l’administration Trump ».

Des chercheurs qui travaillent sur ces sujets s’étaient regroupés, en 2016, autour d’un collectif nommé Environmental Data and Governance Initiative (EDGI) afin d’organiser des « événements de guérilla » d’archivage pour « sauver les données environnementales de Trump ». 200 To de données avaient été sauvés à l’époque.

Archivage préventif

Voyant Donald Trump revenir pour un second mandat, chercheurs et militants américains veulent cette fois prémunir les informations et données des agences de leur suppression, explique The Verge, notamment en archivant autant que possible les données déjà publiées avant toute action du gouvernement.

« Le financement, les personnes, les connaissances culturelles associées à ces outils et à ces données sont tout aussi importants, sinon plus, que les données elles-mêmes », souligne Gabriel Watson, responsable « data science » à l’Environmental Policy Innovation Center.

Gretchen Gehrke, cofondatrice d’EDGI et responsable du programme de surveillance des sites web, a peur que les équipes de Trump soient mieux préparées cette fois : « Je pense que la menace est beaucoup plus grande cette fois-ci […] Nous pourrions assister à des suppressions massives de données, mais aussi à leur détérioration parce qu’elles ne seront plus gérées ou qu’elles deviennent inaccessibles », explique-t-elle à The Verge.

EDGI travaillent maintenant avec une autre initiative nommée End of Term Web Archive qui s’est donné pour mission d’archiver les sites des différentes agences américaines via Internet Archive.

Si les outils développés par ces agences restent en ligne mais ne sont pas mis à jour, ils vont peu à peu perdre de leur intérêt informatif.

L’Europe veut créer un centre de soutien à la cybersécurité des hôpitaux

20 janvier 2025 à 08:28
Enfin ?
L’Europe veut créer un centre de soutien à la cybersécurité des hôpitaux

Alors que de plus en plus d’hôpitaux sont victimes de cyberattaques, la Commission vient de présenter un plan d’action de l’UE pour renforcer la cybersécurité des hôpitaux et des prestataires de soins de santé.

Régulièrement, les hôpitaux sont la cible de cyberattaques. Leurs systèmes informatiques sont peu souvent mis à jour, le manque de personnel n’aidant pas. Mais c’est aussi le caractère sensible et urgent d’un déblocage qui attire les pirates. Ils peuvent s’appuyer sur une pression plus forte sur les décideurs pour payer rapidement une rançon, des vies pouvant être en jeu.

Récemment, en France, la Cour des Comptes a souligné le net retard des établissements hospitaliers en matière de cybersécurité. En 2023, 10 % des victimes de cyberattaques en France étaient des établissements de santé. Globalement, en Europe, « les États membres ont signalé 309 incidents de cybersécurité importants affectant le secteur des soins de santé en 2023, soit plus que dans tout autre secteur critique », explique la commission.

Dans l’Union, 83 % des attaques motivées par des raisons financières

Selon un rapport de l’Agence de l’Union européenne pour la cybersécurité (ENISA, selon l’acronyme anglais) publié en juillet 2023 [PDF], « les ransomwares constituent l’une des principales menaces dans le secteur de la santé (54 %), tant par le nombre d’incidents que par leur impact sur les organismes de santé » dans la période 2021 - 2023. 83 % des attaques avaient des motivations financières, en raison de la valeur élevée des données de santé, tandis que 10 % avaient une motivation idéologique et 6 % étaient « involontaires ».

Un rapport [PDF] de la Commission datant de 2024 montrait que 71 % des attaques ayant des effets sur les soins aux patients, tels que des retards de traitement ou de diagnostic et des difficultés d’accès aux services d’urgence, étaient de type ransomware.

Pour Henna Virkkunen, vice-présidente générale chargée de la souveraineté technologique, de la sécurité et de la démocratie, « la transformation numérique a fait progresser les soins de santé modernes de manière spectaculaire, et les citoyens ont pu bénéficier de ces améliorations. Malheureusement, les systèmes de santé sont également touchés par des incidents et des menaces de cybersécurité ».

La Commission semble vouloir montrer qu’elle a pris conscience du problème en présentant un plan d’action pour renforcer la cybersécurité des hôpitaux et des prestataires de soins de santé [PDF], en soulignant que celui-ci était annoncé dans les orientations politiques de sa présidente Ursula von der Leyen. Ce plan est la première initiative de l’Union européenne sur ce secteur concernant la cybersécurité.

« Si la sécurisation des systèmes de santé est avant tout une compétence nationale, la santé est également un secteur critique au sens de la directive relative à des mesures visant à assurer un niveau commun élevé de cybersécurité dans l’UE (NIS2) » explique le rapport.

Un centre européen pour protéger les hôpitaux des cybermenaces

Le point principal de ce rapport est la création d’un « Centre européen de soutien à la cybersécurité pour les hôpitaux et les prestataires de soins de santé », confiée par la Commission à l’ENISA. Elle doit « développer une approche stratégique unifiée au niveau de l’UE, en rassemblant les ressources, l’expertise et les outils nécessaires pour lutter efficacement contre les cybermenaces ».

Le centre devra proposer petit à petit « un catalogue de services complet répondant aux besoins des hôpitaux et des prestataires de soins de santé, décrivant la gamme des services disponibles en matière de préparation, de prévention, de détection et de réaction » face à ces menaces.

Pour les rédacteurs du rapport l’un des principaux défis est la gestion de chaînes d’approvisionnement complexes des outils numériques spécialisés. Ils « impliquent une série de produits tels que des dispositifs médicaux connectés, des systèmes de dossiers médicaux électroniques et du matériel de bureau ». Les auteurs demandent donc au groupe de Coopération NIS de « procéder à une évaluation coordonnée des risques de sécurité, en évaluant les risques techniques et stratégiques liés aux chaînes d’approvisionnement en dispositifs médicaux et en proposant des mesures d’atténuation ».

Le rapport affirme aussi, en gras, que « les États membres sont vivement encouragés à partager avec le centre de support de l’ENISA toutes les notifications d’incidents cybernétiques émanant des hôpitaux et des prestataires de soins de santé afin de permettre à l’UE d’avoir une connaissance de la situation ».

Le plan propose un service de réaction rapide pour le secteur de la santé dans le cadre de la réserve de cybersécurité de l’UE créée par le règlement sur la cybersolidarité [PDF]. Celle-ci a pour but de fournir des services de réponse aux incidents par l’intermédiaire de prestataires privés de confiance. Ici, le plan propose de l’utiliser spécifiquement pour les services de santé.

Ce plan prévoit aussi la mise en place d’une « boite à outils » de cyberdiplomatie qui « offre un cadre pour prévenir et décourager les cyberattaques contre l’UE, les États membres et les partenaires, et pour y répondre ».

L’Europe veut créer un centre de soutien à la cybersécurité des hôpitaux

20 janvier 2025 à 08:28
Enfin ?
L’Europe veut créer un centre de soutien à la cybersécurité des hôpitaux

Alors que de plus en plus d’hôpitaux sont victimes de cyberattaques, la Commission vient de présenter un plan d’action de l’UE pour renforcer la cybersécurité des hôpitaux et des prestataires de soins de santé.

Régulièrement, les hôpitaux sont la cible de cyberattaques. Leurs systèmes informatiques sont peu souvent mis à jour, le manque de personnel n’aidant pas. Mais c’est aussi le caractère sensible et urgent d’un déblocage qui attire les pirates. Ils peuvent s’appuyer sur une pression plus forte sur les décideurs pour payer rapidement une rançon, des vies pouvant être en jeu.

Récemment, en France, la Cour des Comptes a souligné le net retard des établissements hospitaliers en matière de cybersécurité. En 2023, 10 % des victimes de cyberattaques en France étaient des établissements de santé. Globalement, en Europe, « les États membres ont signalé 309 incidents de cybersécurité importants affectant le secteur des soins de santé en 2023, soit plus que dans tout autre secteur critique », explique la commission.

Dans l’Union, 83 % des attaques motivées par des raisons financières

Selon un rapport de l’Agence de l’Union européenne pour la cybersécurité (ENISA, selon l’acronyme anglais) publié en juillet 2023 [PDF], « les ransomwares constituent l’une des principales menaces dans le secteur de la santé (54 %), tant par le nombre d’incidents que par leur impact sur les organismes de santé » dans la période 2021 - 2023. 83 % des attaques avaient des motivations financières, en raison de la valeur élevée des données de santé, tandis que 10 % avaient une motivation idéologique et 6 % étaient « involontaires ».

Un rapport [PDF] de la Commission datant de 2024 montrait que 71 % des attaques ayant des effets sur les soins aux patients, tels que des retards de traitement ou de diagnostic et des difficultés d’accès aux services d’urgence, étaient de type ransomware.

Pour Henna Virkkunen, vice-présidente générale chargée de la souveraineté technologique, de la sécurité et de la démocratie, « la transformation numérique a fait progresser les soins de santé modernes de manière spectaculaire, et les citoyens ont pu bénéficier de ces améliorations. Malheureusement, les systèmes de santé sont également touchés par des incidents et des menaces de cybersécurité ».

La Commission semble vouloir montrer qu’elle a pris conscience du problème en présentant un plan d’action pour renforcer la cybersécurité des hôpitaux et des prestataires de soins de santé [PDF], en soulignant que celui-ci était annoncé dans les orientations politiques de sa présidente Ursula von der Leyen. Ce plan est la première initiative de l’Union européenne sur ce secteur concernant la cybersécurité.

« Si la sécurisation des systèmes de santé est avant tout une compétence nationale, la santé est également un secteur critique au sens de la directive relative à des mesures visant à assurer un niveau commun élevé de cybersécurité dans l’UE (NIS2) » explique le rapport.

Un centre européen pour protéger les hôpitaux des cybermenaces

Le point principal de ce rapport est la création d’un « Centre européen de soutien à la cybersécurité pour les hôpitaux et les prestataires de soins de santé », confiée par la Commission à l’ENISA. Elle doit « développer une approche stratégique unifiée au niveau de l’UE, en rassemblant les ressources, l’expertise et les outils nécessaires pour lutter efficacement contre les cybermenaces ».

Le centre devra proposer petit à petit « un catalogue de services complet répondant aux besoins des hôpitaux et des prestataires de soins de santé, décrivant la gamme des services disponibles en matière de préparation, de prévention, de détection et de réaction » face à ces menaces.

Pour les rédacteurs du rapport l’un des principaux défis est la gestion de chaînes d’approvisionnement complexes des outils numériques spécialisés. Ils « impliquent une série de produits tels que des dispositifs médicaux connectés, des systèmes de dossiers médicaux électroniques et du matériel de bureau ». Les auteurs demandent donc au groupe de Coopération NIS de « procéder à une évaluation coordonnée des risques de sécurité, en évaluant les risques techniques et stratégiques liés aux chaînes d’approvisionnement en dispositifs médicaux et en proposant des mesures d’atténuation ».

Le rapport affirme aussi, en gras, que « les États membres sont vivement encouragés à partager avec le centre de support de l’ENISA toutes les notifications d’incidents cybernétiques émanant des hôpitaux et des prestataires de soins de santé afin de permettre à l’UE d’avoir une connaissance de la situation ».

Le plan propose un service de réaction rapide pour le secteur de la santé dans le cadre de la réserve de cybersécurité de l’UE créée par le règlement sur la cybersolidarité [PDF]. Celle-ci a pour but de fournir des services de réponse aux incidents par l’intermédiaire de prestataires privés de confiance. Ici, le plan propose de l’utiliser spécifiquement pour les services de santé.

Ce plan prévoit aussi la mise en place d’une « boite à outils » de cyberdiplomatie qui « offre un cadre pour prévenir et décourager les cyberattaques contre l’UE, les États membres et les partenaires, et pour y répondre ».

☕️ Pour la Cour suprême, TikTok peut être interdite aux États-Unis dès dimanche

17 janvier 2025 à 16:39


La Cour suprême vient d’affirmer [PDF] que l’interdiction de TikTok prévue par la loi votée pour ce cas particulier pouvait entrer en vigueur ce week-end. Elle rejette donc le recours de l’entreprise et de ByteDance qui affirmaient que l’interdiction violait le premier amendement.

TikTok

« Il ne fait aucun doute que, pour plus de 170 millions d’Américains, TikTok offre un moyen d’expression distinctif , un moyen d’engagement et une ressource de communauté » reconnait la Cour suprême.

« Mais le Congrès a déterminé que la cession était nécessaire pour répondre à ses préoccupations de sécurité nationale bien étayées concernant les pratiques de collecte de données de TikTok et ses relations avec un adversaire étranger », affirme la Cour. Elle ajoute : « nous concluons que les dispositions contestées ne violent pas les droits du premier amendement des requérants ».

« L’arrêt de la Cour d’appel des États-Unis […] est confirmé », conclut la Cour suprême.

☕️ Pour la Cour suprême, TikTok peut être interdite aux États-Unis dès dimanche

17 janvier 2025 à 16:39


La Cour suprême vient d’affirmer [PDF] que l’interdiction de TikTok prévue par la loi votée pour ce cas particulier pouvait entrer en vigueur ce week-end. Elle rejette donc le recours de l’entreprise et de ByteDance qui affirmaient que l’interdiction violait le premier amendement.

TikTok

« Il ne fait aucun doute que, pour plus de 170 millions d’Américains, TikTok offre un moyen d’expression distinctif , un moyen d’engagement et une ressource de communauté » reconnait la Cour suprême.

« Mais le Congrès a déterminé que la cession était nécessaire pour répondre à ses préoccupations de sécurité nationale bien étayées concernant les pratiques de collecte de données de TikTok et ses relations avec un adversaire étranger », affirme la Cour. Elle ajoute : « nous concluons que les dispositions contestées ne violent pas les droits du premier amendement des requérants ».

« L’arrêt de la Cour d’appel des États-Unis […] est confirmé », conclut la Cour suprême.

2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

17 janvier 2025 à 13:06
Faudrait pas fâcher
2025-2028 : la CNIL prend le dossier de l’IA sous l’angle de la promotion de l’éthique

La CNIL a publié son plan stratégique pour les quatre prochaines années. Celui-ci contient quatre axes dont la protection des mineurs, la cybersécurité et les usages numériques du quotidien. Mais l’autorité veut en premier lieu « promouvoir une intelligence artificielle éthique et respectueuse des droits ».

L’autorité de protection des données personnelles vient, ce jeudi 16 janvier, de publier son plan stratégique pour 2025 - 2028. Celui-ci comporte quatre grands axes : intelligence artificielle, droits des mineurs, cybersécurité et usages du quotidien numérique.

L’IA en premier, mais en douceur

Mais le premier axe de la CNIL pour ces quatre prochaines années est bien l’IA, mais dans un rôle de promotion d’ « une intelligence artificielle éthique et respectueuse des droits ». L’autorité semble être rassurée sur son rôle concernant l’IA en affichant cet objectif comme axe numéro 1 de ce plan. En effet, en 2023, elle luttait avec les différents comités mis en place par l’exécutif sur le sujet et poussait son expertise sur les enjeux de protection des données personnelles liés à l’IA. Elle mettait alors en avant sa volonté d’accompagner avant de contrôler, et semble n’avoir pas changé de logique quant à son rôle de contrôle et de sanction.

En effet, pas question, dans ce document en tout cas, de transformer la CNIL pour réguler l’IA générative, comme l’avaient suggéré des députés il y a un an. Les deux premiers objectifs de cet axe sont de « contribuer au partage de connaissances et d’expertise au sein de l’écosystème de l’IA » et de « clarifier le cadre juridique applicable et mettre en œuvre une régulation effective et équilibrée ». Vient ensuite la volonté de la CNIL de « sensibiliser le grand public aux enjeux de l’IA et le former à l’exercice de ses droits ».

Vient seulement en quatrième objectif le fait de « contrôler la conformité des systèmes d’IA », avec d’abord la volonté de concevoir une méthodologie, puis de « participer à des opérations de contrôles conjointes avec les autorités de protection des données européennes » et enfin de « poursuivre les contrôles des dispositifs d’IA utilisés par l’État et les collectivités territoriales, en particulier dans le cadre de caméras augmentées ».

L’autorité présente plutôt l’intégration de l’IA dans son plan stratégique 2025 - 2028 comme « [s’inscrivant] dans le prolongement de travaux de fond de la CNIL (fiches pratiques, webinaires, colloques) destinés à clarifier le cadre légal, dialoguer avec l’écosystème et développer des capacités d’audit des systèmes ».

Protection des mineurs et « faire de chacun un acteur de la cybersécurité »

Dans son deuxième axe pour les quatre prochaines années, la CNIL veut se concentrer sur la protection des mineurs. Elle prévoit notamment d’augmenter sa présence « sur l’ensemble du territoire national pour sensibiliser le plus grand nombre aux questions de protection des données personnelles et recenser sur le terrain les besoins » et de développer des partenariats avec la communauté éducative, les associations, les collectivités locales et les médias dans les territoires.

Encore une fois, la CNIL met d’abord en avant sa mission de promotion des droits et d’un « usage responsable du numérique ». Le contrôle des opérateurs qui proposent des services en ligne au public mineur est le dernier objectif de cet axe.

Le renforcement de la cybersécurité sur le territoire constitue le troisième axe de ce plan. La CNIL se donne comme objectif notamment de « consolider la coopération et la coordination avec l’écosystème de la cybersécurité » en assurant une « application cohérente et harmonisée des nouveaux textes européens (NIS2, DORA, RIA) en matière de cybersécurité, en lien avec les autres régulateurs ». Elle continuera logiquement à accompagner les victimes de violations de données mais se donne aussi comme objectif de « contribuer au développement de solutions techniques protectrices de la vie privée ». Le renforcement du « respect des règles applicables en matière de sécurité par le contrôle et la sanction » vient aussi en quatrième objectif de cet axe.

Enfin, concernant les usages numériques du quotidien, l’autorité affiche sa volonté de poursuivre la mise en œuvre de son plan d’action « applications mobiles » pour protéger la vie privée des personnes. Elle continuera aussi son travail sur les systèmes d’identité numérique comme le portefeuille européen d’identité numérique (PEIN) ou les solutions de vérification d’identité et de vérification d’âge en ligne.

❌
❌