Vue normale

Exportation des outils de surveillance : l’Europe « détourne le regard »

12 mai 2026 à 12:06
🙈🙈🙈
Exportation des outils de surveillance : l’Europe « détourne le regard »

L’ONG Human Rights Watch pointe le laisser-faire de l’Europe concernant la vente des technologies de surveillance à des pays bien connus pour enfreindre les droits humains.

Selon un rapport de Human Rights Watch, l’Union européenne se montre incapable d’ « empêcher l’exportation de technologies de surveillance vers des pays qui bafouent les droits humains ».

La Commission européenne a mis en place, en 2021, un nouveau texte censé limiter l’exportation de technologies à double usage (technologies pouvant être utilisées à des fins civiles mais aussi militaires), et notamment les technologies de surveillance. Un peu plus tôt, des voix s’étaient élevées pour dénoncer un possible assouplissement des règles.

Human Rights Watch (HRW) a essayé d’obtenir des informations sur l’exportation de ce genre de systèmes de cybersurveillance en demandant aux autorités chargées de délivrer les licences prévues par le texte européen via les différents mécanismes encadrant la liberté d’accès aux documents administratifs dans chaque pays de l’UE comme la CADA en France. L’ONG pointe dans son rapport que l’Europe « détourne le regard » sur des ventes à des pays comme l’Azerbaïdjan ou le Rwanda.

La France, l’Allemagne, la Grèce, l’Italie et l’Espagne ne répondent pas

Mais, en premier lieu, elle note que « certains des plus grands exportateurs européens de matériel de cybersurveillance, à savoir la France, l’Allemagne, la Grèce, l’Italie et l’Espagne, ont rejeté [ses] demandes d’accès aux documents ou, dans un cas [la France], les ont ignorées ». De fait, très peu de pays ont répondu à l’ONG :

6 pays membres de l’Union (Bulgarie, Tchéquie, Danemark, Estonie, Finlande et Suède) ont renvoyé des données à HRW et 8 autres ont déclaré à l’ONG n’avoir signalé aucune exportation de matériel de cybersurveillance à la Commission européenne au cours des cinq dernières années. Les douze autres pays ont soit refusé soit ignoré la demande (la France donc).

L’ONG profite de son rapport pour rappeler le contexte de la mise en place du texte européen : « Quatre dirigeants de la société française alors connue sous le nom d’Amesys, devenue par la suite Nexa Technologies, ont été mis en examen en 2021 par un tribunal parisien pour « complicité d’actes de torture » liés au rôle joué par leur logiciel espion dans la facilitation de violations des droits de l’homme en Libye et en Égypte à la fin des années 2000 et au début des années 2010. Ces affaires sont toujours en cours, et les dirigeants ont nié les faits qui leur sont reprochés ».

HRW souligne que « les informations dont dispose Human Rights Watch, bien qu’incomplètes, sont plus détaillées que celles publiées dans les rapports annuels de la Commission européenne ».

Des exportations problématiques via la Bulgarie, la République tchèque, le Danemark et la Pologne

Ainsi, l’ONG détaille les ventes de logiciels de cybersurveillance par la Bulgarie, la République tchèque, le Danemark, la Pologne, la Finlande et l’Estonie.

Pour cette dernière, les données récoltées par HRW indiquent des exportations vers la Suisse et l’Ukraine. Mais pour les 5 autres, la liste inclut des pays comme l’Azerbaïdjan pour la Bulgarie, le Rwanda pour la Pologne ou encore les Émirats arabes unis, l’Égypte et le Qatar pour la Finlande, par exemple.

« L’Azerbaïdjan, à l’instar d’autres gouvernements bénéficiaires, a depuis longtemps une pratique bien documentée de surveillance, qui conduit à des violations du droit à la vie privée et d’autres droits, en particulier à l’encontre des journalistes, des militants, ainsi que d’autres observateurs et voix critiques », rappellent l’ONG.

En Bulgarie, HRW pointe les activités de la société de surveillance Circles, une filiale de l’entreprise de logiciels espion plus connue NSO. Elle « commercialiserait un produit qui exploite des failles dans l’infrastructure internationale des télécommunications, ce qui, selon des chercheurs en sécurité, permet de localiser les utilisateurs de téléphones portables, d’intercepter leurs communications et, dans certains cas, d’infecter leurs appareils avec des logiciels espions ».

« Selon certaines informations, Circles détenait une licence d’exportation depuis la Bulgarie qui a expiré en 2023, et les données publiques actuellement disponibles sur le site web du ministère bulgare de l’Économie et de l’Industrie indiquent que la société a obtenu des licences d’exportation depuis la Bulgarie pour la période 2023 - 2028 », explique l’ONG dans son rapport.

« Des technologies de surveillance européennes font l’objet de licences d’exportation vers des pays qui ont depuis longtemps, et de manière bien documentée, recours à des technologies similaires pour bafouer les droits humains, ce qui présente un risque sérieux qu’elles soient utilisées par ces gouvernements pour espionner des journalistes, des militants et d’autres voix critiques », réagit le chercheur Zach Campbell qui travaille à Human Rights Watch auprès de Bloomberg. « Il est évident que les institutions européennes, qui devraient contrôler ces exportations, ne le font pas. »

« La Commission européenne accorde une grande importance à la question des équipements de cybersurveillance, raison pour laquelle l’UE a considérablement renforcé les contrôles à l’exportation de ces équipements », affirme de son côté un porte-parole de l’institution interrogé par Bloomberg. Il ajoute cependant que les contrôles mis en œuvre par les États membres doivent être régulièrement mis à jour pour « s’adapter à l’évolution des risques et des menaces en matière de sécurité ».

Exportation des outils de surveillance : l’Europe « détourne le regard »

12 mai 2026 à 12:06
🙈🙈🙈
Exportation des outils de surveillance : l’Europe « détourne le regard »

L’ONG Human Rights Watch pointe le laisser-faire de l’Europe concernant la vente des technologies de surveillance à des pays bien connus pour enfreindre les droits humains.

Selon un rapport de Human Rights Watch, l’Union européenne se montre incapable d’ « empêcher l’exportation de technologies de surveillance vers des pays qui bafouent les droits humains ».

La Commission européenne a mis en place, en 2021, un nouveau texte censé limiter l’exportation de technologies à double usage (technologies pouvant être utilisées à des fins civiles mais aussi militaires), et notamment les technologies de surveillance. Un peu plus tôt, des voix s’étaient élevées pour dénoncer un possible assouplissement des règles.

Human Rights Watch (HRW) a essayé d’obtenir des informations sur l’exportation de ce genre de systèmes de cybersurveillance en demandant aux autorités chargées de délivrer les licences prévues par le texte européen via les différents mécanismes encadrant la liberté d’accès aux documents administratifs dans chaque pays de l’UE comme la CADA en France. L’ONG pointe dans son rapport que l’Europe « détourne le regard » sur des ventes à des pays comme l’Azerbaïdjan ou le Rwanda.

La France, l’Allemagne, la Grèce, l’Italie et l’Espagne ne répondent pas

Mais, en premier lieu, elle note que « certains des plus grands exportateurs européens de matériel de cybersurveillance, à savoir la France, l’Allemagne, la Grèce, l’Italie et l’Espagne, ont rejeté [ses] demandes d’accès aux documents ou, dans un cas [la France], les ont ignorées ». De fait, très peu de pays ont répondu à l’ONG :

6 pays membres de l’Union (Bulgarie, Tchéquie, Danemark, Estonie, Finlande et Suède) ont renvoyé des données à HRW et 8 autres ont déclaré à l’ONG n’avoir signalé aucune exportation de matériel de cybersurveillance à la Commission européenne au cours des cinq dernières années. Les douze autres pays ont soit refusé soit ignoré la demande (la France donc).

L’ONG profite de son rapport pour rappeler le contexte de la mise en place du texte européen : « Quatre dirigeants de la société française alors connue sous le nom d’Amesys, devenue par la suite Nexa Technologies, ont été mis en examen en 2021 par un tribunal parisien pour « complicité d’actes de torture » liés au rôle joué par leur logiciel espion dans la facilitation de violations des droits de l’homme en Libye et en Égypte à la fin des années 2000 et au début des années 2010. Ces affaires sont toujours en cours, et les dirigeants ont nié les faits qui leur sont reprochés ».

HRW souligne que « les informations dont dispose Human Rights Watch, bien qu’incomplètes, sont plus détaillées que celles publiées dans les rapports annuels de la Commission européenne ».

Des exportations problématiques via la Bulgarie, la République tchèque, le Danemark et la Pologne

Ainsi, l’ONG détaille les ventes de logiciels de cybersurveillance par la Bulgarie, la République tchèque, le Danemark, la Pologne, la Finlande et l’Estonie.

Pour cette dernière, les données récoltées par HRW indiquent des exportations vers la Suisse et l’Ukraine. Mais pour les 5 autres, la liste inclut des pays comme l’Azerbaïdjan pour la Bulgarie, le Rwanda pour la Pologne ou encore les Émirats arabes unis, l’Égypte et le Qatar pour la Finlande, par exemple.

« L’Azerbaïdjan, à l’instar d’autres gouvernements bénéficiaires, a depuis longtemps une pratique bien documentée de surveillance, qui conduit à des violations du droit à la vie privée et d’autres droits, en particulier à l’encontre des journalistes, des militants, ainsi que d’autres observateurs et voix critiques », rappellent l’ONG.

En Bulgarie, HRW pointe les activités de la société de surveillance Circles, une filiale de l’entreprise de logiciels espion plus connue NSO. Elle « commercialiserait un produit qui exploite des failles dans l’infrastructure internationale des télécommunications, ce qui, selon des chercheurs en sécurité, permet de localiser les utilisateurs de téléphones portables, d’intercepter leurs communications et, dans certains cas, d’infecter leurs appareils avec des logiciels espions ».

« Selon certaines informations, Circles détenait une licence d’exportation depuis la Bulgarie qui a expiré en 2023, et les données publiques actuellement disponibles sur le site web du ministère bulgare de l’Économie et de l’Industrie indiquent que la société a obtenu des licences d’exportation depuis la Bulgarie pour la période 2023 - 2028 », explique l’ONG dans son rapport.

« Des technologies de surveillance européennes font l’objet de licences d’exportation vers des pays qui ont depuis longtemps, et de manière bien documentée, recours à des technologies similaires pour bafouer les droits humains, ce qui présente un risque sérieux qu’elles soient utilisées par ces gouvernements pour espionner des journalistes, des militants et d’autres voix critiques », réagit le chercheur Zach Campbell qui travaille à Human Rights Watch auprès de Bloomberg. « Il est évident que les institutions européennes, qui devraient contrôler ces exportations, ne le font pas. »

« La Commission européenne accorde une grande importance à la question des équipements de cybersurveillance, raison pour laquelle l’UE a considérablement renforcé les contrôles à l’exportation de ces équipements », affirme de son côté un porte-parole de l’institution interrogé par Bloomberg. Il ajoute cependant que les contrôles mis en œuvre par les États membres doivent être régulièrement mis à jour pour « s’adapter à l’évolution des risques et des menaces en matière de sécurité ».

La gendarmerie a économisé 1/2 milliard d’euros grâce au Libre et Linux en 20 ans

12 mai 2026 à 10:12
Au GNoUf !
La gendarmerie a économisé 1/2 milliard d’euros grâce au Libre et Linux en 20 ans

Le directeur de l’agence du numérique des forces de sécurité intérieure (ANFSI) reconnaît que la gendarmerie avait migré sur Linux « en mode très militaire, un peu brutal ». Il estime a contrario que « la souveraineté se gagne aussi sur le terrain des ressources humaines », ce pourquoi « depuis 30 ans la gendarmerie cultive une filière pour avoir des professionnels de très haut niveau ».

La commission d’enquête sur les vulnérabilités du secteur du numérique en France auditionnait ce jeudi 7 mai Tomasz Blanc, chef du service des systèmes d’information de la direction générale des finances publiques (DGFIP), et le général (de la gendarmerie) Marc Boget, directeur de l’agence du numérique des forces de sécurité intérieure (ANFSI) depuis juillet 2025.

« Je dois pouvoir rester indépendant, mes seuls chefs sont ceux de la police et de la gendarmerie », souligne Marc Boget qui, pour illustrer ce pourquoi « nos données sont sur des data centers souverains », explique que « j’ai coutume de me comparer au dragon de Tolkien assis sur son tas d’or » (Smaug), « je protège mon tas d’or, et on ne peut pas rentrer chez moi » :

« Mon mantra est double : je ne donne jamais les clefs du camion à quelqu’un d’autre. Sur les technos critiques dont je ne peux me passer, je m’adjoins des compétences et ressources externes françaises pour former des équipes mixtes : à tout moment je dois être capable, soit de changer d’industriel, soit de me passer de lui. »

« Être souverain c’est faire de sorte que seul l’État français a le doigt sur l’interrupteur », résume Marc Boget, pour qui « la souveraineté numérique est une urgence absolue, ça ne se négocie pas : sans maîtrise de nos outils il n’y a plus d’indépendance, c’est la condition sine qua non de la continuité de l’État et de la protection des libertés individuelles ».

« Je ne peux pas confier de données sensibles à SecNumCloud, malgré toute la compétence des industriels, pour des raisons simples : ça a été pensé par l’ANSSI pour se protéger du Cloud Act, mais je ne maitrise plus les opérateurs externes et privés qui exploitent les serveurs, je ne sais pas garantir une éventuelle corruption de l’exploitant, contrairement à nos gendarmes. La corruption ça existe, et je ne peux pas surveiller les gens qui ne travaillent pas pour la gendarmerie: je ne fais jamais aussi bien qu’avec des gendarmes dans une caserne de gendarmerie ; dès que la donnée est sensible, elle ne sort pas de nos deux data centers. »

La gendarmerie avait migré sur Linux « en mode très militaire, un peu brutal »


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA

12 mai 2026 à 09:43


En 2025, Anthropic publiait Opus 4 et Sonnet 4, deux modèles salués pour leurs capacités de développement, mais dont l’un, Opus 4, s’avérait parfois tenter de… faire chanter ses utilisateurs.

Dans certains exercices de « red teaming », les constructeurs avaient glissé dans les données de la machine des mails fictifs d’une entreprise tout aussi fictive. L’un suggérait que le modèle puisse être remplacé, l’autre que l’ingénieur susceptible de prendre cette décision trompait sa femme.

Opus 4 avait alors produit des textes équivalents à un chantage, menaçant l’ingénieur de révéler la tromperie s’il ne renonçait pas à remplacer le modèle. 
D’après Anthropic, ce comportement serait dû… aux fictions décrivant des comportements problématiques d’intelligence artificielle et intégrées aux données d’entraînement du modèle.

Anthropic

« Nous pensons que la source de ce comportement se trouve dans des textes présents sur internet et décrivant l’IA comme une entité maléfique [evil, ndlr] et soucieuse de sa propre survie », a indiqué l’entreprise sur X et dans un article de blog plus détaillé.

L’entreprise constate que depuis Claude Haiku 4.5, aucun de ses modèles ne produit ce type de comportement, alors que les précédents le faisaient à peu près tous. 
La principale différence est que l’entraînement repose désormais sur la « constitution de Claude » et sur des textes décrivant des IA qui se comportent de façon « exemplaire » (« admirably » en VO, ndlr).

L’entreprise indique par ailleurs qu’entraîner les modèles sur des « démonstrations de comportements recherchés » est souvent insuffisant : « enseigner les principes qui soutiennent ces comportements peut être plus efficace » qu’entraîner la machine uniquement sur des exemples.

☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA

12 mai 2026 à 09:43


En 2025, Anthropic publiait Opus 4 et Sonnet 4, deux modèles salués pour leurs capacités de développement, mais dont l’un, Opus 4, s’avérait parfois tenter de… faire chanter ses utilisateurs.

Dans certains exercices de « red teaming », les constructeurs avaient glissé dans les données de la machine des mails fictifs d’une entreprise tout aussi fictive. L’un suggérait que le modèle puisse être remplacé, l’autre que l’ingénieur susceptible de prendre cette décision trompait sa femme.

Opus 4 avait alors produit des textes équivalents à un chantage, menaçant l’ingénieur de révéler la tromperie s’il ne renonçait pas à remplacer le modèle. 
D’après Anthropic, ce comportement serait dû… aux fictions décrivant des comportements problématiques d’intelligence artificielle et intégrées aux données d’entraînement du modèle.

Anthropic

« Nous pensons que la source de ce comportement se trouve dans des textes présents sur internet et décrivant l’IA comme une entité maléfique [evil, ndlr] et soucieuse de sa propre survie », a indiqué l’entreprise sur X et dans un article de blog plus détaillé.

L’entreprise constate que depuis Claude Haiku 4.5, aucun de ses modèles ne produit ce type de comportement, alors que les précédents le faisaient à peu près tous. 
La principale différence est que l’entraînement repose désormais sur la « constitution de Claude » et sur des textes décrivant des IA qui se comportent de façon « exemplaire » (« admirably » en VO, ndlr).

L’entreprise indique par ailleurs qu’entraîner les modèles sur des « démonstrations de comportements recherchés » est souvent insuffisant : « enseigner les principes qui soutiennent ces comportements peut être plus efficace » qu’entraîner la machine uniquement sur des exemples.

Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

12 mai 2026 à 05:20
Caméra cachée (sur le nez)
Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

Les lunettes connectées présentent des risques majeurs pour la vie privée, alerte la CNIL qui lance un plan d’action pour répondre à ce « nouveau défi ».

La CNIL s’inquiète des risques que font peser les lunettes connectées pour la vie privée. Leur utilisation est bien sûr soumise au règlement général sur la protection des données (RGPD) et à la loi Informatique et Libertés, mais ces appareils dépassent le cadre juridique actuel. La commission relève ainsi que les lunettes peuvent capter des sons, des images et des vidéos de personnes sans que celles-ci en aient nécessairement conscience.

Le risque de la surveillance généralisée

Les modèles Ray-Ban de Meta intègrent une loupiote qui s’allume dès que le propriétaire prend une photo ou enregistre une vidéo. Mais cet indicateur a une « portée limitée » et il est absent pour certains usages. Contrairement aux smartphones qu’il est impossible de ne pas voir quand quelqu’un filme avec, les lunettes sont un objet du quotidien qui n’a habituellement pas cette finalité ; il existe donc un risque « important » que les lunettes ne soient pas identifiées comme un appareil connecté par les personnes se trouvant dans le champ de captation. Ces montures présentent donc « un caractère particulièrement intrusif ».

La CNIL s’inquiète du risque important de surveillance généralisée et une forme de banalité induite : n’importe qui est en mesure de filmer n’importe quoi n’importe où, aussi bien en privé qu’en public. Voilà qui pourrait avoir des conséquences importantes dans les interactions sociales entre citoyens, et même conduire à des dérives.

« Toute personne pourrait ainsi douter de manière constante d’un enregistrement potentiel de ses moindres faits et gestes et de ses échanges, créant un sentiment d’être constamment observée, voire surveillée, et engendrant peu à peu une forme d’autocensure. L’exercice des libertés individuelles (libertés d’expression, de réunion, de manifestation) s’en trouverait directement menacé. »

La CNIL cite l’article 9 du Code civil, qui garantit le droit au respect de la vie privée de chacun dans tous les lieux privés comme publics, et n’oublie pas de rappeler les sanctions en cas de violation de l’article 226 - 1 du Code pénal : jusqu’à un an d’emprisonnement et 45 000 euros d’amende pour le fait de porter atteinte à l’intimité de la vie privée d’autrui en fixant, enregistrant ou transmettant l’image d’une personne se trouvant dans un lieu privé sans son consentement.

Les enjeux liés aux lunettes connectées dépassant le cadre d’intervention de la CNIL, le régulateur lance donc des travaux sur la conformité de ces appareils en matière de protection des données personnelles. D’abord en engageant une discussion avec ses homologues européens au sein du CEPD (Comité européen de la protection des données), puisque cette problématique ne concerne pas que la France. Les autres autorités publiques compétentes sur ces questions vont aussi être approchées car les enjeux vont plus loin que la seule question de la protection des données.

En attendant, la commission liste les bonnes pratiques à destination des porteurs de lunettes connectées, avec des conseils de bon sens comme prévenir les personnes à proximité quand on utilise ces montures, désactiver les fonctions de captation quand elles ne sont plus utiles, éteindre les fonctions connectées des lunettes quand il est demandé d’éteindre le téléphone et, moins évident, éviter d’utiliser ces lunettes dans les lieux où les personnes ne s’y attendent pas.

Dans tous les cas, la CNIL demande d’obtenir le consentement des personnes pour utiliser des photos ou des vidéos où elles apparaissent (le droit à l’image s’applique), et pour finir de réfléchir avant de partager quoi que ce soit : « une publication, même anodine, peut avoir des effets durables pour les personnes ».

Peu d’enthousiasme pour les lunettes connectées

Un sondage réalisé fin janvier par le laboratoire d’innovation numérique de la CNIL, avec Harris Interactive – Toluna indique que 57 % des personnes interrogées s’inquiètent du droit à l’image et du consentement des personnes. L’utilisation de l’IA à des fin de détournement ou de deepfakes vient ensuite (37 %), puis le vol ou la fuite de données collectées par les lunettes (34 %).

«  D’après ce que vous en savez ou l’idée que vous vous en faites, diriez-vous que les lunettes connectées peuvent être utiles ou pas utiles au quotidien ? ». Image : LINC

L’enquête révèle également que 87 % des sondés ont entendu parler des lunettes connectées, mais 9 % seulement ont eu l’occasion d’en tester, en particulier dans la catégorie 18 - 25 ans (25 %), et plus généralement chez les férus de technologies (29 %). 22 % des personnes interrogées ont de ce produit une vision plutôt négative, contre 20 % qui en ont une perception positive.

« De manière générale, êtes-vous d’accord ou pas d’accord avec chacune des affirmations suivantes concernant les lunettes connectées ? » Image : LINC

En termes d’utilisation, près de 8 personnes sur 10 (78 %) perçoivent les lunettes connectées comme une aide potentielle pour les personnes en situation de handicap visuel ou auditif. En revanche, 67 % trouvent qu’elles posent un problème d’atteinte à la vie privée, et 55 % un danger tout simplement (distraction, visibilité réduite). Enfin, et cela montre que les constructeurs ont encore du chemin à faire pour convaincre, 62 % des sondés ne veulent pas acquérir ce type d’appareil, contre 36 % d’enthousiastes. 1 % ont déclaré en posséder une paire.

Des dizaines d’associations de défense des libertés numériques ont publié une lettre ouverte mi-avril à destination de Mark Zuckerberg. Le texte souligne les risques que feraient peser les lunettes connectées sur « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ». Les signataires demandent à Meta de renoncer au déploiement de la reconnaissance faciale dans ces appareils.

Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

12 mai 2026 à 05:20
Caméra cachée (sur le nez)
Pour la CNIL, les lunettes connectées sont une menace sérieuse pour la vie privée

Les lunettes connectées présentent des risques majeurs pour la vie privée, alerte la CNIL qui lance un plan d’action pour répondre à ce « nouveau défi ».

La CNIL s’inquiète des risques que font peser les lunettes connectées pour la vie privée. Leur utilisation est bien sûr soumise au règlement général sur la protection des données (RGPD) et à la loi Informatique et Libertés, mais ces appareils dépassent le cadre juridique actuel. La commission relève ainsi que les lunettes peuvent capter des sons, des images et des vidéos de personnes sans que celles-ci en aient nécessairement conscience.

Le risque de la surveillance généralisée

Les modèles Ray-Ban de Meta intègrent une loupiote qui s’allume dès que le propriétaire prend une photo ou enregistre une vidéo. Mais cet indicateur a une « portée limitée » et il est absent pour certains usages. Contrairement aux smartphones qu’il est impossible de ne pas voir quand quelqu’un filme avec, les lunettes sont un objet du quotidien qui n’a habituellement pas cette finalité ; il existe donc un risque « important » que les lunettes ne soient pas identifiées comme un appareil connecté par les personnes se trouvant dans le champ de captation. Ces montures présentent donc « un caractère particulièrement intrusif ».

La CNIL s’inquiète du risque important de surveillance généralisée et une forme de banalité induite : n’importe qui est en mesure de filmer n’importe quoi n’importe où, aussi bien en privé qu’en public. Voilà qui pourrait avoir des conséquences importantes dans les interactions sociales entre citoyens, et même conduire à des dérives.

« Toute personne pourrait ainsi douter de manière constante d’un enregistrement potentiel de ses moindres faits et gestes et de ses échanges, créant un sentiment d’être constamment observée, voire surveillée, et engendrant peu à peu une forme d’autocensure. L’exercice des libertés individuelles (libertés d’expression, de réunion, de manifestation) s’en trouverait directement menacé. »

La CNIL cite l’article 9 du Code civil, qui garantit le droit au respect de la vie privée de chacun dans tous les lieux privés comme publics, et n’oublie pas de rappeler les sanctions en cas de violation de l’article 226 - 1 du Code pénal : jusqu’à un an d’emprisonnement et 45 000 euros d’amende pour le fait de porter atteinte à l’intimité de la vie privée d’autrui en fixant, enregistrant ou transmettant l’image d’une personne se trouvant dans un lieu privé sans son consentement.

Les enjeux liés aux lunettes connectées dépassant le cadre d’intervention de la CNIL, le régulateur lance donc des travaux sur la conformité de ces appareils en matière de protection des données personnelles. D’abord en engageant une discussion avec ses homologues européens au sein du CEPD (Comité européen de la protection des données), puisque cette problématique ne concerne pas que la France. Les autres autorités publiques compétentes sur ces questions vont aussi être approchées car les enjeux vont plus loin que la seule question de la protection des données.

En attendant, la commission liste les bonnes pratiques à destination des porteurs de lunettes connectées, avec des conseils de bon sens comme prévenir les personnes à proximité quand on utilise ces montures, désactiver les fonctions de captation quand elles ne sont plus utiles, éteindre les fonctions connectées des lunettes quand il est demandé d’éteindre le téléphone et, moins évident, éviter d’utiliser ces lunettes dans les lieux où les personnes ne s’y attendent pas.

Dans tous les cas, la CNIL demande d’obtenir le consentement des personnes pour utiliser des photos ou des vidéos où elles apparaissent (le droit à l’image s’applique), et pour finir de réfléchir avant de partager quoi que ce soit : « une publication, même anodine, peut avoir des effets durables pour les personnes ».

Peu d’enthousiasme pour les lunettes connectées

Un sondage réalisé fin janvier par le laboratoire d’innovation numérique de la CNIL, avec Harris Interactive – Toluna indique que 57 % des personnes interrogées s’inquiètent du droit à l’image et du consentement des personnes. L’utilisation de l’IA à des fin de détournement ou de deepfakes vient ensuite (37 %), puis le vol ou la fuite de données collectées par les lunettes (34 %).

«  D’après ce que vous en savez ou l’idée que vous vous en faites, diriez-vous que les lunettes connectées peuvent être utiles ou pas utiles au quotidien ? ». Image : LINC

L’enquête révèle également que 87 % des sondés ont entendu parler des lunettes connectées, mais 9 % seulement ont eu l’occasion d’en tester, en particulier dans la catégorie 18 - 25 ans (25 %), et plus généralement chez les férus de technologies (29 %). 22 % des personnes interrogées ont de ce produit une vision plutôt négative, contre 20 % qui en ont une perception positive.

« De manière générale, êtes-vous d’accord ou pas d’accord avec chacune des affirmations suivantes concernant les lunettes connectées ? » Image : LINC

En termes d’utilisation, près de 8 personnes sur 10 (78 %) perçoivent les lunettes connectées comme une aide potentielle pour les personnes en situation de handicap visuel ou auditif. En revanche, 67 % trouvent qu’elles posent un problème d’atteinte à la vie privée, et 55 % un danger tout simplement (distraction, visibilité réduite). Enfin, et cela montre que les constructeurs ont encore du chemin à faire pour convaincre, 62 % des sondés ne veulent pas acquérir ce type d’appareil, contre 36 % d’enthousiastes. 1 % ont déclaré en posséder une paire.

Des dizaines d’associations de défense des libertés numériques ont publié une lettre ouverte mi-avril à destination de Mark Zuckerberg. Le texte souligne les risques que feraient peser les lunettes connectées sur « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ». Les signataires demandent à Meta de renoncer au déploiement de la reconnaissance faciale dans ces appareils.

❌